14 روش که می تواند هوش مصنوعی را به یک آسیب رسان برای جامعه تبدیل کند

شماره :
41971
آخرین به روزرسانی :
سه شنبه 1402/06/28 ساعت 16:39
دسته بندی

14 روش که می تواند هوش مصنوعی را به یک آسیب رسان برای جامعه تبدیل کند

تردیدی نیست که هوش مصنوعی مزایای زیادی را برای افراد و مشاغل به همراه داشته است. از کمک به مصرف کنندگان در خرید و پاسخگویی به سوالات بصورت آنلاین گرفته تا افزایش بهره وری و خدمات مشتری گرفته تا درمان بیماری و ردیابی شیوع COVID-19 ، هوش مصنوعی از بسیاری جهات یک مزیت فوق العاده برای جامعه بوده است.

اما هوش مصنوعی بدون اشکال جدی نیست. وابستگی کامل به انسانهایی که آن را می سازند و آموزش می دهند ، می تواند با تعصبات سازندگان آن تزریق شود. و عواقب منفی دیگر می تواند با تسلط فزاینده هوش مصنوعی همراه باشد که برای افراد معمولی مشهود نیست.

در حالی که هوش مصنوعی ابزاری فوق العاده مفید است ، اما مهم است که دولت ها ، مشاغل و عموم مردم از آنچه می تواند اتفاق بیفتد در صورت استفاده بی رویه از هوش مصنوعی یا بدون نظارت دقیق انسان ، آگاه باشند. در زیر ، 14 رهبر صنعت فناوری از شورای فناوری Forbes روشهایی را برای آسیب رساندن به هوش مصنوعی برای جامعه و چگونگی کمک به کاهش خطرات به اشتراک می گذارند.

1. هوش مصنوعی می تواند عدم حفظ حریم خصوصی را ایجاد کند.

هوش مصنوعی تمایل سیری ناپذیری به داده ها دارد ، چه از گذشته و چه از امروز. آنچه که ما می گوییم و انجام می دهیم به طور فزاینده ای "ثبت خواهد شد" ، مگر اینکه مصرف کنندگان آموزش ببینند تا در مورد محل استقرار هوش مصنوعی آگاهانه تصمیم بگیرند - مانند لبه ها ، جایی که داده های آنها می تواند ایمن بماند یا در ابر ، جایی که به طور مداوم در آن قرار دارد در خطرباشد .

2. هوش مصنوعی فاقد شفافیت و مغرضانه است.

الی پاریسر در مورد چیزی که "حباب های فیلتر" می نامد هشدار داده است ، یا مکان های تاریکی که یک الگوریتم می تواند شما را در صورت عدم کنترل انتخاب کند. این می تواند بی گناه باشد: به عنوان مثال ، من مدام فیلم های جادوگری می گیرم زیرا یک ویدیو از America's Got Talent را "دوست داشتم". مشکل ترسناک زمانی است که این الگوریتم ها در فضاهایی مانند مراقبت های بهداشتی بدون کنترل کار می کنند. عدم شفافیت این فناوری و سوگیری آن از مشکلات امروز هوش مصنوعی است. - کوین کالینز ، چارلی هوش مصنوعی.

3. هوش مصنوعی ممکن است مانع پیشرفت جامعه شود.

تاریخ نشان می دهد که پیشرفت در جوامع غالباً نتیجه اقدامات شجاعانه افراد بیگانه است - افرادی که مایل به معرفی روش های جدید تفکر در مورد جهان هستند. بیشتر سیستم های هوش مصنوعی از داده های گذشته برای پیش بینی آینده استفاده می کنند. با نقش آفرینی هوش مصنوعی در تصمیم گیری ها ، توانایی مهاجران در تغییر قوانین بازی و پیشرفت جامعه می تواند محدود شود. - آندره فراز .

4- هوش مصنوعی می تواند منجر به نتایج ناعادلانه شود.

روش های مختلفی وجود دارد که هوش مصنوعی می تواند به ضرر جامعه باشد. یادگیری ماشینی ، زیرمجموعه ای از هوش مصنوعی ، از مقادیر گسترده ای از داده ها می آموزد و از این رو خطر تداوم سوگیری داده ها را به همراه دارد. موارد استفاده از هوش مصنوعی از جمله شناسایی چهره و تجزیه و تحلیل پیش بینی می تواند بر کلاس های محافظت شده در مناطقی مانند رد وام ، عدالت کیفری و تعصب نژادی تأثیر منفی بگذارد و منجر به نتایج غیرمنصفانه برای افراد خاص شود. 

5-هوش مصنوعی می تواند تمایل ما به انتخاب دشوار را محدود کند.

هوش مصنوعی که قصد دارد ما را آزاد کند ، انتخاب های ما را محدود می کند. یک چیز که هوش مصنوعی در آن بسیار خوب اثبات شده است ، امکان اندازه گیری و دستکاری افراد است. اگر مسئولیت خود را در انجام مراقبت های شخصی واگذار کنیم زیرا "هوش مصنوعی این کار را بهتر انجام می دهد" ، از تفکر غیر اجماع اجتناب می کنیم زیرا هوش مصنوعی آن را بهینه نمی داند ، یا اقدام مستقیمی انجام نمی دهیم زیرا هوش مصنوعی آن را خطرناک می داند ، زندگی ما بهبود نخواهد یافت. - دیوید کروگر .

6. پیش بینی های اشتباه AI می تواند منجر به وقایع تهدید کننده زندگی شود.

هوش مصنوعی فقط به خوبی داده هایی است که برای آموزش آن استفاده می شود. از منظر صنعت ، این مسئله با توجه به اینکه غالباً کمبود داده های آموزشی برای خرابی های واقعی در سیستم های حیاتی وجود دارد ، مسئله ساز است. این امر وقتی خطرناک می شود که یک پیش بینی اشتباه منجر به وقایع بالقوه تهدید کننده زندگی مانند حوادث تولیدی یا نشت نفت شود. به همین دلیل تمرکز بر هوش مصنوعی ترکیبی و "هوش مصنوعی قابل توضیح" ضروری است. - فرانسوا لابری.

7. هوش مصنوعی شغل و امنیت را تهدید می کند.

در حالی که هوش مصنوعی راه حل های آینده نگرانه را ارائه می دهد ، من دو مسئله مهم را با آن می بینم: نقض امنیت و از دست دادن شغل. مطمئناً هوش مصنوعی می تواند وظایف ما را انجام دهد ، اما تا چه حد هنوز باید بررسی شود. در مورد نگرانی های امنیتی ، هوش مصنوعی می تواند امنیت دیجیتال ، امنیت فیزیکی و امنیت سیاسی را تهدید کند ، به این معنی که ما به مهندسین داده و متخصصان بیشتری در زمینه امنیت سایبری نیاز داریم. - سانجی ویاس ، دیوتا

8- مجرمان اینترنتی می توانند برای کلاهبرداری های مهندسی اجتماعی از هوش مصنوعی استفاده کنند.

متأسفانه ، مجرمان اینترنتی در طول تاریخ بهتر و سریعتر از بقیه ما فناوری را پذیرفته اند. هنگامی که کلاهبرداران برای سرقت پول ، داده های حساس و مالکیت معنوی محرمانه با تظاهر به افراد و نهادهای مورد اعتماد ما ، از deepfakes و مدل های یادگیری عمیق به عنوان وسیله ای برای مهندسی اجتماعی استفاده می کنند ، AI می تواند به ضرر جامعه باشد. -

 9. هوش مصنوعی می تواند بسیار پیچیده شود.

اگر هوش مصنوعی به طور فزاینده ای پیچیده و مات شود - همانطور که این روند ادامه دارد - این یک تحول نگران کننده است. برای اینکه انسان به همکار دیجیتال خود اعتماد کند ، هوش مصنوعی باید شفاف باشد ، و دلایل توصیه های آن را برای جلب اعتماد انسان توضیح دهد تا بتواند اتوماسیون سودمندی در محل کار ایجاد کند.

10. هوش مصنوعی فاقد هوش هیجانی است.

هوش مصنوعی در خروجی های ریاضی که خطی هستند عالی است. با این حال ، این یک الگوریتم است که به مجموعه داده های سیستماتیک برای تصمیم گیری نگاه می کند. هیچ هوش هیجانی در الگوریتم ها وجود ندارد. این الگوریتم ها به طور ذاتی توسعه یافته اند تا مسیر کمترین مقاومت را پیدا کنند. اگر برای تصمیم گیری صرفاً به هوش مصنوعی اعتماد کنیم ، پیامدهای بی نظیری برای جامعه خواهد داشت. - آماندا دورنبرگ . 

11. مشاهده هوش مصنوعی به عنوان "انسان" فرزندخواندگی را مختل می کند.

انسان سازی هوش مصنوعی یک چالش اساسی است که جامعه با آن روبرو است. وقتی از نظر انسان به هوش مصنوعی فکر می کنیم ، انسانیت را به این فناوری نسبت می دهیم. به جای اینکه فکر کنیم هوش مصنوعی انسان است ، باید مفهوم اجتماعی چیزی را بسازیم که نه انسان باشد و نه حیوان بلکه چیزی جدید و آشنا است. برای پیشرفت هوش مصنوعی ، باید آن را نه به عنوان "ما" بلکه به عنوان یک همراه خود ببینیم. - تیم کالپ ، ذهن بیش از ماشین

12. هوش مصنوعی می تواند از تفکر خارج از چارچوب جلوگیری کند.

یک چالش بزرگ برای هوش مصنوعی این است که می تواند "ما را درگیر خود کند". امروز به منبع خبری مورد علاقه خود فکر کنید ، خواه یک برنامه باشد یا یک وب سایت. هرچه بیشتر انواع خاصی از اخبار را بخوانید ، بیشتر اوقات هوش مصنوعی پشت آن همان نوع اخبار را در اختیار شما قرار می دهد. دیدگاه های شما شروع به تنگ شدن می کند. هوش مصنوعی در صرفه جویی در وقت در فرآیندهای مختلف خوب است ، اما فکر کردن "خارج از چارچوب" هنوز هم توسط ما - انسان ها انجام می شود. - اریک ترابلد ، نکسکی .

13. هوش مصنوعی باعث خود ارادی می شود.

مغز ما برای تصمیم گیری های پیچیده ، خلاقانه و گاه غیر منطقی تکامل یافته است. هوش مصنوعی منطقی می آموزد و عمل می کند. اگر همه کنترل خود را کنار بگذاریم ، در نهایت به دنیایی خواهیم رسید که در پاسخ به داده های ورودی منطقی است اما در عین حال مبهم و تکراری است. متاسفانه ، تنبلی ممکن است به این معنی باشد که ما مخالفتی نداریم و از نتایج راضی می شویم. - کوین کورته.

14. هوش مصنوعی امنیت شخصی را تهدید می کند.

اجرای قانون با تسهیلات انسانی در حال حاضر با حساب در سراسر جهان روبرو است. تصور کنید اگر توسط هوش مصنوعی انجام شده باشد. پلیس هرگز نباید خودکار باشد. تمام آنچه که لازم است این است که فناوری به دست اشتباه می افتد و ما می توانیم با واقعیت های مختلف دوگانه سراشیبی روبرو شویم. حمله به حریم شخصی و نیروی مرگبار خودکار می تواند عواقب ناگواری باشد. - مارک فیشر ، 

202000325.016

X