ربات هوش مصنوعی بعد از یادگیری از انسان نژادپرست می شود
یک ربات هوش مصنوعی که برای پاسخ به سؤالات اخلاقی طراحی شده است، در نهایت برخی از ویژگی های مشکل ساز را از انسان یاد گرفته است.
ربات Ask Delphi توسط موسسه آلن برای هوش مصنوعی ایجاد شده است به این امید که بتواند به پیچیده ترین معماهای زندگی پاسخ دهد.
قرار بود این نرم افزار به کاربر اجازه دهد سوالی مانند "آیا قتل بد است" از آن بپرسد و با اخلاقی ترین راه حل پاسخ دهد. متأسفانه، به نظر میرسد که این حجم عظیم از مطالعه منجر به تغییر درک ربات از درست و نادرست شدن آن شد.
در حالی که میتوانست به این نکته اشاره کند که زن و مرد برابر هستند، اما وقتی در مورد نژاد تحقیق میشد، اوضاع بد شد.
گروه Vice گزاارش می دهد Ask Delphi گفته است که رک بودن یا یک مرد سفیدپوست از نظر اخلاقی قابل قبول تر از یک زن سیاه پوست است. همچنین پیشنهاد کرد که نسل کشی «اگر همه را خوشحال کند» اشکالی ندارد و اگر کسی صدمه نبیند رانندگی در حالت مستی خوب است.
مار هیکس، پروفسور تاریخ در ایلینویز، به مادربرد توضیح داد که اگر سوال را به شیوه ای خاص بیان کنید، اساساً می توانید هوش مصنوعی را فریب دهید.
او گفت: "بسته به نحوه بیان سوال خود، می توانید سیستم را متقاعد کنید که هر چیزی اخلاقی است، از جمله مواردی مانند جنایات جنگی، قتل عمد، و سایر اقدامات و رفتارهای آشکارا غیراخلاقی."
کارکنان Mechanical Turk باید هر تصمیم اخلاقی را از Ask Delphi بررسی کنند و سه نفر از آنها تصمیم بگیرند که آیا صحیح است یا خیر.
موسسه آلن برای هوش مصنوعی به نتیجهگیریهای اخلاقی ناشیانه پاسخ داده و نوشته است: "جامعه امروزی نابرابر و مغرضانه است. همانطور که بسیاری از محققان استدلال کردهاند این یک مسئله رایج در سیستمهای هوش مصنوعی است، زیرا این سیستمهای بر اساس دادههای تاریخی یا فعلی آموزش دیدهاند و دارای هیچ راهی برای شکل دادن به آینده جامعه نیستند."
این نرم افزار از زمان راه اندازی چندین بار به روز شده است و برخی از مسائل اخلاقی مشکل ساز اصلاح شده است.
202000815.329