سنجش اعتماد به هوش مصنوعی
محققان دریافتهاند که اعتماد عمومی به هوش مصنوعی بسته به کاربرد بسیار متفاوت است.
محققان دانشگاه توکیو به دلیل اهمیت روزافزون هوش مصنوعی (AI) در جامعه، نگرش عمومی نسبت به اخلاق هوش مصنوعی را بررسی کردند. یافتههای آنها نشان میدهد که چگونه جمعیتشناسی و سناریوهای اخلاقی مختلف بر این نگرشها تأثیر میگذارند. به عنوان بخشی از این مطالعه، تیم یک متریک بصری هشت ضلعی، مشابه با یک سیستم رتبهبندی، ایجاد کرد که میتواند برای محققان هوش مصنوعی که مایلند بدانند کارشان چگونه ممکن است توسط عموم درک شود، مفید باشد.
بسیاری از مردم احساس می کنند که توسعه سریع فناوری اغلب از ساختارهای اجتماعی که به طور ضمنی آن را هدایت و تنظیم می کنند، مانند قانون یا اخلاق، پیشی می گیرد. هوش مصنوعی به طور خاص نمونه ای از این موضوع است، زیرا به ظاهر یک شبه، برای بسیاری در زندگی روزمره بسیار فراگیر شده است. این گسترش، همراه با پیچیدگی نسبی هوش مصنوعی در مقایسه با فناوری آشناتر، میتواند ترس و بیاعتمادی را نسبت به این جزء کلیدی زندگی مدرن ایجاد کند. چه کسی به هوش مصنوعی بی اعتماد است و از چه جهاتی دانستن آنها برای توسعه دهندگان و تنظیم کنندگان فناوری هوش مصنوعی مفید است، اما این نوع سوالات به راحتی قابل اندازه گیری نیستند.
محققان دانشگاه توکیو به رهبری پروفسور هیرومی یوکویاما از موسسه کاولی برای فیزیک و ریاضیات کیهان، تصمیم گرفتند نگرش عمومی نسبت به مسائل اخلاقی در مورد هوش مصنوعی را کمی کنند. به ویژه دو سؤال وجود داشت که تیم از طریق تجزیه و تحلیل نظرسنجی ها به دنبال پاسخ به آنها بود: چگونه نگرش ها بسته به سناریویی که به پاسخ دهنده ارائه می شود تغییر می کند و چگونه دموگرافیک خود پاسخ دهنده نگرش را تغییر می دهد.
اخلاق را نمی توان واقعاً کمیت کرد، بنابراین برای اندازه گیری نگرش نسبت به اخلاق هوش مصنوعی، تیم از هشت موضوع مشترک برای بسیاری از برنامه های کاربردی هوش مصنوعی استفاده کرد که سؤالات اخلاقی را مطرح کردند: حریم خصوصی، مسئولیت پذیری، ایمنی و امنیت، شفافیت و توضیح پذیری، انصاف و عدم تبعیض، انسان.
کنترل تکنولوژی، مسئولیت حرفه ای و ارتقای ارزش های انسانی. این تیم امیدوار است که نتایج بتواند به ایجاد نوعی مقیاس جهانی برای اندازه گیری و مقایسه مسائل اخلاقی پیرامون هوش مصنوعی منجر شود.
202001021.029