مدل های تشخیصی هوش مصنوعی را می توان با حملات سایبری فریب داد
مدلهای هوش مصنوعی تشخیصی (AI) در تحقیقات بالینی امیدوارکننده هستند، اما مطالعه جدیدی که توسط محققان دانشگاه پیتسبورگ انجام شد و در Nature Communications منتشر شد، نشان داد که حملات سایبری با استفاده از تصاویر پزشکی جعلی میتواند مدلهای هوش مصنوعی را فریب دهد.
این مطالعه مفهوم «حملات خصمانه» را روشن کرد، که در آن بازیگران بد قصد دارند تصاویر یا سایر نقاط داده را تغییر دهند تا مدلهای هوش مصنوعی نتیجهگیری نادرست بگیرند.
محققان با آموزش یک الگوریتم یادگیری عمیق شروع کردند که قادر بود موارد سرطانی و خوش خیم را با دقت بیش از 80 درصد شناسایی کند.
سپس، محققان یک "شبکه متخاصم مولد" (GAN) را توسعه دادند که یک برنامه کامپیوتری است که با قرار دادن نادرست مناطق سرطانی از تصاویر منفی یا مثبت برای اشتباه گرفتن مدل، تصاویر نادرست تولید می کند. مدل هوش مصنوعی توسط 69.1 درصد از تصاویر جعلی فریب خورده است.
مدل های هوش مصنوعی به طور فزاینده ای در بهبود مراقبت از سرطان و تشخیص زودهنگام مفید شده اند. اما مانند هر فناوری جدید، محققان باید خطرات سایبری را در نظر بگیرند.
تصاویر جعلی خاصی که هوش مصنوعی را فریب می دهند ممکن است به راحتی توسط رادیولوژیست ها شناسایی شوند. با این حال، بسیاری از تصاویر متخاصم در این مطالعه نه تنها مدل را فریب دادند، بلکه خوانندگان انسانی با تجربه را نیز فریب دادند.
محققان اکنون در حال بررسی "آموزش خصمانه" برای مدل هوش مصنوعی هستند، که شامل پیش تولید تصاویر متخاصم و آموزش این مدل است که تصاویر جعلی هستند.
مدلهای هوش مصنوعی پس از اجرا به شدت خودکفا میشوند، اما هنوز هم بسیار مهم است که انسان بر ایمنی و امنیت چنین مدلهایی نظارت کند. با وجود شیوههای امنیتی کافی، هوش مصنوعی میتواند به بخشی از زیرساختهای مراقبتهای بهداشتی در مقیاس بزرگتر تبدیل شود.
202000930.368