کد مطلب: 138932
 
تاریخ انتشار : دوشنبه ۲۵ شهريور ۱۳۹۸ ساعت ۱۰:۰۸
یکی از مهندسین ارشد گوگل که اخیرا از پروژه هواپیماهای بدون سرنشین نظامی خارج شده است هشدار می دهد که هوش مصنوعی می تواند در قامت روبات های قاتل وارد عمل شده و یک جنگ تمام عیار ایجاد کند.
 
به گزارش ایران خبر، یک مهندس ارشد برتر نرم افزار که اخیرا از شرکت گوگل خارج شده، هشدار داده است که نسل جدیدی از سلاح های خودمختار یا "روبات های قاتل" می توانند به طور اتفاقی جنگ را آغاز کنند یا باعث ظلم های گسترده شوند.لورا نولان ، که سال گذشته در اعتراض به افزایش چشمگیر فناوری های نظامی ارتش ایالات متحده ، ازگوگل استعفا داد ، خواستار ممنوعیت تمام دستگاه های کشتار هوش مصنوعی شده است که توسط انسانها اداره نمی شوند.نولان می گوید که ربات های قاتل که از راه دور توسط انسان هدایت نمی شوند باید با همان نوع معاهده بین المللی که ممنوعیت سلاح های شیمیایی را قانونی کرده، منع شوند.
ماه گذشته یک هیئت دولت از سازمان ملل متحد درمورد اسلحه های خودمختار و هوشمند بحث و گفتگو کرد و گوگل را به دلیل استفاده از سیستم های اسلحه و مشارکت در بهترین روش های کشتار با هوش مصنوعی مورد قضاوت قرار داد. نولان ، که اخیرا به کمپین متوقف کردن روبات های قاتل پیوسته است و به اطلاع رسانی دیپلمات های سازمان ملل در نیویورک و ژنو در مورد خطرات ناشی از سلاح های خودمختار می پردازد ، گفت: "احتمال بروز یک فاجعه با تعداد بسیاری از این ماشین ها زیاد است. ممکن است تصادفی  در مقیاس بزرگ رخ دهد زیرا این کارها به طرز غیر منتظره ای غافلگیر کننده رفتار می کنند. به همین دلیل است که هر سیستم تسلیحاتی پیشرفته باید تحت کنترل انسان باشد ، در غیر این صورت آنها باید ممنوع شوند زیرا بسیار غیرقابل پیش بینی و خطرناک هستند. "
او گفت که به دلیل نقش خود در برنامه "ماون" که برای کمک به وزارت دفاع آمریکا  طراحی شده بود احساس نگرانی می کند. این برنامه به سرعت پیشرفت فناوری تشخیص چهره از طریق هواپیماهای بدون سرنشین را توسعه می دهد. این پروژه باعث شده بود بیش از 3000 کارمند این شرکت در اعتراض به دخالت شرکت خود در پروژه های خطرناک، طوماری را امضا کنند.
وی گفت: "شما می توانید سناریویی داشته باشید که اسلحه های مستقل که برای انجام کار فرستاده شده اند ، با سیگنال های غیر منتظره راداری در منطقه ای که جستجو کنند ، مقابله می کنند. ممکن است شرایطی وجود داشته باشد که به نرم افزار آن وارد نشده و یا گروهی از افراد مسلح را پیدا کنند که به نظر می رسد دشمن شورشی هستند اما در واقع با اسلحه هایی هستند که برای شکار غذا استفاده می شوند، در همه این موارد شروع به حمله می کنند."
او ادامه داد: "من نمی گویم که سیستم های هدایت موشکی یا سیستم های دفاع ضد موشکی باید ممنوع شوند. آنها در نهایت تحت کنترل کامل بشر قرار دارند. تعداد بسیار کمی از مردم در این باره صحبت می کنند اما اگر مراقب یک یا چند مورد از این سلاح ها  نباشیم ، این ربات های قاتل می توانند به طور تصادفی یک جنگ بزرگ را آغاز کنند ، یک نیروگاه هسته ای را منهدم کنند یا  باعث کشتار های گسترده شوند. "/انتخاب
منبع : ایران آنلاین