آمازون و مایکروسافت با ساختن ربات‌های قاتل دنیا را به‌خطر می‌اندازند

 
آمازون و مایکروسافت، غول‌های بزرگ فناوری، با دستیابی به تکنولوژی هوش مصنوعی کُشنده و ساخت ربات‌های قاتل، جهان را درمعرض خطر قرار خواهند داد.
 
به‌گزارش خبرگزاری فرانسه (AFP)، براساس نتایج نظرسنجی از افراد مهم و تأثیرگذار حوزه‌ی فناوری درباره‌ی سلاح‌های مستقل کشنده و مرگ‌بار، آمازون و مایکروسافت و اینتل سه غول بزرگ و برتر فناوری، با ساخت ربات‌های قاتل، جهان را درمعرض خطر قرار می‌دهند. سازمان غیردولتی هلندی پکس (Dutch NGO Pax) شرکت‌ها را با سه معیار رتبه‌بندی کرده است. این سه معیار عبارت‌اند از:
 
آیا در حال توسعه فناوری مرتبط با هوش مصنوعی مرگ‌بار هستند؟؛
آیا مشغول انجام پروژه‌های نظامی مرتبط هستند؟؛
آیا به منع مشارکت در پروژه‌های مربوط به آینده متعهد شده‌اند یا خیر؟؛
فرانک اسلیپر، نویسنده‌ی اصلی گزارش منتشرشده گفت:
 
چرا شرکت‌هایی مانند مایکروسافت و آمازون انکار نمی‌کنند در‌حال‌حاضر، مشغول تولید چنین سلاح‌های بسیار بحث‌برانگیزی هستند که بدون دخالت مستقیم انسان می‌توانند به کشتن افراد تصمیم بگیرند؟
 
استفاده از هوش مصنوعی در سیستم‌های تسلیحاتی که به‌طور مستقل به‌ آن‌ها اجازه‌ی انتخاب و حمله به هدف داده می‌شود، بحث‌های اخلاقی زیادی در سال‌های اخیر برانگیخته است. منتقدان هشدار می‌دهند چنین اقداماتی می‌تواند امنیت بین‌المللی را به‌خطر بیندازد و پس از اختراع باروت و بمب اتمی، به انقلاب سوم در ساخت جنگ‌افزارها منجر شود.روز چهارشنبه‌ی گذشته، هیئتی از کارشناسان دولتی درباره‌ی سیاست‌های مربوط به سلاح‌های مستقل کشنده جلسه‌ای در مقر سازمان ملل در ژنو ترتیب دادند تا درباره‌ی سلاح‌های متعارف خاص بحث و تبادل‌نظر کنند.
 
 
برخلاف آمازون و مایکروسافت، گوگل که سال گذشته «اصول راهنما و پایه‌ای جلوگیری از استفاده از هوش مصنوعی در سیستم‌های تسلیحاتی» را منتشر کرده بود، در سوی دیگر این رده‌بندی به‌همراه سافت بانک ژاپن در زمره‌ی شرکت‌هایی با «بهترین عملکرد» قرار گرفته‌ است. این در حالی‌ است که ۲۲ شرکت در وضعیت «نگرانی متوسط» و ۲۱ شرکت دیگر در وضعیت «نگرانی شدید» قرار داشتند.
 
در این فهرست، نام دو شرکت بزرگ و نام‌آشنا، آمازون و مایکروسافت به‌چشم می‌خورد که هر دو با پیشنهاد ۱۰ میلیارد دلاری پنتاگون برای تأمین زیرساخت‌های خدمات ابری برای ارتش ایالات متحده مواجه شده‌اند. از دیگر شرکت‌های بزرگ فناوری که در دسته‌ی «نگرانی شدید» قرار دارند، می‌توان به پلنتیر (Palantir) اشاره کرد. این شرکت در سازمان سرمایه‌گذاری موردحمایت سیا ریشه دارد و ۸۰۰ میلیون دلاری برای ساخت سیستم هوش مصنوعی به آن اعطا شده است که می‌تواند به سربازان کمک کند به‌طور هم‌زمان منطقه‌ی نبرد را تحلیل کنند.
 
استوارت راسل، استاد علوم کامپیوتر در دانشگاه برکلی، به خبرگزاری AFP گفت:
 
سلاح‌های مستقل به‌ناچار به سلاح‌های مقیاس كشتار جمعی تبدیل خواهند شد؛ زیرا اگر به دخالت انسان در این حلقه نیاز نباشد، تنها با وجود یک فرد می‌توان یک‌میلیون سلاح یا صدمیلیون اسلحه شلیک كرد.
 
او افزود:
 
واقعیت این است که سلاح‌های مستقل را شرکت‌ها و نه دولت‌ها تولید خواهند کرد. به‌ همین دلیل، این شرکت‌ها با به‌راه‌انداختن کمپین‌هایی برای جلوگیری از متداول‌شدن سلاح‌های خودکار، می‌توانند نقش تعیین‌کننده‌ای ایفا کنند.
 
توسعه‌ی هوش مصنوعی برای اهداف نظامی بحث و اعتراض‌های بسیاری در این صنعت به‌وجود آورده است. سال گذشته گوگل از تمدید قرارداد پنتاگون به‌نام پروژه‌ی هوش مصنوعی Maven امتناع کرد؛ پروژه‌ای که از یادگیری ماشین برای تمایز افراد و اشیاء در فیلم‌های پهپادی استفاده می‌کرد. همچنین، این غول دنیای جست‌وجو به برنامه‌ی وزارت دفاع آمریکا موسوم به «برنامه‌ی زیرساخت‌های دفاعی شرکت‌های مشترک» (JEDI) خاتمه داد؛ درحالی‌که آمازون و مایکروسافت امیدوار بودند از این برنامه برای قرارداد خدمات ابری خود استفاده کنند.
 
 
در این گزارش آمده است كاركنان مایکروسافت نیز با قرارداد ارتش آمریكا برای استفاده از هدست واقعیت افزوده و هولولنز (HoloLens) به‌منظور «افزایش قابلیت مرگ‌آوری» در میدان نبرد مخالفت کرده‌اند.
 
سلاح‌های خودکار چگونه خواهند بود؟
به‌گفته‌ی راسل، «هرآنچه درحال‌حاضر به‌نوعی جنگ‌افزار محسوب می‌شود، قابلیت تبدیل به سلاح خودکار را دارد؛ چراکه افراد و شرکت‌ها در حال کار روی نسخه‌های مستقل و خودمختار، اعم از تانک‌ها یا هواپیماهای جنگنده یا زیردریایی هستند.
 
باوجوداین، نگرانی‌های بیشتر درباره‌ی ظهور دسته‌های جدید سلاح‌های مستقل هنوز وجود ندارند. این سلاح‌های جدید شامل پهپادهای کوچک مسلح هستند که در فیلم کوتاه «پهبادهای قاتل» (Slaughterbots) سال ۲۰۱۷ به نمایش گذاشته شد.
 
راسل بیان کرد:
می‌توان یک‌میلیون از آن‌ها را در کانتینر یا هواپیمای باری بفرستید. این پهپادها ظرفیت مخربی به‌اندازه‌ی بمب هسته‌ای دارند؛ هرچند ازنظر فیزیکی خرابی به‌بار نمی‌آورند و حتی به ساختمان‌ها آسیب نمی‌زنند.
 
با استفاده از فناوری تشخیص چهره، هواپیماهای بدون سرنشین می‌توانند «تنها قوم یا جنسیت خاصی را از بین ببرند» یا با استفاده از اطلاعات رسانه‌های اجتماعی، می‌توان همه‌ی افراد دارای دیدگاه سیاسی خاص را از بین برد.
 
راسل درپایان گفت قدم بعدی باید در قالب ممنوعیت بین‌المللی برای تولید و استفاده از هوش مصنوعی کشنده برداشته شود. می‌توان به‌طور خلاصه گفت توسعه و استقرار و حتی استفاده از تکنولوژی هوش مصنوعی که می‌تواند به کشتن انسان تصمیم بگیرد، باید متوقف شود.