یک تیم حرفه‌ای بازی ویدیویی از هوش مصنوعی شکست خورد!

هوش مصنوعی شرکت "اوپن ای‌آی"(OpenAI) توانست یک تیم حرفه‌ای از بازیکنان بازی استراتژیک Dota 2 را شکست دهد. اکنون این هوش مصنوعی همه بازیکنان مدعی این بازی را حریف می‌طلبد.
 
به گزارش ایسنا و به نقل از انگجت، بهترین بازیکنان بازی استراتژیک Dota 2 به دنبال افتخار شکست دادن هوش مصنوعی شرکت "اوپن ای‌آی" هستند.
 
 
نسخه پنجم این هوش مصنوعی موسوم به "OpenAI Five" توانست پنج بازیکن از تیم OG که در سال ۲۰۱۸ میلادی موفق به کسب عنوان قهرمانی جهان در این بازی شده بودند را شکست داد.
 
سیستم یادگیری عمیق این هوش مصنوعی با تکیه بر روش‌های تهاجمی و غیر متعارف از جمله احیای فوری قهرمانان یا همان هیروهای بازی در مراحل اولیه و انتخاب هیروهای ارزشمند، موفق شد. تیم OG در حالی مبارزه را واگذار کرد که اولین دور بیش از ۳۰ دقیقه به طول انجامید.
 
شرکت اوپن ای‌آی از این رقابت استفاده کرد تا نشان دهد که هوش مصنوعی می‌تواند در کنار بازیکنان انسانی بازی کند و از سبک بازی آنها یاد بگیرد.
 
همگان می‌توانند در این نمایشگاه از ۱۸ تا ۲۲ آوریل با این هوش مصنوعی در هر دو حالت تیمی و رو در رو بازی کنند، اما نباید انتظار داشته باشند که برنده شوند، بلکه تنها می‌توانند ببینند که این هوش مصنوعی چقدر خوب است.
 
البته این هوش مصنوعی استراتژی‌های کوتاه مدت را ترجیح می‌دهد و در حال حاضر محدود به بازی با مجموعه‌ای از قوانین محدود است. بنابراین انسان‌ها هنوز در تصمیمات و استراتژی‌های درازمدت بهتر هستند.
 
اوپن ای‌آی یک شرکت پژوهشی غیرانتفاعی هوش مصنوعی(AI) است که هدفش توسعه هوش مصنوعی بی‌ضرر(friendly AI) برای خدمت به بشریت است. این شرکت برای همکاری آزادانه با سایر مؤسسات و پژوهشگران پتنت‌ها و تحقیقات خود را به صورت عمومی منتشر می‌نماید.
 
بخشی از انگیزه‌های بنیانگذاران اوپن ای‌آی، به ویژه ایلان ماسک و سام آلتمن به نگرانی‌هایی که در رابطه با تهدید هوش مصنوعی برای موجودیت‌های دیگر تصور می‌شود، ذکر شده است.
 
این آخرین نمایش عمومی ربات OpenAI بود، بنابراین متأسفانه بعید است که در آینده شاهد چنین مسابقه‌ای بین هوش مصنوعی و بازیکنان حرفه‌ای باشیم.
 
با این حال این پیروزی نشان می‌دهد که Five به اندازه کافی قدرتمند است تا نه تنها در بازی Dota 2 بلکه در بازی‌های دیگر با مکانیک‌های متفاوت موفق شود.
 
توسعه چنین نوعی از هوش مصنوعی به لحاظ فنی منجر به آموختن تکنیک‌هایی می‌شود که می‌توانند در ربات‌ها و خارج از دنیای بازی استفاده شوند.

قانون گذاری اتحادیه اروپا برای استفاده اخلاقی از هوش مصنوعی

اتحادیه اروپا که نگران استفاده لجام گسیخته از توانمندی‌های هوش مصنوعی است، قصد دارد برای اخلاقی کردن نحوه کاربرد آن قوانینی وضع کند.
 
به گزارش وردیکت، امروزه هوش مصنوعی در حال نفوذ به تمامی جنبه‌های زندگی انسان است و کاربردهای این پدیده نوظهور در حوزه‌هایی مانند مراقبت‌های درمانی، مدیریت مصرف انرژی، حفظ ایمنی خودروها، کشاورزی، مقابله با تغییرات آب و هوایی، مدیریت خطرات مالی و غیره روز به روز افزایش می‌یابد.
 
اما هنوز حوزه‌های چالش برانگیزی وجود دارد که این فناوری به آنها به طور کامل نفوذ نکرده و وقوع این پدیده در آینده می‌تواند زندگی انسان را تحت تأثیر جدی قرار دهد. از سوی دیگر جنبه‌های حقوقی، قانونی و قضائی این مساله نیز باید مورد توجه قرار بگیرد.
 
علت این مساله آن است که دستگاه‌های مبتنی بر هوش مصنوعی در آینده قادر به تصمیم گیری خواهند بود و لذا باید مشخص شود که آیا باید در صورت خطا با آنها مثل یک انسان مستقل برخورد کرد یا مالک آنها مسئول خواهد بود.
 
با توجه به همین موضوعات، اتحادیه اروپا نسخه اولیه یک دستورالعمل اخلاقی در مورد استفاده از هوش مصنوعی را آماده کرده تا از آن به عنوان نقشه راهی برای سازمان‌هایی استفاده شود که قصد دارند از فناوری مذکور بهره بگیرند.
 
اتحادیه اروپا از سال ۲۰۱۸ برنامه ریزی در این زمینه را آغاز کرد و گروهی از متخصصان را مأمور نوشتن این دستورالعمل کرد. بر اساس استراتژی هوش مصنوعی اتحادیه اروپا، قرار است سرمایه گذاری در این زمینه تا یک دهه آینده در قاره مذکور به طور سالانه به ۲۰ میلیارد یورو برسد.
 
قوانین یادشده موضوعات مختلفی مانند اطمینان به هوش مصنوعی، نهادهای انسانی و نظارت بر هوش مصنوعی، استحکام و ایمنی هوش مصنوعی، حریم شخصی و نظارت بر داده‌ها، شفافیت، تنوع، عدم تبعیض و رعایت عدالت و رفاه اجتماعی و زیست محیطی را در بر می‌گیرند. قرار است خط مشی یادشده تا تابستان سال ۲۰۱۹ تکمیل و منتشر شود.

روبات‌ها قاضی و خبرنویس می‌شوند

این روزها هوش مصنوعی و روبات‌ها به زندگی ما نفوذ کرده‌اند و هر کدام‌شان سعی دارند گوشه‌ای از زندگی ما را بگیرند. شاید انسان از انجام برخی از کارها خسته شده که اینچنین سعی دارد روبات‌ها را جایگزین خود کند و شاید هم خود را برای چیزهای جدید آماده می‌کند که دیگر وقتی برای انجام کارهای قبلی ندارد.
 
در روزهای اخیر شاهد چند اتفاق جدید در زمینه رسوخ هوش مصنوعی در زندگی‌مان هستیم؛ از دولت استونی که مشغول ساخت الگوریتم قضاوت مبتنی بر هوش مصنوعی است تا بتواند پرونده‌های عقب‌افتاده‌ دادگاه‌های این کشور را جلو بیندازد تا خبرگزاری‌های بزرگی که از هوش مصنوعی برای خبرنویسی استفاده می‌کنند.
 
روبات‌هایی که خبر می‌نویسند
خبرگزاری‌های عمده جهانی مانند رویترز و آسوشیتدپرس منبع بسیاری از خبرهایی هستند که ما هر روزه در رسانه‌ها می‌بینیم و می‌خوانیم. اکنون گزارش‌های متعدد حاکی از این است که این خبرگزاری‌ها، به نوبه خود و به‌طرزی روزافزون، در حال سپردن کار خبرنویسی و تنظیم اخبار به هوش مصنوعی یا به عبارتی به روبات‌ها هستند.
 
برای نمونه نشریه آمریکایی فوربس در شماره تازه خود خبر می‌دهد که خبرگزاری آسوشیتدپرس هم‌اکنون کار نوشتن هزاران گزارش ورزشی خود را به عهده هوش مصنوعی قرار داده ‌است.
 
به نوشته این نشریه، اکنون به‌ جز آسوشیتدپرس، خبرگزاری رویترز، یاهو ورزشی، و روزنامه‌های نیویورک‌تایمز و واشینگتن‌پست، همه برای تولید محتوای خبری از هوش مصنوعی بهره می‌گیرند. به عنوان نمونه‌ای دیگر خبر می‌رسد که خبرگزاری بریتانیایی «پرس اسوشییشن» اکنون قادر است ۳۰ هزار مورد از گزارش‌ها و خبرهای محلی خود را با هوش مصنوعی تهیه کند.
 
دو سال پیش روزنامه واشنگتن‌پست خبر داد که حدود ۸۵۰ مقاله خود را ظرف یک سال با استفاده از یک برنامه اختصاصی هوش مصنوعی به نام «هلیوگراف» نوشته و منتشر کرده است. این مقاله‌ها شامل ۵۰۰ مقاله با موضوع انتخابات آمریکا می‌شد که بیش از ۵۰۰ هزار بار کلیک خورده‌اند.
 
هوش مصنوعی این کار را از طریق فرآیندی به نام «تولید زبان طبیعی» انجام می‌دهد. در این فرآیند، داده‌های خام به روبات یا کامپیوتر داده می‌شود و این وسیله هوشمند، نخست مشخص می‌کند که برای این نوع داده چه قالبی از روایت را باید انتخاب کرد.
 
هوش مصنوعی تعداد زیادی قالب روایتی (ادبی، خبری، ورزشی، علمی ...) از پیش طراحی شده در اختیار دارد و داده‌های دریافتی را در قالب مورد نظر خود می‌ریزد و بدین طریق از آنها یک روایت خبری درست می‌کند. این روایت‌ها از برنامه‌ای نیز رد می‌شوند که منطق گفتاری آنها را وارسی می‌کند تا شکلی نظیر گفتار «انسانی» به متن بدهد.
 
علاوه بر این، اتاق‌های خبر در رسانه‌های مختلف اکنون از انواع برنامه‌های کاربردی «روزنامه‌نگاری اتوماتیک» استفاده می‌کنند که روند راستی‌آزمایی خبرهای دریافتی، حدف خبرهای جعلی، خلاصه‌گیری از متون و نظارت بر بخش نظرات مخاطبان را به مراتب سریع‌تر کرده است.
 
واگذاری کار نوشتن به هوش مصنوعی به این حوزه ختم نمی‌شود و برای نمونه هم‌اینک بانک آلمانی کومرتس‌بانک ۷۵ درصد از کار تهیه گزارش‌های تحقیقاتی مقدار دارایی و سهام مشتریانش را با هوش مصنوعی انجام می‌دهد. ​بسیاری از نهادهای مالی نیز هم‌اینک گزارش‌های مالی ۱۰ تا پانزده صفحه‌ای را با استفاده از برنامه‌ای به نام کوئیل (Quill) ظرف چند ثانیه آماده و چاپ می‌کنند.
 
استفاده از هوش مصنوعی برای خبرنویسی از سال ۲۰۱۲ شروع شده و به‌ مروز رایج‌تر شده و با این روند تعداد مقاله‌هایی که در این مورد و در مورد آینده شغلی روزنامه‌نگاران ابراز نگرانی می‌کنند نیز افزایش داشته است.
 
از سویی دیگر هستند کسانی که معتقدند با سپردن گزارش‌نویسی‌های خسته‌کننده و روزمره به روبات‌ها، روزنامه‌نگاران می‌توانند بر کارهای تحقیقاتی و پژوهش خبری تمرکز کنند و مقالات توضیحی و تحلیلی بهتری فراهم کنند.
 
آدم آهنی‌ قاضی می‌شود
دولت استونی در ماه اوت گذشته یک دانشجوی ۲۸ ساله را استخدام کرده تا پروژه جدیدی را برای استفاده از هوش مصنوعی در وزارتخانه‌های مختلف این کشور پیگیری کند که موجب تسهیل ارایه خدمات به شهروندان این کشور خواهد شد.
 
ولسبرگ که پایان‌نامه دکترایش را درباره کاربرد اینترنت اشیا (IoT) و حسگرداده‌ها در خدمات دولتی ارایه داده، قصد دارد تا هوش مصنوعی و یادگیری ماشینی را برای ارایه خدمات به 1.3 میلیون شهروند به کار گیرد.
 
در این راستا یک قاضی مجهز به هوش مصنوعی قرار است که برخی اسناد حقوقی و اطلاعات مربوط دیگر را تجزیه و تحلیل کرده و تصمیم‌گیری کند. البته ناگفته نماند که تصمیم‌گیری نهایی با یک قاضی حقیقی خواهد بود. این پروژه نمونه کوچکی از کاربرد هوش مصنوعی در اجرای عدالت است.
 
وزارت دادگستری استونی از ولسبرگ و گروهش خواسته تا یک قاضی روباتی طراحی کنند که بتواند به پرونده‌های اختلافی با ارزش کمتر از 8 هزار دلار رسیدگی کند. مقامات امیدوارند که این سامانه بتواند در کاهش پرونده‌ها به قضات و کارمندان سیستم قضایی کمک کند.
 
این پروژه در مراحل اولیه قرار دارد و احتمالا اوایل امسال به صورت آزمایشی با تمرکز روی اختلافات موجود در قراردادهای کاری آغاز به کار کند.
 
شیوه کار به این صورت خواهد بود که طرفین دعوی اسناد و سایر اطلاعات مرتبط را بارگذاری می‌کنند و هوش مصنوعی تصمیم می‌گیرد که پرونده مورد نظر می‌تواند برای تجدید نظر به قاضی انسانی فرستاده شود یا نه. ولسبرگ می‌گوید که این سامانه می‌تواند بعد از دریافت بازخورد از وکلا و قضات بهبود پیدا کند.
 
به‌گفته ولسبرگ، این سیستم در سال اول به‌ کارگیری خود موجب صرفه‌جویی 655 هزار یورویی شده است، زیرا بازرسان از محل‌های کمتری بازدید کردند و در عوض، تمرکز خود را روی سایر اقدامات قانونی گذاشتند.
 
در کاربردی دیگری، رزومه‌ کارگران معلق از کار و اخراجی به سیستم یادگیری ماشین داده می‌شوند تا مهارت‌های آنها را با نیازهای کارفرمایان تطبیق دهد. حدود ۷۲ درصد از کارکنانی که ازطریق این سیستم شغل جدید پیدا کردند، اکنون پس از ۶ ماه هنوز بر سر شغل خود هستند. قبلا سیستم‌های کامپیوتری وظیفه‌ تطبیق این اطلاعات را برعهده داشتند که بازدهی آن ۵۸ درصدی بود.
 
گفتنی است که کودکانی که در استونی متولد می‌شوند، هنگام تولد به‌ صورت خودکار در مدارس محلی ثبت‌نام می‌شوند. بدین ‌ترتیب، دیگر نیازی نیست والدین برای قراردادن فرزندان خود در فهرست انتظار نام‌نویسی یا خود به مدیران مدارس مراجعه کنند. اسناد بیمارستان‌ها به ‌صورت خودکار با مدارس محلی به‌اشتراک گذاشته می‌شود.

عارضه پیشرفت هوش مصنوعی

پژوهشگران دانشگاه نیویورک می‌گویند پیشرفت هوش مصنوعی هک کردن سیستم‌های بیومتریک را تسهیل می‌کند و بدین ترتیب این سیستم‌ها دیگر امن‌ترین روش برای حفظ اطلاعات و حریم شخصی نخواهند بود.
 
به گزارش فرچون، فناوری شناسایی اثر انگشت و تشخیص چهره از جدیدترین و امن‌ترین اشکال حفظ امنیت اطلاعات در حال حاضر هستند که از این دو نشانه منحصر به فرد برای حفظ اطلاعات خصوصی و حریم شخصی استفاده می‌کنند. این سیستم‌ها را سیستم‌های بیومتریک می‌نامند.
 
در عصری که هر چند ماه یک بار یک نقص امنیتی در یک شرکت بزرگ فناوری اطلاعات هویت کاربران را در قلمرو دیجیتال فاش می‌کند یا این اطلاعات هک می‌شوند، مهم است که کاربران از خود محافظت کنند. در حالی که سیستم‌های بیومتریک به آن اندازه که فکر می‌کنید ایمن نیستند.
 
اگر شما یک کاربر تلفن همراه هوشمند هستید احتمالاً گوشی شما دارای یک اسکنر اثر انگشت یا فناوری تشخیص چهره یا هر دو است. وقتی سیستم‌های بیومتریک برای اولین بار به صورت تجاری عرضه شدند، به عنوان اشکال نهایی فناوری امنیتی معرفی شدند.
 
این ادعا اغراق‌آمیز هم نبود، چرا که اثر انگشت و چهره هر فرد منحصر به خودش است و هیچ‌کس نمی‌تواند آن را کپی کند. با این حال تحقیق جدید محققان دانشگاه نیویورک می‌گوید که سیستم‌های بیومتریک ممکن است به آن اندازه که فکر می‌کنیم، ایمن نباشند.
 
پیشرفت‌های هوش مصنوعی به طور بالقوه به هکرها این قدرت را می‌دهد که یک سیستم بیومتریک را گول بزنند و در آینده‌ای نزدیک اطلاعات شما را سرقت کنند.
 
در صورتی که هکر بخواهد اطلاعات شما را با استفاده از چهره یا اثر انگشت شما سرقت کند آن‌قدر هم پیچیده نیست و راه‌های مختلفی برای انجام این کار وجود دارد. اول و مهم‌تر از همه اینکه یک هکر می‌تواند اثر انگشت یا اسکن چهره شما را جایگزین کند و به طور غیر مجاز به سیستم شما دسترسی پیدا کند.
 
بزرگترین مسئله زمانی اتفاق می‌افتد که شما نتوانید رمز عبور خود را بازیابی کنید. وقتی اطلاعات بیومتریک شما منحصر به بدن شما است، در صورت دزدیده شدن این اطلاعات چه راه دیگری برای دسترسی به اطلاعات شخصی خود خواهید داشت؟
 
بنابراین پیشرفت هوش مصنوعی می‌تواند دردسرساز شود چرا که هوش مصنوعی می‌تواند فرآیند سرقت هویت شما را بسیار ساده کند.
 
محققان دانشگاه نیویورک در این راستا یک ابزار ایجاد کرده‌اند که می‌تواند به منظور باز کردن دستگاه‌های کاربران اثر انگشت جعلی بسازد.
 
آنها حتی نشان داده‌اند که چگونه شبکه‌های عصبی مصنوعی عمیق را می‌توان در طول زمان آموزش داد تا چهره‌هایی جدید بسازند.
 
اگر چه این ایده که کسی که با استفاده از هوش مصنوعی دستگاه اندروید کسی را هک کند چیزی در یک فیلم علمی-تخیلی به نظر می‌رسد، اما این اتفاق اکنون به واقعیت بسیار نزدیک شده است.
 
اکنون این پرسش مطرح می‌شود که آیا سیستم‌های بیومتریک در دراز مدت برای تأمین امنیت کافی خواهند بود یا ما باید در آن تجدید نظر کنیم؟
 

هوش مصنوعی غول آبی روی غذاها تحقیق می‌کند

دانشمندان بخش هوش مصنوعی IBM با چندین شرکت مواد غذایی در حال همکاری است تا بتواند تحقیقات غذایی خود را تقویت کند.
 
به گزارش Futurism الگوریتم هوش مصنوعی IBM با کمک دانشمندان این غول آبی‌ و همچنین کارشناسان تغذیه شرکت‌های مک‌کورمیک در حال بررسی و بهبود دستورالعمل‌های کلاسیک است تا دستور غذاهایی را برای نام‌های تجاری جدید درست کند.
 
دانشمندان در حال تجزیه و تحلیل و ارتقاء نوعی الگوریتم هوش مصنوعی جدید هستند که پیش از طراحی برخی انواع غذاهای جدید مورد استفاده قرار می‌گیرند. اگر اوضاع به خوبی پیش رود، می‌توان انتظار داشت که هوش مصنوعی نقش بزرگی در توسعه مواد غذایی مصرفی روزانه ما داشته باشند.
 
در حال حاضر، برخی از نام‌های بزرگ تلاش می‌کنند تا تمام موضوع‌های مرتبط با مواد غذایی را در دنیا شامل توانمندی سرآشپزها و متخصصان عطر و طعم غذا، در یک الگوریتم واحد هوش مصنوعی جمع کنند که ارتباط بهتر و سریع‌تری را با انسان برقرار می‌کند.
 
الزاما هوشمندترین الگوریتم‌ها وجود خارجی ندارند، اما بعضی نام‌های بزرگ روی آن کار می‌کنند. آزمایشگاه‌های هوش مصنوعی IBM به دلیل الگوریتم هوش مصنوعی برنده مسابقه تلویزیونی جئوپاردی و نگارش کتاب آشپزی معروف است. نخستین محصولات غذایی تولید شده با هوش مصنوعی این گروه اواخر سال جاری وارد قفسه‌ها خواهند شد.
 
البته دانشمندان تخمین زده‌اند که چیزی حدود 10 تا 15 سال زمان لازم است تا محصولات تولیدشده از طریق هوش مصنوعی جای خود را باز کنند. آنها همیشه به دنبال آن بوده‌اند که محصولاتی با کیفیت بالای تولیدی بسازند. نتیجه این تلاش‌ها تولید موادغذایی ساخته‌ شده به کمک هوش مصنوعی و به دنبال ترکیب طعم‌های مختلف و دانش عمیق از انواع مزه‌ها خواهد بود که پیچیدگی آنها را هیچ انسانی هم متوجه نمی‌شود.
 
دانشمندان صدها هزار فرمول را در سیستم هوش مصنوعی تعبیه کرده‌اند و هر تولیدکننده موادغذایی از چند هزار فرمول برای تولید موادغذایی خود استفاده می‌کند اما در استفاده از هوش مصنوعی، تمام این فرمول‌ها با هم ادغام شده‌اند تا از ترکیب همه آنها بتوان بهره برد.
 
البته این فرآیند کمی زمان‌بر است به طوری که شاید هفته‌ها یا ماه‌ها به طول می‌انجامد تا یک محصول غذایی جدید مراحل ایده تا محصول و ورود به بازار را طی کند. زمانی که کمپانی «مک‌کورمیک» محصول غذایی جدیدی را تولید می‌کند، این حرفه در کنار جزئیات خاصی از قبیل حلال بودن یا هزینه آن، به یکی از تولیدکنندگان شامل سرآشپز، شیمی‌دان، روانشناسان و کارشناسان دیگری در حوزه غذا و مزه‌ها منتقل می‌شود و آنها از این فرمول برای تولید محصولی مشابه استفاده می‌کنند و حتی ترکیبات مواد را برحسب نیاز کم و زیاد می‌کنند و پیش از ورود محصول به بازار، فرآورده را آزمایش می‌کنند.

نقش هوش مصنوعی در تامین امنیت انتخابات آینده آمریکا

کارشناسان رسانه و متخصصان هوش مصنوعی معتقدند که انتخابات ۲۰۲۰ آمریکا بیش از هر زمانی تحت تاثیر ابعاد منفی هوش مصنوعی قرار خواهد گرفت.
 
یکی از مرموزترین و پیچیده‌ترین ابعاد منفی هوش مصنوعی، تولید نرم‌افزارهای تغییر واقعیت یا Deep Fake است.
 
اصطلاح Deep Fake یا جعل عمیق، یک تکنیک برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است. در این فناوری با استفاده از تکنیک موسوم به شبکه مولد تخاصمی یا GAN تصاویر و فیلم‌های یک شخص معروف را بر روی تصاویر یا فیلم‌های منبع قرار می‌دهند.
 
هدف از ساخت ویدئوهای جعل عمیق نشان دادن فرد یا گروهی درحال انجام یک کار یا موقعیتی مشخص است که هرگز در واقعیت اتفاق نیفتاده است.
 
برای مثال چنین فیلم‌های تقلبی‌ای می‌تواند فرد را در حال انجام اقدامات ناشایستی نشان دهد که هرگز در آن شرکت نکرده است یا می‌تواند برای تغییر کلمات یا حرکات یک سیاستمدار مورد استفاده قرار گیرد تا به نظر برسد آن فرد چیزی را گفته که هرگز انجام نداده است.
 
به دلیل وجود این پتانسیل‌های مخرب، جعل عمیق می‌تواند برای اخبار جعلی و کلاهبرداری‌های مخرب استفاده شود.
 
متأسفانه ابعاد هوش مصنوعی تا جایی پیشرفت کرده است که امروزه سیاستمداران آمریکایی نگران این مسئله هستند که چگونه می‌توانند از ابعاد منفی هوش مصنوعی در انتخابات آینده آمریکا جلوگیری کنند.
 
به گفته کارشناسان، مقایسه اولین ویدئوهای جعل عمیق با جدیدترین آنها که به صورت ناشناس در اینترنت منتشر می‌شود، نشان‌دهنده این واقعیت غیرقابل انکار است که کیفیت ادغام تصاویر روز به روز در حال افزایش است و همین مسئله می‌تواند افراد معروف و سیاستمداران صاحب نام را مانند یک عروسک خیمه شب‌بازی در اختیار افراد و گروه‌های سودجو قرار دهد.
 
در حال حاضر شرکت Deep Trace با مدیریت جورجیو پاترینی و با هدف تشخیص ویدئوهای جعل عمیق در هلند تأسیس شده است. جورجیو پاترینی قبل از تأسیس شرکت ردیابی عمیق در بخش تحقیقات یادگیری عمیق دانشگاه آمستردام مشغول به فعالیت بوده است.
 
وی معتقد است که در حال حاضر جعل عمیق به عنوان یک موج ضد امنیت در شبکه جهانی اینترنت شناخته می‌شود، چرا که افراد یا گروه‌های سودجو با ارائه ویدئوهای ساختگی می‌توانند تأثیرات منفی در جامعه هدف ایجاد کنند.
 
پاترینی در سال ۲۰۱۸ تصمیم گرفت با همکاری گروهی از دوستانش، اولین شرکت تحقیقاتی برای طراحی و تولید نرم‌افزارهای تشخیص ویدئوهای تقلبی را در جهان تأسیس کند.
 
طبق آمار جمع‌آوری شده توسط این شرکت، در حال حاضر بیش از ۸۰۰۰ ویدئوی جعل عمیق از بازیگران معروف زن در اینترنت منتشر شده است.
 
آقای پاترینی معتقد است که انتخابات آینده آمریکا احتمالاً هدف موج بعدی حملات جعل عمیق خواهد بود، هرچند که تیم تحقیقاتی شرکت Deep Trace با طراحی نرم‌افزارهای مبتنی بر هوش مصنوعی در تشخیص واقعیت کوتاهی نخواهد کرد.

نگرانی چین درباره پیشرفت هوش مصنوعی

بسیاری از کارشناسان و منتقدان فناوری هوش مصنوعی در چین بر این باورند که توسعه این فناوری می‌تواند منجر به وقوع جنگ جهانی سوم شود.
 
به تازگی اخبار و گزارش‌های جدیدی از سوی اندیشکده سازمان امنیت ملی آمریکا منتشر شده که نشان می‌دهد بسیاری از سیاست مداران و کارشناسان فعال در حوزه هوش مصنوعی در خصوص پیشرفت روز افزون این فناوری ابراز نگرانی کرده‌اند.
 
در این گزارش آنها عنوان کرده‌اند که برخی از مقامات سیاسی، منتقدان و همچنین کارشناسان فعال در حوزه‌های فناوری، معتقدند که توسعه روزافزون و پیشرفت هوش مصنوعی بخصوص در صنایع و تسلیحات جنگی، نظامی و دفاعی خطر و تهدید بزرگی برای آینده بشریت و جهان ایجاد خواهد کرد چرا که منجر به ساخت و توسعه تسلیحات جدید و پیشرفته‌ای می‌شود که بدون نیاز به کنترل و نظارت انسان قادر است عملکرد خوبی را از خود به نمایش بگذارد و وظایف و مسئولیت‌های خود را انجام دهد.
 
بر اساس گزارش وب سایت fortune، این بدان معناست که تسلیحات جنگی و نظامی مبتنی بر فناوری‌های نوین نظیر هوش مصنوعی و یادگیری ماشینی بدون درگیر شدن احساسات و عواطف انسانی می‌توانند کارهای موردنظر فرماندهان جنگی و سیاست مداران را انجام دهند و کاملاً طبق برنامه نویسی‌های انجام شده عمل کند.
 
در اوایل سال ۲۰۱۸ میلادی بود که خبری مبتنی بر تلاش و نگرانی جامعه جهانی در خصوص توسعه هوش مصنوعی و تهدیدات آن منتشر شد. در آن زمان بسیاری از کارشناسان، متخصصان، دانشمندان و همچنین شرکت‌های بزرگ تکنولوژی در جریان یک اجلاس جهانی که در سوئیس برگزار شد، از لزوم مقابله با توسعه بی رویه و جایگزینی کامل و بدون برنامه هوش مصنوعی با انسان سخن گفتند.
 
از آنجا که فناوری هوش مصنوعی و یادگیری ماشینی در سال‌های اخیر با پیشرفت قابل ملاحظه‌ای مواجه شده است، غول‌های تکنولوژی متعددی همچون گوگل، مایکروسافت، آمازون، اپل، سامسونگ و غیره به طراحی و ساخت ابزارهای هوشمند مبتنی بر فناوری هوش مصنوعی (Artificial intelligence) بسیاری روی آورده‌اند. همانطور که در اخبار گذشته نیز اشاره شده بود، یکی از جدیدترین نمونه‌هایی که سرو صدا و جنجال‌های بسیاری را در جهان به پا کرد، دستیار صوتی مبتنی بر هوش مصنوعی گوگل دوپلکس بود که صدای آن شباهت بسیار بی‌نظیری به صدای انسان دارد به گونه‌ای که توسط کاربران قابل تشخیص نیست و مخاطب یک روبات است نه یک انسان!
 
جالب است بدانید که استفن هاوکینگ، الون ماسک، استیو ووزنیاک، بیل گیتس و بسیاری دیگر از نام‌های بزرگ در زمینه علم و فناوری، مدتهاست که در رسانه‌ها و نامه‌های سرگشاده‌ی خود، درباره خطرات ناشی از هوش مصنوعی ابراز نگرانی کرده و به خیل محققان برجسته‌ی هوش مصنوعی پیوسته‌اند. خطراتی که می‌تواند به مجرمان این امکان را بدهد تا با سرعت و دقت بیشتری و با کمترین زحمت و احتمال ردیابی، به انجام سرقت، قتل‌های زنجیره‌ای، فریب افراد و کلاهبرداری‌های تلفنی و اینترنتی بپردازند.
 
حالا به نظر می‌رسد که چالش‌های اخلاقی پیش روی هوش مصنوعی به سایر کشورهای جهان نیز سرایت کرده است چرا که بسیاری از مقامات چین نیز در این خصوص ابراز نگرانی کرده‌اند و خواستار جلوگیری از توسعه بدون برنامه‌ریزی فناوری هوش مصنوعی شده‌اند تا از تهدیدات جدی آنکه به عقیده آنها ممکن است به وقوع جنگ جهانی سوم منجر شود، جلوگیری به عمل بیاورند.
 

بحث های داغ اجلاس «داووس» در مورد هوش مصنوعی

در سال های اخیر مباحث مرتبط با فناوری به یکی از موضوعات داغ و پرطرفدار اجلاس داووس سوئیس (مجمع جهانی اقتصاد) مبدل شده و امسال نیز هوش مصنوعی در کانون توجه قرار گرفته است.
 
به گزارش ZDNet، بدون تردید  در سال های آینده، هوش مصنوعی و فناوری روباتیک نقش مهمی در زندگی بشر ایفا می کنند و همین مساله باعث شده توجه به این نوع موضوعات روز به روز افزایش یابد.
 
«مارک بینهوف» مدیرعامل شرکت مشهور «سیلز فورس» یکی از کسانی است که در اجلاس داووس در مورد هوش مصنوعی صحبت کرد. وی با اشاره به اینکه شرکت ها و موسسات اندکی در جهان کنترل هوش مصنوعی، داده های مرتبط با آن و جریان نوآوری را در دست گرفته اند، تصریح کرده که این فرایند یک روند مطلوب نیست و باید دولت ها و نهادهای اطلاعاتی نیز برای تاثیرگذاری بر دنیای هوش مصنوعی فعال شوند.
 
وی افزوده که اروپا در حوزه اقتصاد دیجیتال و هوش مصنوعی از رقبای خود عقب افتاده، زیرا بودجه پژوهش و تحقیقات کشورهای عضو این قاره تنها دو درصد از تولید ناخالص داخلی آنها را تشکیل می دهد.
 
در اجلاس داووس از دست رفتن بسیاری از مشاغل به خاطر همه گیرشدن هوش مصنوعی و ضرورت دستیابی انسان ها به مهارت های جدید حرفه ای یک موضوع بحث داغ دیگر بوده است و به گفته «تایگر تیاگاراجان» مدیرعامل شرکت «گنپکت»، رهبران شرکت های تجاری باید روش های آموزشی و مهارت آموزشی خود را تغییر داده و بر حسب این تحولات منعطف تر سازند.
 
تحول در ارزش ها، مسائل اخلاقی و حجم داده های در دسترس و مورد استفاده پس از همه گیرشدن هوش مصنوعی و نقش دولت ها در این زمینه یک موضوع بحث دیگر بوده است. 
 

سرمایه‌گذاری ۵ میلیون دلاری شرکت نفتی BP در هوش مصنوعی

شرکت نفتی«بریتیش پترولیوم» ۵ میلیون دلار در یک شرکت هوش مصنوعی سرمایه‌گذاری کرده تا فعالیت‌های خود را با کمک هوش مصنوعی در حوزه استخراج نفت و گاز گسترش دهد.
بازوی سرمایه‌گذاری شرکت بی پی که در سال ۲۰۰۴ میلادی تاسیس شده تاکنون سرمایه‌گذاری‌هایی در Belmont Technology (یک استارت‌آپ هوش مصنوعی در هیوستن) انجام داده است.
به هرحال این شرکت نفتی مشغول بررسی فرصت‌هایی برای استفاده از ماشین یادگیری و فناوری محاسبات شناختی در صنعت نفت با تمرکز روی فعالیت‌های بالادستی است.
فعالیت‌های بالادستی در صنعت نفت شامل استخراج نفت و گاز، توسعه میدان و تولید به شمار می‌رود. شرکتBelmont Technology یک پلت‌فرم هوش مصنوعی مبتنی بر ابر ابداع کرده که اطلاعات مربوط به زمین‌شناسی، ژئوفیزیک، مخازن و پروژه‌های قبلی را در اختیار کارمندان «بی پی» قرار می دهد.
 

فیس‌بوک هوش مصنوعی را اخلاقی می‌کند!

به نظر می‌رسد که فیس‌بوک تحت‌تاثیر تشدید نگرانی‌های جهانی در خصوص زیر پاگذاشتن اخلاق در فناوری هوش مصنوعی ، تصمیم گرفته یک موسسه پژوهشی در همین راستا ایجاد و راه‌اندازی کند.
 
بدون شک یکی از پر سر و صداترین و جنجالی‌ترین فناوری‌های جدیدی که گوگل در کنفرانس توسعه دهندگان و رویداد Google I/O ۲۰۱۸ از آن رونمایی کرد، نسخه آزمایشی فناوری گوگل دوپلکس بود که مبتنی بر هوش مصنوعی و یادگیری ماشینی فوق پیشرفته بوده و قادر است بسیار شبیه به انسان صحبت کند و همانند یک دستیار صوتی به مخاطبان موردنظر کاربران تماس گرفته و دقیقا با آنها همانند یک انسان مذاکره کرده و به گفت‌وگو بنشیند.
 
صدای گوگل دوپلکس آنقدر شبیه به انسان بوده و هوشمندانه است، به گونه ای که توسط مخاطبان روبات بودن و مصنوعی بودن مکالمات آن، کاملا غیر قابل تشخیص است. پس از معرفی و رونمایی از این محصول جدید، بلافاصله جنجال‌های بسیاری در فضای مجازی بوجود آمد. آنها بر این باورند که این فناوری فوق پیشرفته و فوق هوشمند، بسیار غیر اخلاقی بوده و مرزهای اخلاقیات را زیر پا خواهد گذاشت چراکه کاربران می‌توانند بسیاری از جرائم را بدین صورت انجام بدهند بدون آنکه طرف مقابلشان متوجه شود این یک روبات بوده است.
 
به گفته کارشناسان و تحلیلگران فعال در این حوزه، این چالش‌های اخلاقی می‌تواند عواقب ناگوار پیشرفت تکنولوژی و علم در سالهایی نه چندان دور را به ما گوشزد کند. یک تکنولوژی که می‌تواند بسیار شبیه به انسان عمل کند، صحبت کند، با مخاطب موردنظر موضوعات مختلف بحث و مذاکره کند، به طور قطع می تواند در آینده ما را با مشکلات و معضلات بزرگی مواجه سازد.
 
بر اساس گزارش فوربس، حالا به نظر می رسد که فیس بوک به عنوان یکی از بزرگترین غول های تکنولوژی در جهان تصمیم گرفته است به نگرانی های امنیتی در خصوص توسعه فناوری های نوینی همچون هوش مصنوعی پاسخ داده و به منظور ارتقای امنیت سایبری، حفاظت از اطلاعات و حریم خصوصی کاربران و همچنین رعایت اخلاقیات موسسه و مرکزی تحقیقاتی و پژوهشی جدیدی را ایجاد و راه اندازی کند که در آن متخصصان و دانشمندان فعال در این حوزه به بررسی دقیق فعالیت‌های هوش مصنوعی پرداخته و با تحقیقات جدید به رعایت بیشتر مسائل اخلاقی در این فناوری کمک بسزایی کنند.  
 
گفته می‌شود فیس بوک بدین منظور قصد دارد سرمایه‌گذاری کلانی به ارزش ۷.۵ میلیون دلار را اختصاص دهد تا در حوزه‌هایی همچون بهداشت و درمان، تکنولوژی و همچنین حقوق بشر تعامل میان بشر و هوش مصنوعی بیشتر از بیش شود.