اندازه گیری میزان شیرینی یک میوه با هوش مصنوعی

تاکنون فناوری هوش مصنوعی کاربردهای متنوعی در بخش‌های مختلف داشته است اما این بار هوش مصنوعی با کاربرد جالبی که در یک فروشگاه مواد غذایی در چین داشته، توجه افراد بسیاری را به خود جلب کرده است.
 
به گزارش چاینادیلی، در یک فروشگاه مواد غذایی در شهر هایکو چین، مشتریان می‌توانند از فناوری هوش مصنوعی برای اندازه گیری میزان شیرین بودن "خربزه‌های تخم‌قند"(muskmelon) استفاده کنند.
 
خربزه تخم‌قند گونه‌ای از خربزه است که به صورت گونه‌های مختلف کشت می‌شود. 
 
اکنون مشتریان توسط فناوری هوش مصنوعی می‌توانند میزان شیرینی هر خربزه را روی صفحه نمایش مشاهده کنند.
 
شرکت تجارت الکترونیک "علی بابا" دستگاهی به نام "علی پی"(Alipay) توسعه داده است و این فناوری نیز همراه با آن دستگاه در آن فروشگاه قرار دارد.
 
 
مشتریان می‌توانند یک عکس از میوه مذکور گرفته و سپس به دستگاه علی‌پی آپلود کنند. پس از لحظاتی گزارشاتی درباره شیرینی آن میوه به مشتری ارائه می‌شود.
 
این فناوری هوش مصنوعی جالب توسط  کمپانی "Aliyun" که یک کمپانی پردازش ابری شرکت علی بابا است طراحی و توسعه یافته است. بیش از 150 هزار تصویر از خربزه تخم قند با سطوح مختلف شیرینی در داده‌های این هوش مصنوعی ثبت شده است. گفتنی است دقت سیستم مذکور بیش از 90 درصد است.
 
با این حال افراد در آینده می‌توانند شاهد کاربرد بیشتر سیستم‌های هوش مصنوعی در بخش کشاورزی باشند.
 

ژئوپلیتیک جدید هوش مصنوعی

توسعه هوش مصنوعی (artificial intelligence) و استفاده از قابلیت‌های آن در صنایع مختلف، به میدان رقابت جدید شرکت‌های بزرگ IT تبدیل شده است. برای نمونه می‌توان به آن کلیپ جنجالی تماس سیستم هوش مصنوعی گوگل با رستوران اشاره کرد که گوگل برای مشتری خود میز رزرو می‌کرد و حتی به راحتی به سوال‌ها پاسخ می‌داد. نام آن سیستم داپلکس (DUPLEX) است و حالا گوگل تصمیم گرفته آن را روی گوشی‌های جدیدش عرضه ‌کند. اگرچه سپردن این دست کارها به یک دستیار هوشمند یا روبات خوشایند است، اما روی دیگر این فناوری نگرانی از فراگیر شدن استفاده از فناوری است. نگرانی‎ای که حتی پای بزرگان دنیای تکنولوژی مانند ایلان ماسک را به میان کشید تا نسبت به تسخیر زندگی بشر توسط هوش مصنوعی و روبات‌ها را هشدار دهد. در همین راستا، مجمع جهانی اقتصاد در گزارش اخیرش اشاره کرده جهان امروزی فورا به ایجاد یک قرارداد اجتماعی جدید نیاز دارد تا ایمنی نوآوری فناورانه، به ویژه هوش مصنوعی و هماهنگی آن با نیازهای اخلاقی یک جامعه جهانی را تضمین کند.
 
سوفیا یک روبات انسان‌نما که می‌تواند صحبت کند و حرکات واقع‌بینانه را انجام دهد
 
ازدحام روبات‌ها، پست‌های هدفمند یا به اصطلاح تاریک فیس‌بوک و وب‌سایت‌های خبری جعلی، مدعی یک قلمرو آنلاین اینترنتی شده‌اند که پیامدهای قابل توجهی در سطح جهانی دارد. برای مثال، اخبار دخالت‎ و نقش روسیه در انتخابات ریاست جمهوری آمریکا در سال ۲۰۱۶ را در نظر بگیرید. ظاهرا روسیه یک کاندیدا را با راه‌اندازی یک کمپین عظیم شامل تبلیغات پولی، حساب کاربری‌های جعلی در رسانه‌های اجتماعی و محتوای هدف‌گذاری شده، حمایت کرد. یا در چین، غول‌های دیجیتالی مانند علی‌بابا و تنسنت، میلیون‌ها دوربین مجهز به فناوری تشخیص چهره را برای ثبت جریان مداوم داده‌های احساسی شهروندان مستقر کرده‌اند. گزارش سازمان ملل متحد تایید کرده در میانمار پست‌های فیس‌بوک باعث نشر سخنان نفرت‌انگیز و ایجاد تفرقه علیه مسلمانان روهینگیا شد.
 
اتحاد پرقدرت و سودآور بین هوش مصنوعی و یک جامعه مبتنی بر داده‌ها، باعث شده شبکه‌های اجتماعی به معماران مبادلات جامعه امروزی و رهبران جدید تغییر شکل و ساختار واقعی واقعیت تبدیل شوند. به‌طور همزمان، فناوری‌های مبتنی بر هوش مصنوعی مایل به تضعیف مکانیزم‌های حکومت جهانی، به جای اجرای آن خواهند بود. در همین راستا، اضطراب عمومی درباره خسارت تبدیل شدن به یک انقلاب الگوریتمی و از دست دادن کنترل آن یا فرار از پاسخگویی در مقابل آن افزایش یافته است. در نهایت اینکه اعتماد به حکومت ملی و جهانی در نقطه شکست است. به این ترتیب، سازمان ملل متحد با یک مجموعه گسترده از چالش‌هایی در این زمینه مواجه است که در ادامه به آن اشاره می‌کنیم.
 
هوش مصنوعی و تضعیف حقیقت
نخست اینکه هوش مصنوعی به‌طور ذاتی یک تکنولوژی با کاربرد دوگانه و با پیامدهای قدرتمندی (هم مثبت و هم منفی) است که پیش‌بینی، محدود کردن یا تغییر محتوای آن را دشوار می‌کند. برای نمونه،Deepfake را در نظر بگیرید. برنامه‌های پیچیده هوش مصنوعی که اکنون می‌تواند صداها، تصاویر و ویدئوها را دستکاری کرده و هویت‌های جعلی را ایجاد کند که اغلب تمایز آن از نمونه اصلی غیرممکن است. الگوریتم‌های یادگیری عمیق (Deep-learning) می‌توانند با دقت شگفت‌انگیز، با ترکیب لب‌های انسانی (لب خوانی) و تا حدودی شبیه‌سازی حالت و شکل‌های مختلف صورت، سخنرانی کنند.
 
ممکن است پس از به نتیجه رسیدن این پروژه‌ها در آزمایشگاه، چنین شبیه‌سازی‌هایی به راحتی با اثرات گسترده‌ای مورد سوءاستفاده قرار گیرد (این موضوع در حال حاضر در سطح پایین اتفاق می‌افتد). در آستانه انتخابات، فیلم‌های Deepfake می‌تواند به اشتباه تصاویر مقامات دولتی را که در حال انجام کارهای غیرقانونی مانند دریافت رشوه یا پولشویی هستند را نشان دهد. هراس عمومی با انتشار هشدارهای ویدئویی درباره بیماری‌های غیرواقعی یا حملات سایبری ایجاد شده و حوادث جعلی به‌طور بالقوه منجر به یک بحران جهانی شود. به هر حال، چنین قابلیت‌ها و شبیه‌سازی‌های گمراه‌کننده می‎تواند به‌طور موثری بر افکار عمومی تأثیر گذاشته و پیامدهای بلندمدت و پرقدرتی برای نقش سازمان ملل در صلح و امنیت داشته باشد. همچنین انتشار اخبار جعلی، ضمن تضعیف حس اعتماد و حقیقت میان شهروندان و دولت (در واقع در میان دولت‌ها) می‌تواند عمیقا سیستم حکمرانی جهانی را از بین ببرد.
 
هوش مصنوعی و نظارت دقیق
دوم، هوش مصنوعی در حال حاضر با طیف وسیعی از سایر فناوری‌ها از جمله فناوری‌های زیستی، به منظور تقویت امنیت جهانی، هماهنگ بوده و همکاری می‌کند. همچنین سیستم‌های این فناوری در سراسر جهان با استفاده‌ از داده‌های کلان به‌دست آمده مانند الگوهای ترافیکی شهرها، بازارهای مالی، داده‌های روند رفتار مصرف‌کننده، پرونده‌های سلامت و علم ژنتیک آموزش دیده تا به منظور پیش‌بینی جنبه‌های مختلف زندگی روزمره انسان‌ها کاربردی باشد. فناوری‌های هوش مصنوعی می‌توانند داده‌های رفتاری و بیولوژیک انسان و حتی پیامدهای آن را در شیوه‌های نوآورانه و اغلب دستکاری شده کنترل و مهار کنند. به‌عنوان مثال، عروسک هوشمند My Friend Cayla، داده‌های صوتی و احساسات کودکانی را که با آن بازی می‌کنند، به سیستم‌های کلاد می‌فرستاد. البته این اتفاق در نهایت منجر به شکایت کمیسیون تجاری فدرال آمریکا و ممنوعیت استفاده از آن در آلمان شد.
 
در آمریکا، در حال حاضر سیستم‌های تجزیه و تحلیل احساسی در دادگاه برای تشخیص و راست‌آزمایی اظهارات افراد استفاده می‌شود. حتی ممکن است به زودی این فناوری در مصاحبه‌های شغلی برای ارزیابی پاسخ افراد و آمادگی شغلی آنها به کار برده شود. توانایی هوش مصنوعی برای نفوذ و کنترل بالقوه روی رفتارهای فردی انسان پیامدهای مستقیمی برای فعالیت‌ها و پیمان‌های حقوق بشر سازمان ملل متحد دارد. در حقیقت، شکل‌های جدید کنترل اجتماعی و زیست‌محیطی مستلزم تجدیدنظر درباره چارچوب کنونی است تا ضمن نظارت بر اعلامیه جهانی حقوق بشر، آن را اجرا کند. همچنین به‌طور قطع یک سیستم چندجانبه برای پیش‌بینی بهتر و درک این زمینه نوظهور مورد نیاز است.
 
میدان نبرد هوش مصنوعی
در نهایت، توانایی فناوری‌های مبتنی بر هوش مصنوعی برای تأثیرگذاری بر جمعیت‌های بزرگ، از سرعت و ارزش بالایی برخوردار بوده که مطمئنا نمایشی برای تضادهای آینده است. در واقع چشم‌انداز یک «نبرد سایبری» وجود دارد که در آن کشورهای پرقدرت و سیستم‌های بزرگ فناوری وارد رقابت آزاد برای تجمیع داده افراد، به‌عنوان عاملی برای ایجاد برتری اقتصادی، پزشکی و امنیتی در سراسر جهان شده‌اند. شکل‌های استعمار سایبری (cyber-colonization) به‌عنوان دولت‌های قوی و قادر به استفاده از هوش مصنوعی و بیوتکنولوژی برای درک و کنترل سایر جوامع و اکوسیستم‌ها در حال توسعه است.
 
حکمرانی جهانی هوش مصنوعی
جوامع امروزی از لحاظ سیاسی، قانونی و اخلاقی برای استقرار هوش مصنوعی آماده نیستند. سازمان ملل متحد که چند دهه قبل از ظهور این فناوری‌ها تأسیس شده، به دلایل مختلفی برای توسعه یک حکومت مسوولیت‌پذیر که بتواند پتانسیل هوش مصنوعی را از این ریسک‌ها دور کرده و به سوی ایمنی و رفاه جمعی انسان‌ها هدایت ‌کند، ضعیف ظاهر شده است. در واقع، احیای برنامه‌های ملی‌گرا در سراسر جهان به یک ظرفیت سیستم چند جانبه ناتوان اشاره دارد که می‌توان نقش قابل‌ملاحظه‌ای در مدیریت جهانی هوش مصنوعی ایفا ‌کند. شرکت‌های بزرگ و کشورهای پرقدرت ممکن است در ایجاد رویکردهای چندجانبه برای تحقق آنچه که آنها تکنولوژی‌های سودآور و اختصاصی در نظر می‌گیرند، کمی توجه کنند. اما برخی از راهکارهای نوآورانه وجود دارد که در آن سازمان ملل متحد می‌تواند به ایجاد نوع شبکه‌های مشارکتی و شفاف کمک کند تا اعتماد را حفظ و تقویت کند.
 
مرکز تحقیقات سیاست‌گذاری در دانشگاه ملل متحد‌(UNU) که مسوول ارائه استراتژی دبیرکل سازمان ملل در مورد فناوری‌های جدید است، یک «هوش مصنوعی و پلت‌فرم حکمرانی جهانی» به‌عنوان یک فضای فراگیر برای محققان، سیاست‌گذاران، شرکت‌ها و اندیشه‌گران ایجاد کرده تا چالش‌های سیاستی جهانی مطرح شده توسط هوش مصنوعی کشف کنند. با توجه به مأموریت تحت نظارت رهبران در این زمینه، این پلت‌فرم برای ایجاد بینش منحصر به فرد و جامع برای اطلاع رسانی بحث‌های موجود است. این بینش از طرف سازمان ملل متحد، سازمان‌های چندجانبه، صندوق‌ها، برنامه‌ها و سایر سهامداران پشتیبانی می‌شود به‌طوری که آنها خودشان و نقش‌هایشان را در شکل‌گیری حکمرانی هوش مصنوعی جدا از یکدیگر در نظر نمی‌گیرند. شاید مهم‌ترین چالش برای سازمان ملل در این زمینه، ایجاد حس اعتماد به سیستم چند جانبه ایجاد شده است. اما اگر آن‌طور که روندهای فوق نشان می‌دهند، فناوری‌های مبتنی بر هوش مصنوعی، مساله‎ای فردی و منحصر به هر دولت بوده و هیچ‌گونه شکل مشترک از حکومتداری ندارد، آن زمان خطر واقعی به وجود می‌آید که ثبات جهانی را تضعیف می‌کند.

هوش مصنوعی، عاقل می‌شود!

پژوهشگران آمریکایی سعی دارند با فراهم کردن قوه عقل برای هوش مصنوعی، کاربرد بیشتر آن را تضمین کنند.
 
به گزارش تک کرانچ، هوش مصنوعی می‌تواند اشیا را در کسری از ثانیه شناسایی کند اما درک کافی را از اشیا و فعالیت‌های روزمره ندارد؛ به عبارت دیگر، هوش مصنوعی فاقد "عقل سلیم" است.
 
"آژانس پروژه‌های تحقیقاتی پیشرفتهٔ دفاعی آمریکا" یا "دارپا" (DARPA) در نظر دارد با همکاری "موسسه هوش مصنوعی آلن" (AI2)، این ویژگی را به هوش مصنوعی اضافه کند.
 
هدف از طراحی این برنامه موسوم به " عقل سلیم ماشینی"(MCS)، هم تعریف مشکل و هم پردازش آن است؛ هر چند که انتظار نمی‌رود این مشکل در یک یا دو سال حل شود. در هر حال، اگر هوش مصنوعی بتواند از شکاف‌های مافوق علمی عبور کند، باید مغزی پرورش داده شود که کاری بیش از وظیفه مشخص خود انجام دهد.
 
"دیو گانینگ"(Dave Gunning)، مدیر برنامه دارپا گفت: فقدان عقل، هوش مصنوعی را از درک جهان، ارتباط طبیعی با مردم، رفتار منطقی در موقعیت‌های پیش‌بینی نشده و درس گرفتن از تجربه‌های جدید باز می‌دارد. شاید همین ناتوانی، قابل‌توجه‌ترین مانع میان کاربردهای دقیق هوش مصنوعی و کاربردهای کلی‌تر آن در آینده باشد.
 
تعریف و آزمایش عقل سلیم و توضیح مفهوم آن، دشوار است. این توانایی می‌تواند هر تعریفی از جمله درک اشیاء جامد یا مفهوم آشپزخانه را در بر داشته باشد. عقل سلیم، توانایی فهمیدن و قضاوت کردن درباره موضوعات و اشیاء به صورتی است که تقریباً بیشتر انسان‌ها به‌طور منطقی آن را انجام می‌دهند.
 
درک چنین مفاهیمی، براساس ارتباطی صورت می‌گیرد که مبتنی بر مشاهده است. به همین دلیل، دارپا، ساخت مدل‌هایی را پیشنهاد کرده می‌توانند از تجربه‌ها درس بگیرند و دامنه‌های اصلی شناخت را براساس تعریف روانشناسی رشد تقلید کنند.
 
"اورن اتزیونی"(Oren Etzioni)، مدیر موسسه آلن گفت: اگر موفق به سنجش عقل نشویم، نمی‌توانیم آن را ارزیابی کنیم. این نخستین باری است که انسان‌ها تلاش می‌کنند به عقل، قابلیت اندازه گیری بدهند و یقینا نخستین باری است که دارپا، رهبری چنین پروژه‌ای را بر عهده دارد.
 
این پروژه، با سرمایه‌گذاری دو میلیارد دلاری دارپا صورت می‌گیرد.
 

مایکروسافت برای ربات ها سیستم عامل می سازد

مایکروسافت در سال های اخیر به حوزه هوش مصنوعی توجه زیادی نشان داده و حالا قصد دارد علاوه بر تولید سخت افزارهای مرتبط در زمینه عرضه نرم افزار هم فعال شود.
 
به گزارش نئووین، این شرکت می گوید سیستم عاملی به نام ربات یا ROS۱ را در آینده عرضه می کند که با ویندوز ۱۰ نیز سازگار خواهد بود.
 
عرضه ROS۱ در مرحله اول به صورت آزمایشی انجام می شود و حاوی ابزار و کتابخانه هایی برای کمک به توسعه دهندگان و برنامه نویسان برای تولید ابزار پیچیده خواهد بود. علاوه بر این قابلیت های امنیتی نسخه اینترنت اشیای ویندوز ۱۰ در این سیستم عامل هم در دسترس خواهد بود.
 
این سیستم عامل کنترل و مدیریت ربات هایی را ممکن می کند که از قابلیت هایی همچون دید رایانه ای، خودآموزی رایانه ای، خدمات شناختی آزور و غیره برخوردار باشند.
 
با توجه به اینکه در آینده ربات ها خواهند توانست بسیاری از فعالیت های روزمره انسان ها در منازل و محیط کار را بر عهده بگیرند، تولید سیستم عاملی مرکزی که بتواند مدیریت آنها را تسهیل کند، اهمیت شایانی دارد. مایکروسافت قصد دارد برای ترغیب شرکت های سازنده ربات به استفاده از سیستم عامل خود با کنسرسیوم های Open Robotics و ROS که در این زمینه فعالیت می کنند، وارد مذاکره شود.
 
علاوه بر این، مایکروسافت قصد دارد در آینده نزدیک رباتی به نام ROBOTIS Turtlebot ۳ را که مجهز به همین سیستم عامل است، در معرض دید علاقمندان قرار دهد.

با برنامه هوش مصنوعی شیر لندنی کلمه می خورد و شعر می سراید!

چهار مجسمه شیر برنزی در یکی از میدان های لندن نزدیک به ۱۵۰ سال است که با نگاهی خشمگین به عابران پیاده می نگرند، اما به تازگی شیر پنجمی با قابلیت های عجیب به آنها پیوسته است!
 
به گزارش ورج، شیر پنجم توسط طراحی به نام اس دولین تولید شده که قبلا هم مجسمه هایی برای استفاده در اپرا و تئاترهای مختلف تولید کرده بود.
 
مجسمه شیر مذکور به گونه ای طراحی شده که عابران علاقمند می توانند با استفاده از یک اپلیکیشن تلفن همراه به نام «به شیرها غذا دهید»، کلمه ای را به عنوان غذا در اختیار آن قرار دهند و سپس این شیر با استفاده از برنامه هوش مصنوعی که در اختیار دارد، ابتدا در برابر حضار غرش می کند و سپس با استفاده از نمایشگری که در دهانش قرار دارد یک شعر که توسط برنامه مذکور انتخاب شده، نمایش می دهد.
 
 
با فرا رسیدن شب کلمات مختلف هر شعر بر روی بدن شیر تابانده می شوند و سپس به حرکت درمی آیند و در نهایت به ستون بلند موجود در این میدان موسوم به ستون نلسون منتقل می شوند.
 
امور فنی تولید این شیر توسط متخصصی به نام راس گودوین انجام شده و هوش مصنوعی آن اطلاعات بخش اعظم اشعار انگلیسی سروده شده در قرن نوزدهم که بالغ بر ۲۵ میلیون کلمه است را در اختیار دارد.
 
اگر چه این ایده برای برخی عابران پیاده ای که از میدان ترافالگار لندن عبور می کنند، جذاب و چشمگیر است، اما کم نیستند افرادی که با بی تفاوتی از کنار این شیر عبور می کنند و چه بسا شیرهای برنزی ۱۵۰ سال قبل برای آنها جذاب تر هستند.

بدافزار مفهومی «دیپ‌لاکر» بر پایه هوش مصنوعی خلق شد

به تازگی محققین امنیتی و هوش مصنوعی شرکت IBM یک بدافزار اثبات مفهوم را توسعه داده‌اند؛ این بدافزار DeepLocker نام دارد.
 
 
 
 
DeepLocker به خودی خود یک payload مخرب ندارد بلکه هدف اصلی آن پنهان‌سازی بدافزار و در امان ماندن آن از آنتی‌ویروس‌ها و تحلیل‌گران بدافزار است.
 
این بدافزار یک روش نوین پنهان‌سازی با استفاده از مدل‌های هوش مصنوعی ارائه داده است.
 
هدف اصلی توسعه‌دهندگان این بدافزار حمله یا تخریب نبوده است بلکه هدف نشان دادن این قضیه به توسعه‌دهندگان سیستم‌های امنیتی بوده است که به زودی بدافزارهایی مبتنی بر هوش مصنوعی گسترش خواهند یافت و مکانیزم‌ها و ابزارهای موجود توانایی مقابله با آنها را ندارند.
 
از این رو محققین و شرکت‌های امنیتی باید به فکر راهکارهای جدیدی برای مقابله با اینگونه بدافزارها باشند.
 
بدافزار DeepLocker روش پنهان‌سازی خود را کاملا متفاوت از دیگر بدافزارهای موجود ارائه کرده است؛ این بدافزار برای پنهان ماندن از دست آنتی‌ویروس‌ها و فایروال‌ها، خود را درون نرم‌افزارهای سالم نظیر نرم‌افزار ویدئو کنفرانس پنهان‌سازی می‌کند.
 
این شیوه قبلا هم توسط بسیاری از بدافزارها استفاده شده است و چیز جدیدی نیست.
 
نکته متمایزکننده در رابطه با این بدافزار، استفاده از هوش مصنوعی برای فعال‌سازی شروط حمله است که مهندسی معکوس آن را به شدت سخت و در مواردی فعلا غیر ممکن کرده است.
 
Payload مخرب این بدافزار فقط در صورتی قفل‌گشایی خواهد شد که شرایط هدف برقرار شود؛ این شرایط توسط یک مدل آموزش دیده هوش مصنوعی شبکه عصبی عمیق بررسی می‌شود.
 
مدل هوش مصنوعی تولید شده به صورت عادی عمل خواهد کرد و فقط در صورتیکه شروط مورد نظر بر روی سیستم قربانی موجود باشد، فعالیت مخرب را آغاز می‌کند.
 
در واقع این شبکه عصبی کلید رمزگشایی قسمت مخرب را تولید می‌کند؛ برای تشخیص هدف، این بدافزار از مشخصه‌های مختلفی نظیر ویژگی‌های بصری، صوتی، موقعیت جغرافیایی و ویژگی‌های سطح سیستم استفاده می‌کند.
 
برای تولید یک مدل هوش مصنوعی نیاز به استفاده از الگوریتم‌های یادگیری ماشین داریم؛ تفاوت الگوریتم‌های عادی و هوش مصنوعی به این صورت است که به جای تعریف فرمول دقیق یا شروط دقیق در یک الگوریتم، این الگوریتم‌ها خود الگو موجود در داده‌ها را آموزش می‌بینند.
 
برای تولید یک مدل هوش مصنوعی، دو فاز آموزش و تست نیاز است؛ در فاز آموزش تعدادی نمونه آموزشی که هر کدام دارای یک سری ویژگی هستند به ورودی الگوریتم داده می‌شود.
 
همچنین خروجی صحیح هر یک از ورودی‌ها نیز به آن مدل داده می‌شود؛ مدل به وسیله الگوریتم‌های یادگیری ماشین، نحوه تولید خروجی‌ها از ورودی‌های داده شده را فرا می‌گیرد و مدل را تولید می‌کند؛ سپس می‌توان به مدل تولید شده یک داده دیده نشده و تازه تزریق و خروجی احتمالی آن را مشاهده کرد.
 
به عنوان مثال در مبحث تشخیص بدافزار با استفاده از هوش مصنوعی، یک مدل یادگیری ماشینی به این صورت آموزش داده می‌شود: تعدادی فایل سالم و تعدادی فایل مخرب به عنوان نمونه آموزشی انتخاب می‌شوند؛ سپس از هر یک از این فایل‌ها تعدادی ویژگی به روش‌های مختلف استخراج می‌شود.
 
این ویژگی‌ها به عنوان ورودی به الگوریتم داده شده و خروجی الگوریتم مخرب بودن یا سالم بودن نمونه خواهد بود؛ پس از اینکه مدل آموزش دیده شد می‌توان یک فایل جدید را به مدل داد تا مخرب یا سالم بودن آن را تشخیص دهد.
 
شبکه عصبی معمولی مجموعه‌ای از گره‌هایی است که لایه به لایه قرار گرفته‌اند و به یکدیگر متصل هستند؛ هر شبکه یک لایه ورودی و یک لایه خروجی و صفر یا تعداد بیشتری لایه میانی یا مخفی دارد.
 
یال‌های متصل‌کننده گره‌ها دارای وزن هستند که این وزن‌ها در مقدار گره‌های سمت چپ ضرب شده و تولید مقدار جدید برای گره سمت راست یال را می‌کند؛ این عملیات تا تولید مقدار برای گره‌های لایه خروجی ادامه پیدا می‌کند.
 
شبکه عصبی عمیق یک شبکه عصبی است که تعداد لایه‌های درونی آن بسیار زیادتر از یک شبکه عصبی معمولی است؛ تفاوت این دو نوع شبکه را در شکل زیر مشاهده می‌کنید:
 
 
 
 
 
 
در سال‌های اخیر استفاده از این نوع شبکه محبوبیت بسیاری پیدا کرده است؛ طرز کار شبکه به این صورت است که تعداد ویژگی به عنوان ورودی از هر نمونه می‌گیرد همچنین خروجی مورد نظر هم به شبکه تحویل داده می‌شود.
 
شبکه با توجه به ورودی‌ها و خروجی‌های متناظر آموزش می‌بیند و یک مدل تولید می‌کند.
 
از این به بعد با دادن یک ورودی جدید می‌توان خروجی احتمالی را از مدل استخراج کرد.
 
DeepLocker فرآیند فعال‌سازی فاز حمله خود را که شامل قفل‌گشایی محتوای مخرب و اجرای آن می‌شود، به وسیله یک مدل آموزش‌دیده شبکه عصبی عمیق انجام می‌دهد.
 
این مدل کار تحلیل‌گران و آنتی‌ویروس را بسیار سخت می‌کند زیرا به جای استفاده از تعدادی شرط رایج به صورت if-then-else در کد خود از یک مدل یادگیری ماشینی استفاده کرده است.
 
مدل مورد نظر تنها تعداد گره و یال وزن‌دار است که هیچ دیدی از نحوه عملکرد درونی خود به ما نمی‌دهد؛ پس تحلیل‌گران حتی نمی‌توانند به طور کامل متوجه حالت‌هایی شوند که بدافزار در آن فعال خواهد شد.
 
در واقع برای تحلیل‌گران بدافزار دو چیز مهم است: شرایط وقوع یک حمله سایبری و payload مخرب آن؛ DeepLocker هر دوی آن را مورد هدف قرار داده است.
 
شرایط حمله به صورت یک جعبه سیاه در آمده است و payload نیز در صورت نامعلومی قفل‌گشایی خواهد شد.
 
پنهان‌سازی دسته مورد حمله: چه اشخاصی یا سازمان‌هایی قرار است مورد حمله قرار گیرند.
پنهان‌سازی نمونه‌های مورد حمله: مشخص نیست که نمونه مورد نظر چه شخص یا سازمانی خواهد بود.
پنهان‌سازی محتوای بدافزار: مشخص نیست که حمله نهایی چگونه شکل خواهد گرفت.
 
تیم توسعه DeepLocker براساس گزارشی که ماهر منتشر کرده، برای نشان دادن قابلیت‌های منحصر به فرد این بدافزار از بدافزار معروف WannaCry به عنوان payload بدافزار استفاده کرده‌اند و آن را درون یک نرم‌افزار ویدئوکنفرانس سالم جای داده‌اند.
 
شرایط حمله نیز تشخیص چهره فرد مورد نظر است؛ یعنی فقط در صورتیکه فرد مورد نظر در ویدئوکنفرانس ظاهر شود کامپیوتر آن مورد حمله قرار می‌گیرد.
 
در نهایت هدف تیم تحقیقاتی امنیتی IBM نه تولید یک بدافزار مخرب بلکه موارد زیر بوده است:
 
• بالا بردن آگاهی از تهدیدات هوش مصنوعی در بدافزار و اینکه این روش‌ها به سرعت در بین بدافزارنویسان محبوب خواهند شد.
• نشان دادن اینکه چگونه این روش‌ها می‌تواند سیستم‌های دفاعی امروزه را دور بزند.
• ارائه بینش درباره چگونگی کاهش خطرات و اعمال اقدامات مناسب کافی

سرمایه‌گذاری ۲ میلیارد دلاری پنتاگون در هوش مصنوعی

وزارت دفاع آمریکا اعلام کرد مبلغ n, میلیارد دلار را در توسعه پروژه‌های تحقیقاتی که از هوش مصنوعی بهره خواهند گرفت، سرمایه‌گذاری می‌کند.
 
به گزارش واشنگتن پست، "استیون واکر" مدیر آژانس پروژه‌های تحقیقاتی پیشرفته دفاعی (DARPA) امروز در یک نشست اعلام کرد: وزارت دفاع ایالات متحده ظرف پنج سال آینده دو میلیارد دلار به تحقیقات هوش مصنوعی اختصاص می‌دهد.
 
وی گفت که سازمان می‌خواهد به چگونگی دستیابی ماشین‌ها به توانایی‌های ارتباطی و استدلالی شبه‌انسانی بپردازد و دهها پروژه تحقیقاتی جدید را به پیش ببرد.
 
یکی از کارشناسان به واشنگتن پست گفت: این یک توافق عظیم است. این نخستین نشانه است که ایالات متحده با مقیاس بزرگ و بودجه هنگفت و به طور کاملا جدی به دنبال تکنولوژی پیشرفته هوش مصنوعی است. ما شاهد این بوده‌ایم که چین، میلیاردها دلار به این موضوع اختصاص داده است و این اولین بار است که ایالات متحده هم همین کار را انجام می‌دهد.
 
دارپا گفت: این پروژه‌ها به دنبال تامین بودجه برای مقابله با طیف وسیعی از مسائل از جمله نظارت بر بازرسی امنیتی، کاهش نیازهای انرژی برای ماشین‌های نظامی و هوش مصنوعی توضیحی است که به افراد اجازه می‌دهد تا بهتر بتوانند از هوش مصنوعی استفاده کنند.
 
این حرکت پس از ایجاد مرکز مشترک اطلاعاتی هوش مصنوعی که به تازگی انجام شده، برای کمک به وزارت دفاع در پی تطبیق برنامه‌های کاربردی هوش مصنوعی با جسارت و آرامش در حالی که تعهد اخلاقی نظامی و ایمنی را رعایت می‌کند، انحام می‌پذیرد.
 
در حالی که پنتاگون با شرکت‌های پیشرو در فناوری هوش مصنوعی کار کرده است، برخی پروژه‌ها متوقف شده است. به طور مشخص، پروژه Maven که به گوگل سپرده شده بود، به دلیل توسعه اسلحه‌های هوش مصنوعی مورد انتقاد کارمندان گوگل قرار گرفت و سر و صداهایی در داخل شرکت ایجاد کرد که در نهایت تصمیم گرفته شد تا قراردادش را با پنتاگون تمدید نکند.
 

هوش مصنوعی، تبعیض را به ربات‌ها آموزش می‌دهد

دانشمندان آمریکایی در یک بررسی جدید دریافتند که تبعیض، تنها مختص انسان‌ها نیست و در ربات‌هایی که به هوش مصنوعی مجهز هستند نیز قابل گسترش است.
 
به گزارش دیلی‌میل، شاید ربات‌ها در آینده، گونه‌های دیگر از جمله انسان را کم‌ارزش‌تر از خود بدانند.
 
شاید به نظر برسد تبعیض، پدیده‌ای مخصوص به انسان‌هاست و به شناخت انسانی نیاز دارد اما به گفته متخصصان، تبعیض در مورد دیگران، به سطح بالایی از توانایی شناختی نیاز ندارد؛ در نتیجه ماشین‌های مجهز به هوش مصنوعی می‌توانند به سادگی آن را بروز دهند. در حال حاضر برخی از الگوریتم‌های رایانه‌ای، می‌توانند تبیض نژادی و جنسیتی را نشان دهند.
 
این ماشین‌ها می‌توانند جدا کردن گونه‌های دیگر از گروه خود را به یکدیگر آموزش دهند. جدیدترین یافته‌های مبتنی بر شبیه‌سازی رایانه‌ای می‌توانند گروهی را شکل دهند و با یکدیگر تعامل داشته باشند.
 
متخصصان علوم رایانه و روانشناسی دانشگاه‌های "کاردیف"(Cardiff) و "ام.آی.تی"(MIT) دریافتند که ربات‌های خودکار، با شناسایی، کپی‌برداری و یادگیری این رفتار از یکدیگر، می‌توانند تبعیض را نشان دهند.
 
 
دانشمندان برای بررسی این موضوع، با استفاده از شبیه‌سازی، شرکت کردن ربات‌ها در یک بازی را مورد مطالعه قرار دادند. در این بازی، هر شرکت‌کننده باید در مورد دادن پول به اعضای گروه خود و اعضای گروه‌های دیگر تصمیم می‌گرفت. این آزمایش نشان داد که شرکت‌کنندگان، راهبردهای جدید را از دیگر اعضای گروه خود تقلید می‌کنند.
 
پروفسور "راجر وایتکر"(Roger Whitaker)، استاد دانشکده علوم رایانه و انفورماتیک دانشگاه کاردیف گفت: ما با انجام دادن این شبیه‌سازی‌ها، موفق شدیم چگونگی تکامل شرایط ترویج یک تصمیم یا منع آن را درک کنیم. این شبیه‌سازی‌ها نشان می‌دهند که تبعیض، یک نیروی طبیعی و قابل تکامل است؛ در نتیجه به سادگی میان یک جامعه شیوع پیدا می‌کند.
 
این پژوهش، در مجله " Scientific Reports" به چاپ رسید.
 

هوش مصنوعی گوگل فضای مجازی را پاکسازی می‌کند

شرکت گوگل قصد دارد با بهره‌گیری از فناوری هوش مصنوعی به مقابله جدی‌تری با انتشار تصاویر و محتوای غیراخلاقی بپردازد.
 
به گزارش thestar، با توجه به آنکه بسیاری از غول‌های تکنولوژی و شرکت‌های بزرگ نظیر گوگل، یوتیوب و فیس‌بوک در مدت‌های اخیر تحت تاثیر انتشار اخبار کذب و دروغین و همچنین تصاویر و محتوای خشونت بار و غیر اخلاقی به‌شدت تحت فشار دولت‌ها و موسسات مختلف در ایالات متحده آمریکا و اتحادیه اروپا  قرار گرفته‌اند، حالا گوگل بعنوان زیرمجموعه شرکت آلفابت اعلام کرده است که می‌خواهد با بهره‌گیری از فناوری‌های نوینی همچون هوش مصنوعی و یادگیری ماشینی به مقابله با انتشار تصاویر و محتوای مجرمانه، غیر اخلاقی بخصوص در زمینه سواستفاده جنسی از کودکان بپردازد.
 
این شرکت با انتشار بیانیه‌ای به‌تازگی عنوان کرده است که تصمیم گرفته محیط گوگل را از مجرمان سایبری که اقدام به انتشار چنین تصاویر نادرست و غیراخلاقی می‌کنند و آن را در اختیار سایرین قرار می‌دهند، پاکسازی کند.
 
به گفته این شرکت، هوش مصنوعی بکار برده شده در گوگل قادر است تمامی وب‌سایت‌ها، اپلیکیشن‌ها و تصاویری که در رابطه با این مساله هستند را شناسایی کرده و سپس آنها را از پلت‌فرم های گوگل حذف کند.
 

هوش مصنوعی گوگل جلوی سوءاستفاده از کودکان را می گیرد

گوگل به منظور مقابله با افرادی که تلاش می کنند از فضای مجازی برای سوءاستفاده از کودکان استفاده کنند، یک ابزار هوش مصنوعی رایگان عرضه کرده است.
 
به گزارش ورج، گسترش پدیده کودک آزاری اینترنتی در آمریکا و اروپا که گاهی به سواستفاده های جنسی از آنها نیز منجر می شود باعث شده تا شرکت های فناوری برای شناسایی عوامل این فعالیت های مخرب و همین طور پاکسازی محتوای نامناسب مرتبط بیشتر تلاش کنند.
 
گوگل نیز به همین منظور یک نرم افزار هوش مصنوعی طراحی کرده که در مقایسه با محصولات رقیب از توانایی بیشتری برخوردار است. یکی از مشهورترین نرم افزارهای پاکسازی محتوای نامناسب مربوط به سواستفاده از کودکان PhotoDNA نام دارد که توسط مایکروسافت ابداع شده و تنها قادر به شناسایی و پاکسازی تصاویر ویدئوهای نامناسب است.
 
اما این نرم افزار محدودیت هایی دارد و دقت آن بالا نیست و لذا محتوای شناسایی شده از طریق آن باید توسط یک کاربر انسانی کنترل شود. اما نرم افزار هوش مصنوعی گوگل می تواند محتوای مشکوک شناسایی شده را بر حسب میزان نامناسب بودن طبقه بندی و دسته بندی کند تا کاربر انسانی ابتدا موارد جدی تر و خطرناک تر را مشاهده و بررسی کند.
 
گوگل مدعی است استفاده از این نرم افزار سرعت شناسایی و برخورد با محتوای نامناسب این چنینی را در مقایسه به نرم افزارهای رقیب تا ۷۰۰ درصد افزایش می دهد.