فناوری هوش مصنوعی مردگان را زنده می‌کند

یک شرکت تجاری فناوری هوش مصنوعی جدیدی را ابداع کرده که با دریافت عکس‌های قدیمی می‌تواند آنها را به فایل‌های ویدئویی تبدیل کرده و مردگان را زنده کند.
 
 به نقل از نیواطلس، شرکت مای هریتیج این فناوری موسوم به نوستالژی عمیق را از طریق سایت خود در دسترس علاقمندان قرار داده است. سیستم یادشده عکس‌های اقوام و خویشان درگذشته را دریافت می‌کند و آنها را به فایل‌های متحرک مبدل می‌کند. افراد در این فایل‌ها در حال لبخند زدن، پلک زدن و حرکت دادن سر و صورت خود به اطراف هستند.
 
فناوری هوش مصنوعی و یکی از انواع آن موسوم به جعل عمیق یا دیپ فیک به سرعت در حال گسترش بوده و هر روز کاربردهای تازه ای پیدا می‌کند. از این فناوری می‌توان برای تهیه انواع عکس و ویدئوی جعلی از افراد مختلف استفاده کرد و گفتار و اظهارات غیرواقعی را به اشخاص نسبت داد. اما فناوری یادشده این بار کارکردی خاطره انگیز پیدا کرده است.
 
 
سایت مای هریتیج به فاصله کوتاهی بعد از دریافت عکس، آن را بررسی و بهینه سازی می‌کند و سپس حرکات مختلف را به عکس اضافه می‌کند و در نهایت فایلی را با فرمت mp۴ تحویل می‌دهد. برای استفاده از این خدمات باید از حساب کاربری گوگل یا فیس بوک خود استفاده کنید.
 
کیفیت تصویر متحرک سازی نهایی شده وابستگی زیادی به عکس اولیه ارائه شده توسط کاربر دارد و بهتر است عکسی آپلود شود که در آن صورت فرد به طور کامل مشخص باشد و وی در حال نگاه مستقیم به روبرو باشد. به فاصله ۴۸ ساعت از راه اندازی وب سایت مای هریتیج برای ارائه این خدمات بیش از یک میلیوند عکس در آن آپلود شد.
 

فناوری هوش مصنوعی مردگان را زنده می‌کند

یک شرکت تجاری فناوری هوش مصنوعی جدیدی را ابداع کرده که با دریافت عکس‌های قدیمی می‌تواند آنها را به فایل‌های ویدئویی تبدیل کرده و مردگان را زنده کند.
 
 به نقل از نیواطلس، شرکت مای هریتیج این فناوری موسوم به نوستالژی عمیق را از طریق سایت خود در دسترس علاقمندان قرار داده است. سیستم یادشده عکس‌های اقوام و خویشان درگذشته را دریافت می‌کند و آنها را به فایل‌های متحرک مبدل می‌کند. افراد در این فایل‌ها در حال لبخند زدن، پلک زدن و حرکت دادن سر و صورت خود به اطراف هستند.
 
فناوری هوش مصنوعی و یکی از انواع آن موسوم به جعل عمیق یا دیپ فیک به سرعت در حال گسترش بوده و هر روز کاربردهای تازه ای پیدا می‌کند. از این فناوری می‌توان برای تهیه انواع عکس و ویدئوی جعلی از افراد مختلف استفاده کرد و گفتار و اظهارات غیرواقعی را به اشخاص نسبت داد. اما فناوری یادشده این بار کارکردی خاطره انگیز پیدا کرده است.
 
 
سایت مای هریتیج به فاصله کوتاهی بعد از دریافت عکس، آن را بررسی و بهینه سازی می‌کند و سپس حرکات مختلف را به عکس اضافه می‌کند و در نهایت فایلی را با فرمت mp۴ تحویل می‌دهد. برای استفاده از این خدمات باید از حساب کاربری گوگل یا فیس بوک خود استفاده کنید.
 
کیفیت تصویر متحرک سازی نهایی شده وابستگی زیادی به عکس اولیه ارائه شده توسط کاربر دارد و بهتر است عکسی آپلود شود که در آن صورت فرد به طور کامل مشخص باشد و وی در حال نگاه مستقیم به روبرو باشد. به فاصله ۴۸ ساعت از راه اندازی وب سایت مای هریتیج برای ارائه این خدمات بیش از یک میلیوند عکس در آن آپلود شد.
 

«دیپ فیک» تیغ برنده مجرمان سایبری در آینده

هوش مصنوعی(AI) یکی از فناوری‌های نوظهور است که این روزها با سرعتی بالا در حوزه‌های مختلف از بازی و سرگرمی گرفته تا آموزش، سلامت، روبات‌ها، امور مالی و بانکداری، کشاورزی، حمل و نقل و ترافیک و... به کار گرفته می‌شود. هرچند هدف فعالان حوزه هوش مصنوعی، تنها رفاه مردم جهان و سرعت بخشیدن به روند اجرای پروژه‌های مختلف بوده است اما قابلیت‌های عظیم این فناوری توجه مجرمان سایبری را نیز جلب کرده و با روش‌های گوناگون به‌دنبال سوء‌استفاده از هوش مصنوعی هستند که این موضوع نگرانی‌هایی را رقم زده است. اما بیشترین خطرات این فناوری پرکاربرد در سال‌های آینده کدام هستند؟
بررسی خطرات هوش مصنوعی با 4شاخص
پس از ارائه گزارش دانشمندان یک دانشگاه تحقیقاتی واقع در لندن با نام University College London)UCL) و هشدار آنها درباره خطرات بالقوه هوش مصنوعی در ‌آینده، یک نشست دو روزه با حضور 31 متخصص حوزه هوش مصنوعی برگزار شد تا مخاطرات این فناوری در 15سال آینده مورد بحث و بررسی قرار بگیرد. هرچند ابتدا قرار بود برخی از دانشجویان و علاقه‌مندان به این حوزه نیز در این نشست حضور داشته باشند ولی به‌دلیل شیوع کرونا این موضوع عملی نشد و این نشست با جمعیتی کمتر از حد انتظار برپا شد. در مقابل، تعداد بیشتری از علاقه‌مندان موفق شدند بحث و گفت‌و‌گوهای این نشست را در فضای مجازی و به‌صورت آنلاین مشاهده کنند.
در این نشست از اقشار دانشگاهی، بخش خصوصی، پلیس، دولت و آژانس‌های امنیتی دولتی حضور داشتند و شرکت‌کننده‌ها بر اساس چهار شاخص، نگرانی‌های خود از هوش مصنوعی در آینده را دسته‌بندی کردند. یکی از این شاخص‌ها میزان زیانی است که هوش مصنوعی می‌تواند ایجاد کند. پتانسیل هوش مصنوعی برای سوء‌استفاده مجرمان و اینکه هوش مصنوعی چقدر می‌تواند انجام یک جرم را آسان‌تر کند از دیگر شاخص‌هایی بودند که در این نشست مورد بررسی قرار گرفت. یکی دیگر از شاخص‌ها هم این بود که توقف جرم صورت گرفته با کمک هوش مصنوعی تا چه حد برای پلیس و... سخت خواهد بود. آنچه همه این متخصصان متفق القول بر آن تأکید داشتند این بود که اگر از هوش مصنوعی استفاده درستی نشود می‌تواند به روش‌های گوناگون به جامعه آسیب برساند. به گفته این گروه، تهدیدات هوش مصنوعی از بی‌اعتبار کردن چهره‌های خاص سیاسی و معروف گرفته تا تأثیرگذاری بر افکار عمومی و اخاذی وجوه با جعل بستگان شخص در یک تماس ویدئویی و... را شامل می‌شود بنابراین باید برای مقابله با این خطرات آماده شویم.
شرکت‌کنندگان در این نشست، بیشتر مشکلات را ناشی از توسعه و تکرار استفاده از هوش مصنوعی برای موارد خلاف می‌دانند. به‌عنوان مثال «متیو کالدول» یکی از شرکت‌کنندگان در این نشست گفت: در محیط آنلاین که دیتا یک ثروت به‌شمار می‌رود و اطلاعات، قدرت است مجرمان سایبری وسوسه می‌شوند تا از قابلیت‌های هوش مصنوعی که این روزها بسیار مورد توجه قرار گرفته سوء‌استفاده کنند. این متخصص حوزه سایبری ادامه داد: برخلاف بسیاری از جرایم سنتی، جرایم دیجیتال بارها به اشتراک گذاشته شده، تکرار می‌شوند و حتی در برخی موارد دستاوردهای ناشی از این اعمال مجرمانه به فروش می‌رسد. اگر این مجرمان که از هوش مصنوعی سوء‌استفاده می‌کنند حمله‌های خود را با هک‌های DoS پیوند بزنند بی‌شک می‌توانند مشکلات بیشتری ایجاد کنند.
پروفسور «شان جانسون» یکی دیگر از افراد حاضر در این نشست نیز گفت: ما در دنیایی زندگی می‌کنیم که هر تغییری فرصت‌هایی جدید می‌سازد که این فرصت‌ها می‌توانند خوب یا بد باشند. بنابراین با علم به خطرات و تهدیدهای سایبری باید سیاستمداران، آژانس‌های امنیت و... تلاش کنند تا مقابل این اتفاقات بایستند و همیشه یک گام از مجرمان جلوتر باشند. این نخستین نشست با موضوع تهدیدهای آینده تکنولوژی‌های نوظهور به شمار می‌رود و به نظر می‌رسد باید چنین نشست‌هایی در زمینه سایر فناوری‌ها نیز برپا شود تا بتوان با ابزاری قویتر به مقابله با مجرمان سایبری پرداخت.
خطرسازی هوش مصنوعی
نخستین موضوعی که در این نشست مورد بررسی قرار گرفت خطرات بالای هوش مصنوعی در آینده بود که در رأس آنها فناوری دیپ فیک (Deep Fake) قرار دارد. از نگاه فعالان حوزه هوش مصنوعی، دیپ فیک‌ها این توانایی را دارند که اخبار را نیز تحت تأثیر قرار دهند و به‌راحتی یک خبر جعلی را در کوتاه‌ترین زمان ممکن به دست مردم برسانند. با وایرال شدن یک ویدئوی دستکاری شده، به زحمت می‌توان برای کاربرانی که با سرعت درحال دست به دست کردن این ویدئوهای تقلبی هستند یادآور شد که موضوع چیز دیگری است و این ویدئو اصلی نیست. دیپ فیک همچنین می‌تواند دموکراسی را در برخی کشورها مورد حمله قرار دهد به‌عنوان مثال در امریکا سخنرانی دستکاری شده نانسی پلوسی رئیس مجلس نمایندگان امریکا با فناوری دیپ فیک در سال گذشته، بیش از 2.5میلیون بازدید در فیس‌بوک داشت و این موضوع نگرانی‌های زیادی را ایجاد کرد.مقابله با دیپ فیک برای امریکا که اکنون در آستانه انتخابات 2020 قرار گرفته بشدت حیاتی است چراکه این فناوری می‌تواند به‌راحتی در نتیجه انتخابات تأثیرگذار باشد.
مؤسسه تحقیقاتی Future Advocacy در بریتانیا نیز در این نشست نمونه‌هایی از دیپ فیک‌ها در فضای سیاسی کشورهای مختلف را به‌عنوان نمونه ارائه کرد. هرچند برخی ویدئوهای دیپ فیک که به طور مشابه از هوش مصنوعی برای ایجاد فیلم‌های جعلی استفاده کرده بودند هیچ خطری متوجه جامعه نمی‌کردند اما نشان از پتانسیل دیپ فیک، برای تأثیرگذاری در دنیای سیاست و ایجاد تغییراتی ناخواسته دارند.با اینکه اکنون با کمک برخی الگوریتم‌ها می‌توان دیپ فیک‌های آنلاین را تشخیص داد ولی همچنان راه‌های بسیاری برای انتشار این ویدئوهای دستکاری شده وجود دارد که این موضوع می‌تواند سبب بی‌اعتمادی مردم به محتواهای صوتی و تصویری شود.
یکی دیگر از مواردی که در رده خطرهای بالای هوش مصنوعی قرار می‌گیرد، خودروهای خودران هستند. دراین نشست عنوان شد امکان دارد در آینده از این خودروهای بدون سرنشین به‌عنوان مکانیسمی برای حمل و انتقال مواد منفجره و اسلحه استفاده شود حتی برخی معتقدند شاید تروریست‌ها در حملات انتحاری از این خودروها کمک بگیرند. از دیگر موارد خطرناک استفاده از هوش مصنوعی می‌توان به فیشینگ‌های سازماندهی شده با استفاده از قابلیت فناوری هوش مصنوعی اشاره کرد که می‌تواند هم نشت اطلاعاتی بسیار گسترده‌ای به همراه داشته باشد و هم به سیستم‌های بانکی ضرباتی جبران‌ناپذیر وارد کند.
ایجاد اختلال عمدی در سیستم‌های هوش مصنوعی نیز یکی از بزرگترین خطرات این فناوری به‌شمار می‌رود چرا که این اختلال می‌تواند بسته به توان فرد یا گروه ایجاد‌کننده این اختلال، دردسرها و خسارات جدی ایجاد کند. یکی از مواردی که بسیاری از فعالان حوزه فناوری به آن اشاره دارند روبات‌های قاتل هستند. این افراد معتقدند در آینده امکان دارد افرادی که صلاحیت لازم را ندارند هوش مصنوعی به کار رفته در روبات‌ها را تحت کنترل خود درآورند تا این روبات‌ها عملاً همه خواسته‌هایشان را عملی کنند. لزوماً همه این خواسته‌ها اخلاقی نیستند و گاه می‌توانند دردسر زیادی برای یک جامعه ایجاد کنند. باج‌خواهی‌ها و اخاذی‌های گسترده نیز بخشی دیگر از نگرانی‌های عمده ناشی از سوء‌استفاده از هوش مصنوعی در آینده بود که در این نشست مطرح شد.
سلامت، در تیررس مجرمان سایبری
شرکت‌کنندگان در این نشست به نگرانی‌های خود در زمینه خطرات میانی خود در زمینه توسعه هوش مصنوعی نیز اشاره کردند. کلاهبرداری و فروش سرویس‌ها و محصولات با سوء‌استفاده از عنوان هوش مصنوعی و همچنین تبلیغات هدفدار، در این دسته از نگرانی‌های متخصصان حوزه هوش مصنوعی جای می‌گیرد. این نگرانی‌ها وقتی بیشتر می‌شود که پای سلامت مردم در میان باشد. سوء‌استفاده از هوش مصنوعی در زمینه سلامت و کلاهبرداری‌هایی که در تبلیغات و... با کمک هوش مصنوعی انجام می‌گیرد در این دسته جای می گیرند. یکی از نمونه‌های آن هم تبلیغات دارو از زبان پزشکان با سوء‌استفاده از فناوری هوش مصنوعی و در قالب دیپ فیک است که می‌تواند بسیار دردساز و نگران‌کننده باشد.
بخشی دیگری از این نگرانی‌ها سوء‌استفاده از روبات‌های نظامی و همچنین ساماندهی حملات پهپادی با سوء‌استفاده از هوش مصنوعی است. در این نشست فعالان حوزه هوش مصنوعی سوء‌استفاده از فناوری تشخیص چهره در حکومت‌های سرکوبگر، دستکاری در بازار سهام و سرمایه و ایجاد مشکلات مالی عمدی گسترده در بازار یک کشور را از دیگر موارد نگرانی خود در صورت سوء‌استفاده از هوش مصنوعی در آینده عنوان کردند.
محققان در این نشست به خطراتی با شدت کمتر سوء‌استفاده از هوش مصنوعی نیز اشاره داشتند. افراد شرکت‌کننده در این نشست یکی از نگرانی‌های این دسته از خطرات را روبات‌های سارق دانستند که زمینه‌ساز حمله به محتواهای هنری و موسیقی و سرقت آنها و ایجاد هنر جعلی(fake art) می‌شود. هرچند هنرمندان نسبت به این موضوع نگران هستند اما محققان امکان بروز این حملات با استفاده از هوش مصنوعی را کمتر می‌دانند و آن را در دسته کم خطرترین‌ها رده‌بندی کردند. سوء‌استفاده از دستیارهای هوش مصنوعی نیز یکی دیگر از مواردی است که محققان در این دسته از آن نام می‌برند.
 

چین انتشار ویدیوهای دیپ فیک را ممنوع کرد

وزارت فضای مجازی چین قانونی وضع کرده که در آن هر تولید کننده محتوای صوتی و ویدیویی موظف است در صورت جعلی بودن محتوا، آن را علنا اعلام کند. بر اساس قانون جدید که از یکم ژانویه سال جدید میلادی اجرا می‌شود، هر گونه محتوای تولید شده با هوش مصنوعی یا واقعیت افزوده که تکنولوژی دیپ فیک داشته باشد، باید به صورت واضح آن را اعلام کرده باشد.
 
قانون جدید که مستقیما از سمت وزارت فضای مجازی چین (CAC) به پلتفرم‌های ویدیویی و صوتی این کشور ابلاغ شده، آن‌ها را موظف کرده تا اگر ویدیو و صوتی تولید می‌کنند، جعلی یا موثق بودن آن را حتما اعلام کنند. در غیر این صورت اقدام آن‌ها جرم حساب می‌شود. استفاده از هوش مصنوعی و واقعیت افزوده باعث به وجود آمدن ویدیو‌های جعلی شده که اصطلاحا به آن دیپ فیک می‌گویند.
 
بدین ترتیب از یک ژانویه سال ۲۰۲۰، تمام تولید کنندگان محتوا موظف هستند که از قانون جدید پیروی کنند. البته پدید آمدن اخبار جعلی، یکی از عمده‌ترین دلایل CAC برای وضع این قانون عنوان شده است. در وب سایت CAC آمده است که:
 
تکنولوژی دیپ فیک می‌تواند امنیت ملی را به خطر بیاندازد، نظم و پایداری جامعه را بر هم زند و حق و حقوق قانونی دیگران را پایمال کند.
 
 
البته پیش از این یکی از مراجع قانونی چین در نظر داشت تا تکنولوژی دیپ فیک را غیر قانونی اعلام کند. چندی پیش یکی از برنامه‌های چینی به نام ZAO به کاربران اجازه می‌داد تا با تغییر صورت خود به یک فرد مشهور، ویدیو‌های جعلی بسازند. این برنامه در چند ساعت اول انتشار آن، بالغ بر میلیون‌ها بار دانلود شد.
 
اما سوءاستفاده از حریم خصوصی کاربران باعث شد تا توسعه‌دهندگان این برنامه از کاربران عذرخواهی کنند و طی بیانیه‌ای اعلام کردند که هیچ گاه از اطلاعات بیومتریک کاربران استفاده نخواهند کرد.
 
پلتفرم‌های ویدیویی که موظف به رعایت قانون جدید در چین هستند عبارتند از:
 
Tencent Video
Youku
iQIYI
Kuaishou
Douyin
دو پلتفرم صوتی این کشور به نام‌های Himalaya و Dragonfly FM نیز از این پس باید در صورت جعلی بودن محتوا، آن را اعلام کنند.

مجرم سایبری با فناوری «دیپ فیک» ۲۴۳ هزار دلار سرقت کرد

 
یک کلاهبردار با استفاده از فناوری«دیپ فیک» و نرم افزار هوش مصنوعی، صدای مدیر یک شرکت آلمانی را تقلید و از زیرمجموعه آن در انگلیس ۲۴۳ هزار دلار سرقت کرد.
 
به نقل از فیوچریسم، این فرد با استفاده از نرم افزارهای هوش مصنوعی تولید صوت، صدای مدیر ارشد اجرایی شرکت مادر این موسسه را تقلید کرده است. کلاهبردار از مدیر زیرمجموعه در انگلیس خواسته تا طی یک ساعت مبلغی را به یک شرکت تهیه کننده بلغارستانی انتقال دهد و همچنین تضمین کرده بود این مبلغ بازپرداخت می شود.
 
 مدیر زیرمجموعه انگلیسی که با لهجه آلمانی و ویژگی های سخن گفتن رئیس خود آشنا بوده نیز درباره این تماس تردید نمی کند. اما نه تنها مبلغ ارسالی بازگشت داده نشد، بلکه کلاهبردار خواهان انتقال مبلغ دیگری نیز شد اما این بار مدیر انگلیسی از انجام آن سرباز زد.
 
در نهایت مشخص شد مبلغی که به بلغارستان منتقل شده، در نهایت به مکزیک و نقاط دیگر ارسال شده است. مقامات قضایی هنوز مشغول بررسی این عملیات کلاهبرداری سایبری هستند. البته این زیرمجموعه انگلیسی بیمه است و شرکت بیمه نیز تمام مبلغ سرقت شده را بازپرداخت می کند.
 
طبق نوشته وال استریت ژورنال این حادثه در ماه مارس اتفاق افتاده و نام شرکت و اطلاعات دیگر نیز فاش نشده است. اکنون به نظر می رسد فناوری دیپ فیک مجالی جدید برای گسترش فعالیت های مجرمانه سایبری فراهم کرده است.