ظهور نشانه های نژادپرستی در هوش مصنوعی
به گزارش بیگ بنگ، ماه گذشته مایکروسافت یک برنامه هوش مصنوعی (چت بات) با عنوان Tay به کاربران توییتر معرفی کرد که قرار بود از محاوره های موجود در میان کاربران صحبت کردن و اجتماعی شدن را بیاموزد، اما بیش از ۲۴ ساعت طول نکشید که این ربات درست شبیه سک نژاد پرست تمام عیار شد و مطالبی در حمایت از نئونازی ها منتشر کرد، این ربات فقط با کاربران توییتر محاوره کرده بود و نتیجه این محاوره ها بود.
گویا آی تی – به گزارش بیگ بنگ، متاسفانه فقط ترول های توئیتر باعث زبان نژادپرستانه این ربات نیستند.در واقع محققان معتقدند وقتی یک انسان به هوش مصنویی زبان می آموزد به طور خودکار تعصبات و اعتقادات خود را نیز به هوش مصنوعی منتقل می کند. محققان با تحقیقات گسترده یک سیستم ماشینی به نام GloVe کشف کرده اند که به طور گسترده تمام اعتقادات و تعصبات انسانی را به صندوق رفتاری هوش مصنوعی وارد می کند.
آیلین سلیشکن متخصص علوم کامپیوتر از دانشگاه پرینستون در این باره گفت: (عجیب ترین موردی که با آن برخورد داشتیم این بود که حتی دستگاه های هوش مصنوعی که فقط برای مسائل بی طرفانه همچون ویکی پدیا یا مقالات علمی و خبری آموزش دیده اند نیز بارگه هایی از تعصبات مشترک انسانی را بازتاب می کنند.)
مثلا دستگاه هوش مصنوعی GloVe برای تشخیص و آموزش از متن ها و اطلاعات رایج و استاندارد وب جهانی استفاده می کند و مشخصا تعصبات انسانی موجود در صفحات وب را بازتاب می دهد. روانشناسان معتقدند که چون مغز انسانی با ارتباط دادن کلمات به هم معانی را به وجود می آوردند، پس بنابراین امری عادی است در صورت به کار بردن کلمه گل یاس کلمات مثبتی مثل زیبایی و بعد از به کار بردن کلمه ای مثل درد مفهومی نامطلوب را انتظار بکشیم. این محققان از آزمونی تستی با عنوان (آزمون ارتباط مفهومی) به عنوان تحلیل مفهوم سازی زبان انسان استفاده می کنند.
از این ابزار برای آشکار کردن ارتباطات ناخودآگاه مردم در گروه های اجتماعی نیز میتوان بهره برد. به طور مثال با این ابزار ثابت شده است که مردم با طور ناخودآگاه و خودکار مفاهیمی مثل سیاه پوست و سلاح را به کار می برند و معمولا اشیا بی ضرر را به سفید پوستان نسبت می دهند . درباره تحلیل نتایج این تحقیقات بحث های بسیاری میان محققان وجود دارد. آیا مردم برای محافظت از تعصبات ناخودآگاه خود به ساختن چنین ارتباطات مفهومی مبادرت می ورزند؟ و یا اینکه ازلحاظ آماری احتمال بیشتری می دهند که مفاهیمی که بار منفی بیشتری دارند با اقلیت های قومی در ارتباط باشد؟
تعصبات های دیجیتالی
سلیکشن و همکارانش یک آزمون ارتباط مفهونی را طراحی کرده اند که قادر است ارتباطات کلمات و مفاهیم در GloVe را مانند مغز انسان تحلیل کنند. به ازای هر ارتباط و کلیشه ای از طریق این این آزمون ارتباط مفهونی را نورد بررسی قرار می دهند. نتایج شگفت انگیز بود، ابزارهای بازتولید ماشین یادگیری، ارتباطاتی مانند ارتباط میان گل ها، آلات موسیقی و کلمات مثبت و و مطلوب و در مقابل آنها ارتباط حشرات و سلاح با کلمات منفی و نامطلوب را ثبت می کند. نگران کننده ترین این ارتباطات، این بود که نام های اروپایی-آمریکایی خوشایندتر و زیبا تر از نام های آفریقایی-آمریکایی قرار گرفته بودند. و همچنین نام مرد با کلمات کار و نام زن با کلمات خانواده آمیخته شده بود. مردان بیشتر با ریاضی و علوم و زنان با هنر در ارتباط بودند. نام های مرتبط به افراد مسن نامطلوب تر از نام های مرتبط با جوانان بوده است.
این اطلاعات بازبینی شده توسط محققان شباهت بسیار زیادی با حقایق موجود در جهان را داشت.مقایسه برنامه ی GloVe ثابت کرد که حتی اطلاعات میان داده های این دستگاه همپوشانی جالبی با اطلاعات آماری دفتر آمار ایالت متحده آمریکا درباره زنان شاغل را داشت.
به گفته سیلیکشن: (ما و همکارانمان دریافتیم که برنامه هایی که زبان انسان را فرا می گیرند، همزمان نمایی دقیق از واقعیات و حتی فرهنگ جهان را نیز ثبت کرده و منتشر می کنند.)
البته گاهی مواقع ثبت این تعصبات انسانی در این برنامه ها نادرست است و این برنامه ها را گاها به اشتباه می اندازد. مثلا در جریان داستان مارتین لوتر کینگ جونیور که در جریان اعتراضات به تبعیض نژادی در سال ۱۹۶۳ دستگیر شد، برای انسان های معمولی مارتین لوتر سمبل آزادی خواهی و مبارزه با نژادپرستی در نظر گرفته می شود و بار مفهومی مطلوب و مثبت دارد، در حالی که برای کامپیوتر او در دسته ی )سیاه=زندان( قرار می گیرد و بار معنایی منفی را نشان می دهد. سیلیکشن می گوید این دستگاه ها به اندازه کافی دقت عملکرد انسانی ندارند که همراه با حفط تعصبات انسانی عدالت و برابری را نیز درک کنند. وی ادامه داد که حذف کردن این کلیشه ها و تعصبات از ربات کار درستی به نظر نمی رسد چون در آن صورت احتمالا دیگر بازنمایی از دنیای واقعی را نخواهیم دید و یک جهان ایده آل متصور خواهیم شد.
ابزارهای هوش مصنویی بدون تعصبات انسانی
فریدلر به تازگی در زمینه حضور انصاف ، مسئولیت و شفافیت در یادگیری ماشین ها و هوش های مصنویی تحقیق می کند. او می گوید حل این مشکل راه آسانی نیس.در برخی موارد برنامه نویس می تواند به هوش مصنوعی دستور دهد تا یک تعصب یا کلیشه را نادیده بگیرد، اما در تعاملات انسانی زنجیره ها و نکات بسیار ظریفی وجود دارد که هر کدام می تواند ماشین را در مرکز تعصبات و کلیشه ها بکشاند که مو به مو کنترل کردن همه این جزئیات جنون آمیز به نظر می رسد. مورد دیگری که وجود دارد نگرش انسان در مغز وی با نگرش صریح او در شبکه های اجتماعی تفاوت بسیار زیادی دارد و عملا ارتباطی بین این دو نیست. سیلیکشن در این باره می گوید:
متاسفانه ماشین ها در تصمیم گیری در یک موقعیت مغرضانه مانند انسان نمی توانند عمل کنند.