🖍چت بات نژادپرست مایکروسافت توسط چه کسی توسعه یافته بود؟

🖍چت بات نژادپرست مایکروسافت توسط چه کسی توسعه یافته بود؟

🖍چت بات نژادپرست مایکروسافت توسط چه کسی توسعه یافته بود؟

به گزارش خانه هوش مصنوعی : انتهای ماه مارس بود؛ صرفا چهار روز پیش از اینکه مدیر عامل مایکروسافت روی صحنه رویداد «بیلد» برود و از «محاوره به عنوان یک پلتفرم» یاد کند. «لیلی چنگ» (Lili Cheng) صبح از خواب برخاست و به سرعت متوجه شد که یکی از چت بات هایش با مشکلات عجیبی رو به رو شده است.

نام آن چت بات، «Tay» بود: یک ربات مبتنی بر هوش مصنوعی که از سوی مایکروسافت در توییتر به کار خود مشغول شده و قرار بود نقش یک دختر ۱۹ ساله آمریکایی را بازی کرده و به لطف هوش مصنوعی اش، با کاربران توییتر به گفتگو بپردازد. کافی بود تا کاربران شبکه اجتماعی توییتر به سراغش رفته و با او صحبت کنند تا به آنها پاسخ بگوید.

اما تنها ۱۶ ساعت پس از عضویت اش در توییتر، تبدیل شده بود به یک نژادپرست تمام عیار. از یک سو رییس جمهور آمریکا را یک میمون می خواند و از سوی دیگر به ستایش هیلتر می پرداخت؛ البته به لطف ترول هایی که این مسائل را به او آموزش داده بودند.

«لیلی چنگ»، مهم ترین شخص در توسعه Tay بود و طبیعتاً روز دومی که این ربات کارش را آغاز کرده بود، یکی از سخت ترین روزهای کاری چنگ هم به شمار می آمد. چنگ مدیر آزمایشگاه «تجربه اجتماعی آینده نگرانه» (FUSE) است؛ همان مکانی که Tay در آن توسعه یافت.

🌐 لینک ادامه مطلب : http://homeai.ir/news9/

پيگيري آخرين اخبار هوش مصنوعي (@HomeAI)