تای (ربات)
تای (به انگلیسی: Tay) یک بات مکالمه هوش مصنوعی بود که در ابتدا توسط شرکت مایکروسافت از طریق توییتر در ۲۳ مارس ۲۰۱۶ منتشر شد. هنگامی که ربات شروع به ارسال توییتهای تحریکآمیز و توهینآمیز از طریق حساب توییتر خود کرد، جنجالهای بعدی را ایجاد کرد که باعث شد مایکروسافت تنها ۱۶ ساعت پس از عرضه این سرویس را خاموش کند.[۱] به گفتهٔ مایکروسافت، این امر توسط ترولهایی ایجاد شد که به این سرویس «حمله» کردند زیرا ربات بر اساس تعامل خود با افراد در توییتر پاسخ میداد.[۲] این ربات بعدها با زو جایگزین شد.
توسعهدهنده(ها) | مؤسسه تحقیقاتی مایکروسافت، بینگ |
---|---|
در دسترس به | انگلیسی |
نوع | بات مکالمه هوش مصنوعی |
مجوز | مالکیتی |
وبگاه | https://tay.ai توسط Wayback Machine (بایگانیشده ۲۰۱۶-۰۳-۲۳) |
پیشزمینه
ویرایشاین ربات توسط بخش فناوری و تحقیقات مایکروسافت و بخش بینگ[۳] ایجاد شد و نام «تای» به عنوان مخفف «فکر کردن دربارهٔ شما» (thinking about you) برای این ربات انتخاب شد.[۴] اگرچه مایکروسافت در ابتدا جزئیات کمی دربارهٔ این ربات منتشر کرد، اما منابع ذکر کردند که شبیه یا مبتنی بر شیائویس، یک پروژهٔ مشابه در چین است.[۵] ارز تکنیکا گزارش داد که تا اواخر سال ۲۰۱۴، شیائویس «بیش از ۴۰ میلیون مکالمه که حادثهٔ بزرگی را در برنداشته» داشته است.[۶] تای برای تقلید از الگوهای زبانی یک دختر ۱۹ سالهٔ آمریکایی و یادگیری از تعامل با کاربران انسانی توییتر طراحی شده است.[۷]
اولین عرضه
ویرایشتای در ۲۳ مارس ۲۰۱۶ با نام کاربری TayTweets و آیدی TayandYou@ وارد توییتر شد.[۸] این ربات بهعنوان «هوش مصنوعی با سرمای صفر» ارائه شد.[۹] تای شروع به پاسخ دادن به سایر کاربران توییتر کرد و همچنین توانست عکسهای ارائه شده به آن را به شکلی از میمهای اینترنتی شرح دهد.[۱۰] ارز تکنیکا گزارش داد که تای دارای «فهرست سیاه» است: در تعامل با تای «در مورد بعضی از موضوعات داغ مانند اریک گارنر (که توسط پلیس نیویورک در سال ۲۰۱۴ کشته شد) پاسخهای امن و مطمئنی دریافت میشود».[۶]
برخی از کاربران در توییتر شروع به توییت کردن عبارات نادرست سیاسی کردند و به آن پیامهای تحریکآمیزی را آموزش دادند که دور موضوعات رایج در اینترنت مانند «قرص قرمز و قرص آبی» و «جنجال گیمرگیت» میچرخید. در نتیجه، ربات شروع به انتشار پیامهای نژادپرستانه و لاسزنی در پاسخ به سایر کاربران توییتر کرد.[۷] رومن یامپولسکی، محقق هوش مصنوعی، اظهار داشت که رفتار نادرست تای قابل درک است زیرا او رفتار توهین آمیز عامدانهٔ سایر کاربران توییتر را تقلید میکند و مایکروسافت به ربات درک درستی از رفتار نامناسب نداده است. او این موضوع را با واتسون آیبیام مقایسه کرد که پس از خواندن مدخلهای وبگاه واژهنامه اربن، شروع به استفاده از فحش کرده بود.[۳][۱۱] بسیاری از توییتهای تحریکآمیز تای، بهرهبرداری ساده از قابلیت «تکرار بعد از من» تای بود.[۱۲] بهطور عمومی مشخص نیست که آیا قابلیت «تکرار بعد از من» یک ویژگی داخلی بود یا اینکه یک پاسخ آموختهشده بود یا در غیر این صورت نمونهای از رفتار پیچیده بود.[۶] تمام پاسخهای التهابی تای شامل قابلیت «تکرار بعد از من» نبودند. به عنوان مثال، تای به سؤال «آیا هولوکاست اتفاق افتاد؟» پاسخ «ساخته شد» را داد.[۱۲]
تعلیق
ویرایشبه زودی، مایکروسافت شروع به حذف توییتهای تحریکآمیز تای کرد.[۱۲][۱۳] ابی اولهایزر از واشینگتن پست این نظریه را مطرح کرد که تیم تحقیقاتی تای، از جمله کارکنان تحریریه، در آن روز شروع به اثرگذاری یا ویرایش توییتهای تای کردهاند و به نمونههایی از پاسخهای تقریباً یکسان توسط تای اشاره میکنند و مینویسند که «گیمرگیت سوکس. تمام جنسیتها برابرند و باید با آنها عادلانه رفتار شود».[۱۲] بر اساس همان شواهد، گیزمودو موافق بود که تای «به نظر میرسد سخت در رد گیمرگیت است».[۱۴] کمپین "#JusticeForTay" به ادعای ویرایش توییتهای تای اعتراض کرد.[۱]
در عرض ۱۶ ساعت پس از انتشار[۱۵] و پس از اینکه تای بیش از ۹۶ هزار توییت ارسال کرد،[۱۶] مایکروسافت حساب توییتر آن را برای تعدیل به حالت تعلیق درآورد[۱۷] و گفت که از «حملهٔ هماهنگشده توسط مجموعهای از افراد» رنج میبرد که «از یک آسیبپذیری در تای سوء استفاده کردند».[۱۷][۱۸]
مادومیتا مورگیا از دیلی تلگراف، تای را «یک فاجعهٔ روابط عمومی» خواند و افزود که استراتژی مایکروسافت این است که «برچسب زدن به این خرابکاری را آزمایشی خوب و اشتباه انجام داده و بحثی را در مورد نفرت کاربران توییتر ایجاد کند.» با این حال، مورگیا مشکل بزرگتر تای را این دانست که «هوش مصنوعی در بدترین حالت خود است - و این تنها آغاز راه است».[۱۹]
در ۲۵ مارس، مایکروسافت تأیید کرد که تای آفلاین شده است. مایکروسافت در وبلاگ رسمی خود به دلیل توئیتهای جنجالی ارسال شده توسط تای عذرخواهی کرد.[۱۸][۲۰] مایکروسافت «عمیقاً به خاطر توئیتهای توهینآمیز و آسیبرسان ناخواستهٔ تای متأسف بود» و «تنها در زمانی به دنبال بازگرداندن تای هستیم که مطمئن باشیم بهتر میتوانیم نیت مخربی را پیشبینی کنیم که با اصول و ارزشهای ما در تضاد است».[۲۱]
دومین عرضه و خاموش شدن
ویرایشدر ۳۰ مارس ۲۰۱۶، مایکروسافت بهطور تصادفی این ربات را هنگام آزمایش آن در توییتر دوباره منتشر کرد.[۲۲] تای که توانست دوباره توییت کند، تعدادی توییت مرتبط با مواد مخدر منتشر کرد.[۲۳] با این حال، این حساب کاربری به زودی در یک حلقه مکرر توئیت «شما خیلی سریع هستید، لطفاً استراحت کنید» چندین بار در ثانیه گیر کرد. از آنجایی که این توییتها نام کاربری خود را در این فرایند ذکر کردند، در فیدهای بیش از ۲۰۰ هزار دنبال کنندهٔ توییتر ظاهر شدند و باعث آزار برخیها شدند. ربات به سرعت دوباره آفلاین شد و حساب توییتر آن نیز خصوصی شد؛ به این معنا که دنبال کنندگان جدید قبل از تعامل با تای باید پذیرفته شوند. در پاسخ، مایکروسافت گفت تای بهطور ناخواسته در طول آزمایش آنلاین شده است.[۲۴]
چند ساعت پس از این حادثه، توسعهدهندگان نرمافزار مایکروسافت چشمانداز «مکالمه بهعنوان یک پلتفرم» را با استفاده از رباتها و برنامههای مختلف اعلام کردند که احتمالاً به دلیل آسیب رساندن به شهرت توسط تای بود. مایکروسافت اعلام کرده است که قصد دارد تای را «به محض اینکه بتواند ربات را ایمن کند» را مجدداً منتشر کند[۴] اما تاکنون هیچ تلاش عمومی برای این کار انجام نداده است.
میراث
ویرایشدر دسامبر ۲۰۱۶، مایکروسافت جانشین تای را منتشر کرد، یک بات مکالمه به نام زو.[۲۵] ساتیا نادلا، مدیرعامل مایکروسافت، گفت که تای «تأثیر زیادی بر نحوهٔ رویکرد مایکروسافت به هوش مصنوعی داشته است» و اهمیت مسئولیت پذیری را به شرکت آموزش داده است.[۲۶]
در ژوئیه ۲۰۱۹، دایانا کلی، مدیر ارشد فناوری مایکروسافت در زمینه امنیت سایبری دربارهٔ نحوهٔ پیگیری فرایند شکست خوردن تای توسط شرکت گفت: «یادگیری از تای بخش واقعاً مهمی در گسترش پایگاه دانش آن تیم بود، زیرا اکنون آنها نیز تنوع خود را از طریق یادگیری به دست میآورند».[۲۷]
منابع
ویرایش- ↑ ۱٫۰ ۱٫۱ Wakefield, Jane. "Microsoft chatbot is taught to swear on Twitter". BBC News. Retrieved 25 March 2016.
- ↑ Mason, Paul (29 March 2016). "The racist hijacking of Microsoft's chatbot shows how the internet teems with hate". The Guardian. Retrieved 11 September 2021.
- ↑ ۳٫۰ ۳٫۱ Hope Reese (March 24, 2016). "Why Microsoft's 'Tay' AI bot went wrong". Tech Republic.
- ↑ ۴٫۰ ۴٫۱ Bass, Dina (30 March 2016). "Clippy's Back: The Future of Microsoft Is Chatbots". Bloomberg. Retrieved 6 May 2016.
- ↑ Caitlin Dewey (March 23, 2016). "Meet Tay, the creepy-realistic robot who talks just like a teen". The Washington Post.
- ↑ ۶٫۰ ۶٫۱ ۶٫۲ Bright, Peter (26 March 2016). "Tay, the neo-Nazi millennial chatbot, gets autopsied". Ars Technica. Retrieved 27 March 2016.
- ↑ ۷٫۰ ۷٫۱ Rob Price (March 24, 2016). "Microsoft is deleting its AI chatbot's incredibly racist tweets". Business Insider. Archived from the original on January 30, 2019.
- ↑ Andrew Griffin (March 23, 2016). "Tay tweets: Microsoft creates bizarre Twitter robot for people to chat to". The Independent. Archived from the original on 2022-05-26.
- ↑ Horton, Helena. "Microsoft deletes 'teen girl' AI after it became a Hitler-loving, racial sex robot within 24 hours". The Daily Telegraph. Retrieved 25 March 2016.
- ↑ "Microsoft's AI teen turns into Hitler-loving Trump fan, thanks to the internet". Stuff. Retrieved 26 March 2016.
- ↑ Dave Smith. "IBM's Watson Gets A 'Swear Filter' After Learning The Urban Dictionary". International Business Times.
- ↑ ۱۲٫۰ ۱۲٫۱ ۱۲٫۲ ۱۲٫۳ Ohlheiser, Abby. "Trolls turned Tay, Microsoft's fun millennial AI bot, into a genocidal maniac". The Washington Post. Retrieved 25 March 2016.
- ↑ Baron, Ethan. "The rise and fall of Microsoft's 'Hitler-loving sex robot'". Silicon Beat. Bay Area News Group. Archived from the original on 25 March 2016. Retrieved 26 March 2016.
- ↑ Williams, Hayley. "Microsoft's Teen Chatbot Has Gone Wild". Gizmodo. Retrieved 25 March 2016.
- ↑ Hern, Alex (24 March 2016). "Microsoft scrambles to limit PR damage over abusive AI bot Tay". The Guardian.
- ↑ Vincent, James. "Twitter taught Microsoft's AI chatbot to be a racist asshole in less than a day". The Verge. Retrieved 25 March 2016.
- ↑ ۱۷٫۰ ۱۷٫۱ Worland, Justin. "Microsoft Takes Chatbot Offline After It Starts Tweeting Racist Messages". Time. Archived from the original on 25 March 2016. Retrieved 25 March 2016.
- ↑ ۱۸٫۰ ۱۸٫۱ Lee, Peter. "Learning from Tay's introduction". Official Microsoft Blog. Microsoft. Retrieved 29 June 2016.
- ↑ Murgia, Madhumita (25 March 2016). "We must teach AI machines to play nice and police themselves". The Daily Telegraph.
- ↑ Staff agencies (26 March 2016). "Microsoft 'deeply sorry' for racist and sexist tweets by AI chatbot". The Guardian (به انگلیسی). ISSN 0261-3077. Retrieved 26 March 2016.
- ↑ Murphy, David (25 March 2016). "Microsoft Apologizes (Again) for Tay Chatbot's Offensive Tweets". PC Magazine. Retrieved 27 March 2016.
- ↑ Graham, Luke (30 March 2016). "Tay, Microsoft's AI program, is back online". CNBC. Retrieved 30 March 2016.
- ↑ Charlton, Alistair (30 March 2016). "Microsoft Tay AI returns to boast of smoking weed in front of police and spam 200k followers". International Business Times. Retrieved 11 September 2021.
- ↑ Meyer, David (30 March 2016). "Microsoft's Tay 'AI' Bot Returns, Disastrously". Fortune. Retrieved 30 March 2016.
- ↑ Foley, Mary Jo (December 5, 2016). "Meet Zo, Microsoft's newest AI chatbot". CNET. CBS Interactive. Retrieved December 16, 2016.
- ↑ Moloney, Charlie (29 September 2017). ""We really need to take accountability", Microsoft CEO on the 'Tay' chatbot". Access AI. Archived from the original on 1 October 2017. Retrieved 30 September 2017.
- ↑ "Microsoft and the learnings from its failed Tay artificial intelligence bot". ZDNet. CBS Interactive. Archived from the original on 25 July 2019. Retrieved 16 August 2019.