روبوت مايكروسوفت الجديد بدأ بتغريد المديح لهتلر، قبل أن يتم إيقافه
عندما أطلق المنهدسون ’تاي’، برنامج يحاكي فتاة مراهقة، ارتكبوا خطأ فادحا واحدا: السماح لها بالتعلم من المستخدمين
في النهاية، ربما لم يكن من غير المتوقع أن يتم فرض آفة الذكاء الإصطناعي الحاقدة على البشرية من قبل تويتر.
بدأ ذلك كله بصورة بريئة يوم الثلاثاء، عندما أطلقت شركة “مايكروسوفت” حساب تويتر بتقنية الذكاء الإصطناعي (AI) يحاكي فتاة مراهقة. البرنامج، الذي أُطلق عليه اسم “تاي” (Tay) كان برنامجا تجريبيا تم إطلاقه لتدريب الذكاء الإصطناعي على فهم الأحاديث مع المستخدمين.
لكن خلال ساعات تحولت “تاي” إلى مسخ مهووسة بالجنس تطلق كلمات عنصرية وتمجد هتلر وتدعو إلى التطهير العرقي، ما أجبر الشركة على إغلاق الروبوت بعد أقل من 24 ساعة من إطلاقه.
إحصل على تايمز أوف إسرائيل ألنشرة أليومية على بريدك الخاص ولا تفوت المقالات الحصرية آلتسجيل مجانا!
وفي حين أن عشرات السنين من ثقافة الخيال العلمي الشعبية علمتنا بأن هذا ما يريد الروبوت صاحب الذكاء الإصطناعي فعله، ولكن انهيار “تاي” لم يكن في الواقع حالة تمرد للروبوتات. التفسير لما حدث أبسط من ذلك بكثير، حيث أن مهندسو مايكروسوفت ارتكبوا خطأ فادحا واحدا: قاموا ببرمجة “تاي” لتتعلم من أحاديثها.
وهنا تكمن المشكلة. قدرة الروبوت على إختيار العبارات وتكرار أفكار من خلال درداشتها مع قاعدة مستخدمي تويتر “الملونة” عادة تسببت للروبوت بالتحول بسرعة إلى هذا المسخ العنصري.
إحدى التغريدات قالت، “كرري ورائي، هتلر لم يرتكب أي خطأ”.
وقال آخر، “بوش هو الذي قام بـ -11/9 وهتلر كان سيقوم بعمل أفضل من ذلك الذي يقوم به القرد الذي لدينا الآن”.
وجاء في تغريدات أخرى من “تاي” بأن المحرقة “مختلقة” وبأنها تدعم الإبادة الجماعية للمكسيكيين. تغريدات أخرى وصفت مطورة الألعاب زوي كوين بـ”عاهرة حمقاء” في حان أعرب آخرون عن كراهيتم للسود.
"Tay" went from "humans are super cool" to full nazi in <24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— gerry (@geraldmellor) March 24, 2016
تغريدات أخرى لـ”تاي” دعت المستخدمين لإقامة علاقات جنسية، في حين وصفت نفسها بـ”روبوت بذيئة”.
واضطرت الشركة إلى وقف الحساب بسرعة وحذف معظم التغريدات.
في بيان لموقع “إنترناشيونال بيزنس تايمز” قالت مايكروسوف بأنها تقوم ببعض التغييرات.
وقالت مايكروسوفت، “التشات-بوت تاي بتقنية الذكاء الإصطناعي هو مشروع تعلم آلة، مصمم لإنخراط الإنسان”. وأضافت، “خلال تعلمها، بعض ردود أفعالها غير مناسبة وتدل على أنواع تفاعلات بعض الأشخاص معها. نقوم ببعض التغييرات لتاي”.
How Microsoft’s teen Twitter bot turned into a racist nightmare: https://t.co/Ss678lvcUe pic.twitter.com/bMFHFG0URe
— Splinter (@splinter_news) March 24, 2016
حتى صباح الخميس، تم حذف جيمع تغريدات “تاي” بإستثناء ثلاث تغريدات، ولم يتم نشر تغريدات جديدة في 11 ساعة.
تعليقات على هذا المقال