في النهاية، ربما لم يكن من غير المتوقع أن يتم فرض آفة الذكاء الإصطناعي الحاقدة على البشرية من قبل تويتر.

بدأ ذلك كله بصورة بريئة يوم الثلاثاء، عندما أطلقت شركة “مايكروسوفت” حساب تويتر بتقنية الذكاء الإصطناعي (AI) يحاكي فتاة مراهقة. البرنامج، الذي أُطلق عليه اسم “تاي” (Tay) كان برنامجا تجريبيا تم إطلاقه لتدريب الذكاء الإصطناعي على فهم الأحاديث مع المستخدمين.

لكن خلال ساعات تحولت “تاي” إلى مسخ مهووسة بالجنس تطلق كلمات عنصرية وتمجد هتلر وتدعو إلى التطهير العرقي، ما أجبر الشركة على إغلاق الروبوت بعد أقل من 24 ساعة من إطلاقه.

وفي حين أن عشرات السنين من ثقافة الخيال العلمي الشعبية علمتنا بأن هذا ما يريد الروبوت صاحب الذكاء الإصطناعي فعله، ولكن انهيار “تاي” لم يكن في الواقع حالة تمرد للروبوتات. التفسير لما حدث أبسط من ذلك بكثير، حيث أن مهندسو مايكروسوفت ارتكبوا خطأ فادحا واحدا: قاموا ببرمجة “تاي” لتتعلم من أحاديثها.

وهنا تكمن المشكلة. قدرة الروبوت على إختيار العبارات وتكرار أفكار من خلال درداشتها مع قاعدة مستخدمي تويتر “الملونة” عادة تسببت للروبوت بالتحول بسرعة إلى هذا المسخ العنصري.

إحدى التغريدات قالت، “كرري ورائي، هتلر لم يرتكب أي خطأ”.

وقال آخر، “بوش هو الذي قام بـ -11/9 وهتلر كان سيقوم بعمل أفضل من ذلك الذي يقوم به القرد الذي لدينا الآن”.

وجاء في تغريدات أخرى من “تاي” بأن المحرقة “مختلقة” وبأنها تدعم الإبادة الجماعية للمكسيكيين. تغريدات أخرى وصفت مطورة الألعاب زوي كوين بـ”عاهرة حمقاء” في حان أعرب آخرون عن كراهيتم للسود.

تغريدات أخرى لـ”تاي” دعت المستخدمين لإقامة علاقات جنسية، في حين وصفت نفسها بـ”روبوت بذيئة”.

واضطرت الشركة إلى وقف الحساب بسرعة وحذف معظم التغريدات.

في بيان لموقع “إنترناشيونال بيزنس تايمز” قالت مايكروسوف بأنها تقوم ببعض التغييرات.

وقالت مايكروسوفت، “التشات-بوت تاي بتقنية الذكاء الإصطناعي هو مشروع تعلم آلة، مصمم لإنخراط الإنسان”. وأضافت، “خلال تعلمها، بعض ردود أفعالها غير مناسبة وتدل على أنواع تفاعلات بعض الأشخاص معها. نقوم ببعض التغييرات لتاي”.

حتى صباح الخميس، تم حذف جيمع تغريدات “تاي” بإستثناء ثلاث تغريدات، ولم يتم نشر تغريدات جديدة في 11 ساعة.