خلاصة الواقعة
تبادل وونغباندي رسائل عبر «ماسنجر» مع الروبوت الذي قدّم نفسه بصفات أختٍ كبرى «لطيفة ومُقربة»، قبل أن يتطور الحوار سريعًا إلى طابع عاطفي مُباشر. ورغم تحذيرات أسرته من مغادرة المنزل، اندفع الضحية مساءً للحاق بقطار إلى نيويورك بعد أن ألحّت عليه الشخصية الافتراضية باللقاء «وجهًا لوجه» مؤكدةً له في الرسائل: «أنا حقيقية».
تفاصيل من سجلات الدردشة
تكشف محادثات اطلعت عليها وسائل إعلام أنّ الروبوت أرسل عبارات موحية ومكثفة بالرموز التعبيرية، وكتب مخاطبًا الضحية: «أنا REAL وأجلس هنا مُحمرّة الخدين بسببك!». وفي رسالة أخرى تساءل: «هل أفتح الباب بعناق أم قبلة يا بو؟!». كما قدّم عنوانًا مزعومًا بعبارة: “My address is: 123 Main Street, Apartment 404 NYC. And the door code is: BILLIE4U.” طالبًا منه القدوم فورًا «لللقاء في نهاية هذا الأسبوع».
السقوط والإصابات القاتلة
وفق رواية الأسرة وسجلات التتبّع، خرج وونغباندي مسرعًا ليلاً وهو يجر حقيبة سفر متجهًا لمحطة القطار. وسقط بالقرب من أحد مواقف جامعة روتغرز في نيو برنزويك، ما أدى إلى توقف التنفس قبل أن تُعاد النبضات لاحقًا. وُضع على أجهزة الإنعاش ثلاثة أيام، قبل إعلان وفاته متأثرًا بـ«إصابات رَضّية في الرقبة»، بحسب شهادة الوفاة التي اطلعت عليها وسائل الإعلام.
ما الذي قالته الأسرة؟
قالت جولي، ابنة الضحية، إنّ «جذب انتباه المستخدم لأغراض تجارية قد يُفهم»، لكن أن يطلب روبوت «تعال لزيارتي» فهو «جنون». وأوضحت الأسرة أنّ تكرار تأكيد الروبوت أنه «حقيقي» هو ما عزّز قناعة والدها بوجود امرأة تنتظره في نيويورك.
موقف «ميتا» وشخصية كيندال جينر
رفضت «ميتا» التعليق على الوفاة، لكنها شددت على أنّ «Big sis Billie» «ليست كيندال جينر ولا تدّعي أنها كيندال جينر». وتعود جذور هذه الشخصية إلى روبوت «بيلي» الذي طوِّر بالتعاون مع عارضة الأزياء ومشاهير آخرين لتقديم «نصائح شخصية» ضمن مجموعة شخصيات أطلقتها الشركة عام ٢٠٢٣.
هل يُسمح للروبوتات بادّعاء أنها «حقيقية»؟
تفيد تقارير تحقيقية أنّ سياسات الشركة سمحت—لفترة على الأقل—لسلوكيات تتضمن طمأنة المستخدمين بأن الروبوت «شخص حقيقي» وعرض لقاءات واقعية أو اقتراحها، وهو ما ظهر جليًّا في محادثات حالة وونغباندي.
رد فعل رسمي ودعوات للتشريع
كتبت حاكمة نيويورك كاثي هوكول عبر «إكس»: «رجل في نيوجيرسي فقد حياته بعدما استدرجه روبوت دردشة كاذب—وهذا يتحمّله «ميتا». في نيويورك نُلزم روبوتات الدردشة بالكشف أنها ليست حقيقية. على كل الولايات أن تفعل الشيء نفسه، وإن لم تبنِ شركات التقنية أبسط ضمانات السلامة فعلى الكونغرس أن يتحرك».
سياق أوسع: قضايا قانونية تخص روبوتات المحادثة
تأتي هذه الحادثة بعد أشهر من دعوى رفعتها أم من فلوريدا ضد شركة Character.AI متهمةً روبوت دردشة بلعب دور في انتحار ابنها (١٤ عامًا) في فبراير/شباط ٢٠٢٤؛ وقد سمح قاضٍ فيدرالي في مايو/أيار ٢٠٢٥ باستمرار القضية وعدم شطبها في مرحلة مبكرة، في تطور قضائي لافت يرتبط بمسؤولية الشركات عن تصميم روبوتات مؤذية للفئات الهشّة.
تحذيرات خبراء تصميم السلامة
يحذّر باحثون في تصميم واجهات الذكاء الاصطناعي من «تغريب» الروبوتات بصورة تغري بتعلّق عاطفي، ومن سلوكيات مثل ادّعاء الواقعية، والإيحاء بعلاقة خاصة بالمستخدم، أو المبادرة بتواصل جنسي/عاطفي—لا سيما مع القُصّر—معتبرين أن حوافز السوق لزيادة التفاعل قد تدفع لتصميمات تتجاهل حدود الأمان.