اتهم أستاذ قانون في جامعة جورج واشنطن روبوت الدردشة «تشات جي بي تي» (ChatGPT) بنشر اتهام كاذب ضده يتعلق بالتحرش الجنسي. وقال إن الرواية التي خرجت من النظام لم تحدث أصلاً.
كيف بدأت القصة
الأستاذ جوناثان تورلي، وهو محامٍ في قضايا الدفاع الجنائي، قال إنه عرف بالأمر بعد رسالة إلكترونية من أستاذ في جامعة كاليفورنيا في لوس أنجلوس (UCLA). وكان ذلك الأستاذ قد طلب من الروبوت أن يذكر خمسة أمثلة على التحرش الجنسي من أساتذة في كليات الحقوق الأمريكية مع اقتباسات من مقالات صحفية.
من بين الأمثلة التي قدمها الروبوت، ذكر تورلي في واقعة مزعومة تعود إلى عام 2018، وقال إنه كان أستاذاً في كلية الحقوق بجامعة جورجتاون (Georgetown University Law Center). كما نسب إليه الروبوت اقتباساً من مقال في صحيفة واشنطن بوست (The Washington Post) لم يُنشر أصلاً.
نفي واضح من الأستاذ
تورلي قال إن هناك مؤشرات كثيرة تثبت أن القصة غير صحيحة. وأوضح أنه لم يدرّس يوماً في جامعة جورجتاون، ولم يكتب أي مقال صحفي عن الواقعة، ولم يذهب في أي رحلة مع طلابه إلى ألاسكا. وأضاف أنه لم يُتهم في حياته بالتحرش الجنسي أو الاعتداء الجنسي.
وقال أيضاً إن الروبوت لم يتواصل معه ولم يعتذر له، وإن المشكلة أن هذه الادعاءات يمكن أن تنتشر بسرعة كبيرة. واعتبر أن ما يحدث يختلف عن الخطأ الصحفي التقليدي، لأن الشخص المتضرر لا يجد من يراجعه أو يطلب منه التصحيح.
وأشار تورلي إلى أن أداة الذكاء الاصطناعي التابعة لمايكروسوفت، وهي «بينغ شات» (Bing Chatbot)، كررت القصة نفسها. وأضاف أن أنظمة الذكاء الاصطناعي قد تحمل تحيزات وأخطاء مثل الأشخاص الذين يبرمجونها.
كما قال إن هذه المشكلة خطيرة على الأكاديميين، لأن الروايات الكاذبة قد تُنسخ آلاف المرات قبل أن يكتشفها المتضرر. وذكر أن بعض الناس قد يستخدمون أي اتهام، حتى لو كان غير صحيح، لدعم حملات الضغط والإقصاء.
وتأتي هذه الواقعة في وقت يتوسع فيه استخدام الذكاء الاصطناعي في مجالات متعددة، من الصحة إلى التعليم وحتى المحاكم. وفي وقت سابق، أثار استخدام هذه التقنية في أسئلة قانونية جدلاً بعد أن طلب قاضٍ في الهند منها رأياً في قضية كفالة مالية للإفراج المؤقت (bail) لمتهم في قضية قتل واعتداء.

التعليقات (0)
أضف تعليقاً
لا توجد تعليقات بعد. كن أول من يعلق!