كشفت تقارير صحفية عن حادث إطلاق نار جماعي في مدينة تومبلر ريدج بكندا، حيث يُزعم أن شابًا في الثامنة عشر من عمره قام بقتل ثمانية أشخاص، وقد أثيرت مخاوف بشأن استخدامه لروبوت الدردشة ChatGPT التابع لشركة OpenAI قبل وقوع الحادث، إذ أجرى جيسي فان روتسيلار محادثات عبر المنصة تضمنت مشاهد عنف باستخدام الأسلحة النارية، مما أدى إلى وضع علامة تحذيرية على حسابه من قبل أنظمة المراقبة الداخلية في الشركة، وتم حظر الحساب في يونيو 2025 بعد اكتشاف تلك الأنشطة.

نقاش داخلي حول إبلاغ السلطات

دارت مناقشات داخل OpenAI حول ما إذا كان ينبغي إبلاغ جهات إنفاذ القانون الكندية عن طبيعة تلك المحادثات، ورغم ذلك قررت الشركة عدم الإبلاغ في ذلك الوقت، حيث أوضح متحدث باسم OpenAI أن نشاط فان روتسيلار لم يستوفِ المعايير المعتمدة لدى الشركة لإبلاغ السلطات، لكنه أشار إلى أن الشركة تواصلت مع الجهات الكندية المختصة بعد وقوع الحادث.

وأضاف المتحدث في بيان رسمي أن قلوبهم مع جميع المتضررين من مأساة تومبلر ريدج، وأنهم بادروا بالتواصل مع الشرطة الملكية الكندية وقدموا معلومات تتعلق بالفرد واستخدامه لـ ChatGPT، كما أكدوا استمرار دعمهم للتحقيق الجاري.

تواصل مع الشرطة الملكية الكندية

أكدت الشركة أنها زودت Royal Canadian Mounted Police بالمعلومات المتاحة لديها بشأن استخدام المتهمة للمنصة، وذلك في إطار دعم التحقيقات الرسمية، ويأتي هذا في وقت تتزايد فيه الضغوط على شركات الذكاء الاصطناعي لتوضيح سياساتها بشأن التعامل مع المحتوى العنيف أو المقلق الذي ينشره المستخدمون.

نشاط رقمي مقلق خارج ChatGPT

لم تكن محادثات ChatGPT الجانب الوحيد المثير للقلق في السجل الرقمي لفان روتسيلار، حيث أشارت التقارير إلى أنها أنشأت لعبة عبر منصة Roblox، تضمنت محاكاة لحادث إطلاق نار داخل مركز تجاري، كما نشرت المتهمة محتوى متعلقًا بالأسلحة عبر منصة Reddit، مما يعكس اهتمامًا متكررًا بهذا النوع من الموضوعات قبل وقوع الجريمة.

سجل سابق مع الشرطة المحلية

أوضحت التقارير أن الشرطة المحلية كانت على دراية سابقة بعدم استقرار المتهمة، حيث تم استدعاء الشرطة إلى منزل عائلتها في وقت سابق بعد أن أقدمت على إشعال حريق أثناء وجودها تحت تأثير مواد مخدرة غير محددة، مما أثار تساؤلات إضافية حول المؤشرات التحذيرية التي سبقت الحادث، ومدى إمكانية التدخل المبكر لمنع وقوع المأساة.

اتهامات موجهة إلى روبوتات الذكاء الاصطناعي

في سياق أوسع، تواجه روبوتات الدردشة المعتمدة على نماذج اللغة الكبيرة، سواء التابعة لـ OpenAI أو لمنافسيها، انتقادات متزايدة، حيث يتهمها البعض بأنها قد تساهم في تفاقم حالات نفسية لدى بعض المستخدمين الذين يفقدون القدرة على التمييز بين الواقع والمحتوى الرقمي.

وقد تم رفع عدة دعاوى قضائية تستند إلى نصوص محادثات يُزعم أنها شجعت أشخاصًا على إيذاء أنفسهم أو قدمت لهم إرشادات حول كيفية الانتحار، مما أعاد إشعال الجدل حول مسؤولية شركات الذكاء الاصطناعي وحدود تدخلها.

تنبيه بشأن الأزمات النفسية

إذا كنت تمر بأزمة نفسية أو تراودك أفكار انتحارية، يمكنك الاتصال أو إرسال رسالة نصية إلى الرقم 988 للوصول إلى خط دعم الأزمات والانتحار (988 Suicide and Crisis Lifeline) في الولايات المتحدة.