في إطار الجهود الرامية إلى معالجة الفوضى التكنولوجية الراهنة، أطلق تحالف يضم مئات من الخبراء التقنيين والمسؤولين السابقين وثيقة شاملة تتضمن خطة واضحة لتطوير الذكاء الاصطناعي بشكل آمن، حيث تتضمن الوثيقة مجموعة من التوصيات التي تهدف إلى تنظيم هذا المجال المتسارع.

تشدد الوثيقة على ضرورة فرض قيود تشريعية صارمة، تشمل منع تطوير أنظمة الذكاء الخارق دون توافق علمي واضح، بالإضافة إلى إلزام الشركات الكبرى بتضمين مفاتيح إيقاف فعالة في جميع النماذج المتقدمة لضمان السيطرة البشرية عليها.

وفقًا لموقع “بيتس ديك” الإخباري، أظهرت استطلاعات الرأي أن معظم الجمهور يعبر عن رفضه القاطع للسباق غير المنظم نحو الذكاء الخارق، حيث تدعو الخارطة أيضًا إلى حظر تصميم الخوارزميات القادرة على الاستنساخ الذاتي أو التطوير التلقائي المستقل، كما تتطلب إجراء اختبارات سلامة إلزامية قبل طرح أي منتجات ذكية موجهة للأطفال لتفادي المخاطر النفسية.

تأتي هذه المبادرة الجماعية في ظل غياب تشريعات حكومية فعالة تتماشى مع سرعة تطور تقنيات الذكاء الاصطناعي، مما يعكس إدراكًا متزايدًا للمخاطر المحتملة التي قد تنجم عن فقدان السيطرة على الأنظمة المتطورة، حيث يدفع هذا الوضع المجتمع الدولي نحو تبني أطر تنظيمية صارمة لحماية مستقبل البشرية وتوجيه الابتكار نحو مسارات آمنة ومستدامة.

الذكاء الخارق و مفاتيح الإيقاف

يعتبر الذكاء الخارق مستوى متقدمًا جدًا من الذكاء الاصطناعي يتجاوز القدرات العقلية للبشر في جميع المجالات، مما يستدعي المطالبة بآليات تقنية مدمجة تسمح للمشغلين بتعطيل الأنظمة القوية فورًا في حال خروجها عن السيطرة أو إظهار سلوكيات خطيرة.