أعلن المعهد الوطني للمعايير والتكنولوجيا في الولايات المتحدة عن إطلاق مبادرة “معايير وكلاء الذكاء الاصطناعي” التي تمثل خطوة تنظيمية مهمة تهدف إلى معالجة التحديات الأمنية المرتبطة بالوكلاء المستقلين الذين يعملون دون تدخل بشري مباشر مما يعكس الحاجة المتزايدة لوضع أطر عمل واضحة تضمن أمان وموثوقية هذه الأنظمة في ظل الاعتماد المتزايد من الشركات على الوكلاء الذكيين في إدارة البيانات الحساسة والعمليات التشغيلية المعقدة على مستوى عالمي.
أهداف المبادرة
تتركز المبادرة على تحديد المعايير الفنية والبروتوكولات الأمنية التي يجب أن يلتزم بها المطورون لضمان عدم خروج الوكلاء المستقلين عن السيطرة أو تعرضهم للاختراق حيث تأتي هذه الخطوة استجابة لتحذيرات خبراء الأمن السيبراني من ظهور ثغرات أمنية جديدة تتعلق بكيفية تفاعل أنظمة الذكاء الاصطناعي مع الأدوات والبرمجيات الأخرى مما قد يشكل خطرًا على البنى التحتية الرقمية للمؤسسات والحكومات.
وضع معايير للأمان والخصوصية
تسعى المبادرة إلى إنشاء لغة تقنية موحدة للمطورين تضمن بناء وكلاء أذكياء يتمتعون بقدرات دفاعية ذاتية وقدرة على الالتزام بالقواعد الأخلاقية والمهنية المحددة.
مواجهة مخاطر الوكلاء المستقلين
تهدف القواعد الجديدة إلى منع التفاعلات غير المقصودة أو الضارة بين أنظمة الذكاء الاصطناعي المختلفة مما يقلل من احتمالية وقوع حوادث تقنية كبرى ناتجة عن استقلالية القرار وتعد هذه المبادرة نقطة تحول في كيفية تعامل المجتمع الدولي مع الذكاء الاصطناعي حيث تنتقل من مرحلة التنظير الأخلاقي إلى مرحلة التنظيم الفني الدقيق ومع استمرار تطور وكلاء الذكاء الاصطناعي ليصبحوا جزءًا أساسيًّا من الاقتصاد الرقمي تبرز أهمية وجود معايير عالمية موحدة تضمن أن يظل هذا التطور مفيدًا وآمنًا تمامًا مما يعزز الثقة العامة في التقنيات المستقلة ويحمي سلاسل التوريد البرمجية من التهديدات المتطورة.

