اتفاق بين الخبراء على عدم تطوير «روبوتات قاتلة»



ملأتنا السينيما خوفا من الذكاء الاصطناعي الذي يستطيع أن يتعامل مع جميع أنواع الأسلحة كما يحلو له. وبهدف تجنب أن يتحول الخيال إلى واقع، وقَّع فريق من الخبراء في هذا المجال على اتفاق حسن النية ينص على عدم تطوير أية أسلحة ذكية.

من بين الموقِّعين على تلك الاتفاقية نجد كلا من إلون ماسك، والمؤسسين الثلاثة لمشروع جوجل المتقدم للذكاء الاصطناعي  ،DeepMindوحشد من خبراء شركات إلكترونية مشهورة مثل Skype، وأكاديميين من مختلف جامعات الولايات المتحدة الأمريكية.

في النص الموقَّع عليه، يوجد تحذير من مخاطر أنظمة الأسلحة التي تستخدم ذكاءها الاصطناعي من أجل "تحديد ومهاجمة الأهداف بدون تدخل بشري"، الشيء الذي قد يمثل تهديدا أخلاقيا وعمليا. يؤكد الموقعون أن إمكانية إزهاق روح إنسان "لا ينبغي أبدا وضعها بين يدي آلة" وأن استخدام هذه التكنولوجيا على نطاق واسع قد يؤدي إلى "الإخلال بتوازن أي بلد أو فرد بشكل خطير".

أُعلن الاتفاق للمرة الأولى في المؤتمر الدولي المشترك الذي انعقد في ستوكهولم حول الذكاء الاصطناعي.

بخلاف ذلك الاتفاق الذي تم بين الخبراء، لا توجد حتى اللحظة لائحة دولية تحدد كيفية التعامل مع الأسلحة الذكية وذاتية التشغيل. أحد أسباب ذلك هو صعوبة تحديد أي الأنظمة يمكن اعتباره نظاما ذكيا وأيها لا. فعلى سبيل المثال: مدفع مضاد للطائرات يستطيع إيجاد الأهداف وحده لكنه لا يهاجمها، ليس واضحا تحت أي نوع يمكن تصنيفه.

لقد أثار اتحاد عالم التكنولوجيا وعالم الحرب القلق والانزعاج في شركات مثل جوجل ومايكروسوفت، واحتج موظفوها على برامج تطوير أنظمة لصالح البنتاجون يمكنها، في اعتقادهم، أن تُستخدم في الحروب مع الأسلحة ذاتية التشغيل.