في 30 أكتوبر/تشرين الاول 2023، وقع الرئيس الأميركي جو بايدن أمرا تنفيذيا حمل رقم 14110 وعنوان "التطوير والاستخدام الآمن والموثوق به للذكاء الاصطناعي" بهدف ضمان قيادة الولايات المتحدة لتطويره واستخدامه بشكل آمن ومسؤول، مع وضع إطار حوكمة شامل يهدف إلى إدارة الأخطار واستغلال الفوائد التي يقدمها هذا الذكاء.
لعبت وزارة الأمن الداخلي دورا رئيسا في تنفيذ هذا الأمر. فواحدة من النقاط المهمة التي تم تسليط الضوء عليها في الأمر التنفيذي هي الحاجة إلى فهم أفضل وتخفيف أخطار استخدام الذكاء الاصطناعي في تطوير أو استخدام التهديدات الكيميائية والبيولوجية والإشعاعية والنووية، مع التركيز بشكل خاص على الأسلحة البيولوجية. وبهذا، تقود إدارة مكافحة أسلحة الدمار الشامل الجهود لتنسيق العمل مع الشركاء المحليين والدوليين لضمان حماية الولايات المتحدة من هذه التهديدات.
أعدت تلك الإدارة تقريرا شاملا لتقييم مدى إمكان استغلال الذكاء الاصطناعي في تطوير تهديدات الأسلحة النووية والبيولوجية والكيميائية، مع الأخذ في الاعتبار الفوائد التي يمكن أن يقدمها في مواجهة هذه التهديدات.
تعاونت وكالات الحكومة الأميركية، والأوساط الأكاديمية، والصناعة، في كتابة ذلك التقرير الذي كشف عن نتائج صادمة ومخيفة يمكن أن يلعبها الذكاء الاصطناعي في عملية تطوير أسلحة الدمار الشامل.
تشير نتائج التقرير إلى أن التطور السريع لتقنيات الذكاء الاصطناعي، وتداخلها مع الأبحاث الكيميائية والبيولوجية، يتطلب أن تكون إحدى أولويات الحكومة الأميركية هي بناء توافق بين وكالات الأمن القومي والصحة العامة حول الأخطار المحتملة المرتبطة باستخدام هذه التقنيات.
وهذا أمر ضروري نظرا الى أن معظم نماذج الذكاء الاصطناعي ومجموعات البيانات المرتبطة بها موجودة في أيدي المنظمات الخاصة أو الأكاديمية، مما يزيد سهولة الوصول إليها، حتى للمستخدمين ذوي النيات السيئة. ومع تقدم تقنيات الذكاء الاصطناعي، تصبح هذه الأخطار أكبر إذ يمكن أن تخلق أخطارا جديدة على الأمن الوطني من خلال تمكين الفاعلين الخبيثين من تصور وتنفيذ هجمات كيميائية أو بيولوجية أو إشعاعية أو نووية.
على الرغم من أن مطوري نماذج الذكاء الاصطناعي الحاليين قد طبقوا أنظمة لتقييم الأخطار داخليًا، فإن تنوع النهج والازدواجية في استخدام العلوم الأساسية يجعل من الضروري تشجيع التفاعل المستمر بين الصناعة والحكومة والأوساط الأكاديمية. وهذا التعاون يصبح أكثر أهمية في ضوء القصور في اللوائح الأميركية الحالية المتعلقة بالأمن البيولوجي والكيميائي، مما يزيد احتمالية النتائج الخطيرة غير المقصودة التي تهدد الصحة العامة والأمن القومي مع زيادة استخدام أدوات الذكاء الاصطناعي.