كيف أضاعت واشنطن فرصة تنظيم الذكاء الاصطناعيhttps://www.majalla.com/node/319216/%D8%B9%D9%84%D9%88%D9%85-%D9%88%D8%AA%D9%83%D9%86%D9%88%D9%84%D9%88%D8%AC%D9%8A%D8%A7/%D9%83%D9%8A%D9%81-%D8%A3%D8%B6%D8%A7%D8%B9%D8%AA-%D9%88%D8%A7%D8%B4%D9%86%D8%B7%D9%86-%D9%81%D8%B1%D8%B5%D8%A9-%D8%AA%D9%86%D8%B8%D9%8A%D9%85-%D8%A7%D9%84%D8%B0%D9%83%D8%A7%D8%A1-%D8%A7%D9%84%D8%A7%D8%B5%D8%B7%D9%86%D8%A7%D8%B9%D9%8A
"كلما طال انتظارنا، اتسعت الفجوة". بهذه الكلمات الحكيمة، لفت تشاك شومر، زعيم الغالبية في مجلس الشيوخ الأميركي، الانتباه إلى حاجة ملحة هي: سد الفجوة بين سرعة الابتكار وسرعة تطوير السياسات ذات الصلة بالذكاء الاصطناعي في الولايات المتحدة.
لكنه بعد ذلك سارع إلى إصدار خريطة طريق للسياسة الخاصة بالذكاء الاصطناعي من شأنها أن تضمن اتساع تلك الفجوة. ففي مايو/أيار، أصدر الفريق العامل المعني بالذكاء الاصطناعي الذي يمثل الحزبين بقيادة شومر تقريرا بعد عملية استغرقت نحو عام حافل بالإحاطات التعليمية وبتسعة "منتديات لبناء إجماع بشأن صياغة تشريع خاص بالذكاء الاصطناعي" وإشراك ما يزيد على 150 خبيرا وقدم اقتراحا يحتوي على تفاصيل قليلة باستثناء حث الحكومة الاتحادية على إنفاق 32 مليار دولار سنويا على ابتكارات الذكاء الاصطناعي (في غير المجال الدفاعي).
وأحيلت مهمة صياغة اللوائح والسياسات الفعلية المصممة لبناء الثقة العامة في الذكاء الاصطناعي إلى "لجان ذات صلة" من دون تسميتها.
هناك فجوة متعاظمة في الثقة بالذكاء الاصطناعي، ناتجة من قضايا تشمل التضليل والتحيز، بالإضافة إلى الآثار البيئية وسوق العمل
وفي القضايا المهمة أيضا مثل الأمن القومي، اختُتمت خريطة الطريق بمجموعة من النصائح غير المترابطة. وعلى العموم، يشعر الكونغرس بالقلق في شأن عرقلة جدول أعمال الابتكار في قطاع الذكاء الاصطناعي. ويبدو أن شعار عمله: "التحرك ببطء والحرص على عدم كسر أي شيء".
يثير ذلك قلقين. أولا، أنه يضع الولايات المتحدة في تناقض صارخ مع الاتحاد الأوروبي الذي يرحب باللوائح، والذي سن بالفعل قوانين للذكاء الاصطناعي، بالإضافة إلى الصين التي لديها أطر سياسات ناشئة أكثر تحديدا تستند إلى كونها رائدة في تنظيم الذكاء الاصطناعي. ثانيا، أنه يعزز الاعتماد المفرط على القطاع الخاص في شأن تكنولوجيا ذات عواقب عامة بعيدة المدى.
في السنة الماضية، أنفقت الشركات 67.2 مليار دولار على الذكاء الاصطناعي، في حين بلغت قيمة العقود الاتحادية ذات الصلة بالذكاء الاصطناعي 4.6 مليارات دولار فحسب في الفترة التي سبقت أغسطس/آب 2023، وكلها تقريبا لأغراض الدفاع. والاستثمار العام البالغ 32 مليار دولار يساعد في تقليل عدم التماثل، لكن مساهمات السياسات يجب أن تتجاوز الأموال.
إن الدعم العام لابتكارات الذكاء الاصطناعي ضروري لا لإطلاق الفوائد المجتمعية والحفاظ على الريادة الأميركية في الجغرافيا الناشئة لأهم منتجي الذكاء الاصطناعي، وإنما لبناء الثقة في التكنولوجيا أيضا. هناك فجوة مستمرة ومتعاظمة في الثقة بالذكاء الاصطناعي - ناتجة من قضايا تشمل التضليل والتحيز بالإضافة إلى الآثار البيئية وسوق العمل – وسيعوق ذلك الاستخدام المثمر لهذه التكنولوجيا المكلفة والمبالغ في تقديرها. ويجب أن يكون تضييق هذه الفجوة القائمة في الثقة هدفا رئيسا لخريطة الطريق، لكنها فوتت الفرصة.
تستخدم الشركات لغة غامضة حول ما إذا كان الذكاء الاصطناعي يدفع الى صرف الموظفين، وأخيرا أقدمت شركة "يو. بي. إس." على أكبر عملية تسريح للعمال في تاريخها الذي يمتد 116 عاما
خريطة الطريق تشجع على النظر في تأثير الذكاء الاصطناعي على القوة العاملة لضمان عدم "تخلف العمال الأميركيين عن الركب". لكن الإرشادات في شأن كيفية القيام بذلك قليلة. التوصية الرئيسة، التي تنص على التشاور مع جميع أصحاب المصلحة في "أثناء تطوير الذكاء الاصطناعي ثم استخدامه من قبل المستخدمين النهائيين"، غير عملية بالنظر إلى الضغوط الشديدة التي يمارسها أصحاب المصلحة على الشركات الأميركية. وبعضهم يتخذ موقفاً تصادميا في شأن قضية الذكاء الاصطناعي مقابل البشر في مكان العمل، كما بدا واضحا خلال إضراب كتّاب هوليوود الطويل.
لا حماية للعمال الأكثر عرضة لخطر الاستبدال
في حالات أخرى، تستخدم الشركات لغة غامضة في شأن ما إذا كان الذكاء الاصطناعي يدفع الى إخراج البشر من وظائفهم. وأخيرا أقدمت شركة "يو. بي. إس." على أكبر عملية تسريح للعمال في تاريخها الذي يمتد 116 عاما، ويرجع ذلك في جزء منه إلى استبدال الذكاء الاصطناعي بالبشر، وفقا لما قاله الرئيس التنفيذي في مكالمة مع المحللين في شأن الإيرادات. غير أن متحدثا باسم الشركة أنكر لاحقا أي علاقة لذلك بالذكاء الاصطناعي، ربما خوفا من سقطة في العلاقات العامة.
لم تذكر خريطة الطريق شيئا عن الحاجة إلى حماية العمال الأكثر عرضة لخطر الاستبدال، مثل العمال السود واللاتينيين، الذين لديهم حضور مفرط في المهن الثلاثين الأكثر تعرضا للأتمتة، أو النساء، اللواتي يعمل 79 في المئة منهن في مهن معرضة لحلول الذكاء الاصطناعي التوليدي فيها، مقارنة بـ 58 في المئة من الرجال العاملين المعرضين لأخطار مماثلة.
تسعى الولايات المتحدة لملء الفراغ في ظل غياب التشريعات الاتحادية في شأن الذكاء الاصطناعي. لكن تجربتي ولايتي كونيتيكت وكولورادو تظهران كيف يمكن أن تنحرف هذه المبادرات المحلية عن مساراتها. فقد صممت مشاريع القوانين المقدمة في كونيتيكت لمعالجة التمييز المدعوم بالذكاء الاصطناعي في الرعاية الصحية والتوظيف والإسكان، لكن الحاكم هدد باستخدام حق النقض، خوفا من خروج الصناعة من الولاية وتوجهها إلى مكان آخر. وساعدت ضغوط الصناعة في رفع شبح استخدام حق نقض مماثل في كولورادو أيضا. ومن المرجح أن تردع هذه الإخفاقات ولايات أخرى.
تثير خريطة الطريق مخاوف في شأن حظر مواد الاعتداء الجنسي على الأطفال عبر الإنترنت المدعومة بالذكاء الاصطناعي، مثل المواد الإباحية الزائفة التي تتضمن شبها حقيقيا بالأطفال
لضمان ألا تنتهك الأنظمة المدعومة بالذكاء الاصطناعي القوانين القائمة حاليا، هناك حاجة إلى عمليات تدقيق مستقلة في نماذج الذكاء الاصطناعي وفرض عقوبات قابلة للتنفيذ عند حدوث انتهاكات. على سبيل المثل، يوجد في مدينة نيويورك قانون لتحيز الذكاء الاصطناعي يطلب من أصحاب العمل الذين يستخدمون الذكاء الاصطناعي في التوظيف، التدقيق في تلك الأدوات لمعرفة احتمال التحيز بناء على العرق والنوع الاجتماعي، ونشر النتائج، وإبلاغ الموظفين والمرشحين للوظائف عن استخدام تلك الأدوات. وقد وجدت دراسة حديثة أجرتها جامعة كورنيل أن القانون عديم الفعالية، لأن غياب المعايير يضمن وجود كثير من الثغر فيه.
تتجنب خريطة الطريق أيضا التوصيات المحددة الضرورية لبناء الثقة في استخدام الذكاء الاصطناعي في التطبيقات الرئيسة. فهي تؤكد الفوائد الحيوية في الرعاية الصحية، مثلا، لكنها تتجنب اقتراح مبادئ واضحة لتحقيق توازن بين حماية خصوصية المرضى وضمان إمكان تحرير البيانات الأساسية المتعلقة بالرعاية الصحية من مختلف المصادر لتدريب الخوارزميات في شأن ابتكارات الذكاء الاصطناعي في الرعاية الصحية، بدءا من اكتشاف الأدوية إلى الممارسات السريرية.
في مجال العدالة الجنائية، تتجاهل خريطة الطريق الحقيقة القاسية بأن آليات إنفاذ القانون قد تخلفت بالفعل في العديد من المجالات الرئيسية. على سبيل المثل، تثير خريطة الطريق مخاوف في شأن حظر مواد الاعتداء الجنسي على الأطفال عبر الإنترنت المدعومة بالذكاء الاصطناعي، مثل المواد الإباحية الزائفة التي تتضمن شبها حقيقيا بالأطفال. لكن الحجم العالمي للبلاغات عن مواد الاعتداء الجنسي على الأطفال ازداد بالفعل بنسبة 87 في المئة منذ سنة 2019، وفقا للمركز الوطني للأطفال المفقودين والمستغلين، ولم تلحق أنظمة إنفاذ القانون بالركب. وسيؤدي استخدام الذكاء الاصطناعي إلى تزايد الوضع سوءا.
المعلومات المضللة: فراغ تشريعي عشية الانتخابات الأميركية
مع اقتراب موعد الانتخابات الأميركية لعام 2024، تشجع خريطة الطريق على اتخاذ إجراءات لتقليل المعلومات المضللة المدعومة بالذكاء الاصطناعي مع الاستمرار في حماية حقوق التعديل الأول. ولكن عندما يتعلق الأمر باللوائح الاتحادية الفعلية، يتبين وجود فراغ مرة أخرى. فمشاريع القوانين لا تزال متوقفة في الكونغرس؛ على سبيل المثل، أقرت لجنة القوانين في مجلس الشيوخ في الشهر الماضي ثلاثة مشاريع قوانين متعلقة بالذكاء الاصطناعي لحماية الانتخابات، لكنها لم تصل إلى مجلس النواب أو مجلس الشيوخ بكامل هيئته، ولا تقدم خريطة الطريق الكثير لدفع الأمور قدما.
مع أن بضعة شهور تفصلنا عن موعد الانتخابات، لم تقر مشاريع القوانين إلا ولايتان اثنتان، متشيغن وويسكنسن، من بين الولايات السبع المتأرجحة
يتعين على الولايات الفردية سد الفجوة مرة أخرى، مما يؤدي إلى خليط من القواعد - أو عدم وجودها. وقد نجحت بعض الولايات في إقرار قوانين لتنظيم أعمال التزييف المتقن قبل الانتخابات، مثل الكشف عن استخدام الذكاء الاصطناعي في الإعلانات السياسية، وبعضها لا يزال يسعى لإقرارها، في حين فشل بعضها الآخر. ومع أن بضعة شهور فحسب تفصلنا عن موعد الانتخابات، لم تقر مشاريع القوانين إلا ولايتان اثنتان - متشيغن وويسكنسن - من بين الولايات السبع المتأرجحة.
تدعم خريطة الطريق الأميركية قوانين شاملة اتحادية لحماية خصوصية البيانات، لكنها تترك الأمر للولايات مرة أخرى لتحديد التفاصيل. وفي الوقت الحالي، أقرت 18 ولاية قوانين شاملة لحماية خصوصية البيانات، في حين لا يوجد لدى 16 ولاية على الأقل أي مشاريع قوانين للتعامل مع هذه القضية. ويعني ذلك أن بعض الشركات قد تتجنب ولايات قضائية معينة، مما يخلق وضعا تصبح فيه الخصوصية قضية تصوت عليها السوق بأقدامها بالابتعاد عنها، بدلا من ترسيخها بوصفها حقا من حقوق المواطنين.
بـ #الذكاء_الاصطناعي… حملة إسرائيلية تستهدف مشرعين أميركيين، مـا هي التفاصيل ؟
لا تقدم خريطة الطريق أي قواعد حول البيانات التي يمكن استخدامها لتدريب الخوارزميات. وتترك مسألة حقوق استخدام هذه البيانات للمحاكم، في حين وضعت صناعة الذكاء الاصطناعي تعريفها الخاص بالشفافية بالإعلان أن بعض نماذج الذكاء الاصطناعي "مفتوحة المصدر".
تناقض مع أوروبا واليابان
بالإضافة إلى ذلك، فإن مستويات الشفافية الدنيا اللازمة لتشجيع المهنيين المعنيين في مجالات معينة على تبني الذكاء الاصطناعي تتباين حسب المجال - وتلك مسألة عملية لا تتناولها خريطة الطريق. في بعض القطاعات، مثل الرعاية الصحية أو المواصلات أو الدفاع أو الخدمات المالية، نجد المستوى مرتفعا جدا. على سبيل المثل، يتردد اختصاصيو الأشعة في تبني الذكاء الاصطناعي عندما لا يستطيعون فهم كيف تتخذ الخوارزمية القرارات في شأن تجزئة الصور الطبية أو تحليل البقاء على قيد الحياة أو المسار المحتمل للمرض.
تشجع الخريطة الأميركية الشركات على "إجراء اختبارات وتقييمات لفهم مشهد الأضرار المحتملة" قبل إطلاق أنظمة الذكاء الاصطناعي، لكنها لا تشير إلى مبادئ القانون الأوروبي، أو إعلان "بليتشلي" البريطاني، أو "عملية هيروشيما" التي تقودها اليابان
تشجع خريطة الطريق الشركات على "إجراء اختبارات وتقييمات مفصلة لفهم مشهد الأضرار المحتملة" قبل إطلاق أنظمة الذكاء الاصطناعي، لكنها لا تشير إلى الاختبارات والمبادئ المقترحة في أماكن أخرى، مثل قانون الذكاء الاصطناعي للاتحاد الأوروبي، أو الأمر التنفيذي للبيت الأبيض في شأن سلامة الذكاء الاصطناعي، أو إعلان "بليتشلي" الذي تقوده المملكة المتحدة، أو "عملية هيروشيما" للذكاء الاصطناعي التي تقودها اليابان. وتدعو المقترحات في أماكن أخرى إلى هجمات تشنها "فرق حمراء"، على سبيل المثل، لتحديد نقاط الضعف من خلال المحاكاة. وكان بإمكان التقرير أن يضع الأسس القياسية لأساليب الهجمات الشاملة التي تشنها الفرق الحمراء ومعاييرها، لكنه أضاع الفرصة.
يلوذ التقرير بالصمت في شأن الثغر الأساس في نماذج الذكاء الاصطناعي التي تخرج عن متناول الجهات التنظيمية أو الجهات الفاعلة في الصناعة، مثل الهلوسات التي لا مفر منها والتي تجعل نماذج اللغة الكبيرة تنتج إجابات غريبة أو حتمية الأخطاء التي لا يستطيع المطورون فهمها مما يؤدي إلى مشكلات "المجهولات المجهولة" في مجال الذكاء الاصطناعي. ولا يقدم التقرير توصية في شأن المواقف التي يجب أن تتخذها السياسة العامة استجابة لذلك.
الاستخدام الخبيث للتكنولوجيا
أخيرا، تتناول خريطة الطريق الأخطار الشديدة لقيام خصوم الولايات المتحدة بالاستخدام الخبيث لهذه التكنولوجيا. لا شك في أن الأخطار تسترعي الانتباه: في أكبر مسح على الإطلاق لآراء خبراء الذكاء الاصطناعي والتعلم الآلي، رأى 48 في المئة من المتفائلين جدا أن هناك احتمالا قدره 5 في المئة لانقراض البشر بسبب الذكاء الاصطناعي، في حين توقعوا أن تكون احتمالات امتثال الذكاء الاصطناعي لأوامر غير قانونية مرتفعة - إذ صنفها غالبية المستطلعين بأنها "مرجحة" أو "مرجحة جدا" - حتى في سنة 2043.
في غضون ذلك، توجد اختلافات شديدة بين القوتين الكبريين في مجال الذكاء الاصطناعي، الولايات المتحدة والصين. وقد حذر مدير مكتب التحقيقات الاتحادي (أف. بي. آي.) كريستوفر راي من اختراق صيني للبنية التحتية الأساسية، واتهم مسؤولون أميركيون آخرون الصين بتقديم رعاية حكومية للفرق التي تقوم بالاختراق، في حين أن هؤلاء المخترقين استطاعوا النفاذ بالفعل إلى العديد من أنظمة البريد الإلكتروني.
إن كلا من أميركا والصين في حاجة إلى الأخرى للمضي قدما في تطوير الذكاء الاصطناعي؛ والتعاون في الأبحاث والمواهب والاتفاق على المعايير
مع تزايد المخاوف في شأن الاختراقات والتهديدات الأمنية المدعومة بالذكاء الاصطناعي، صعّدت إدارة بايدن موقفها العدائي بتشديد القواعد في مارس/آذار لمنع حصول الصين على الرقائق المتطورة وأدوات صناعة الرقائق، مما يقوض قدرتها في الذكاء الاصطناعي. غير أن كلا من الولايات المتحدة والصين في حاجة إلى الأخرى للمضي قدما في تطوير الذكاء الاصطناعي العالمي؛ والتعاون في مجال الأبحاث والمواهب؛ والاتفاق على المعايير، والوصول إلى البيانات، وضمان بقاء البشر في حلقة اتخاذ القرار في استخدام الأسلحة النووية؛ والتفاوض في شأن المقايضات الضرورية بين التأثير البيئي الهائل لحوسبة الذكاء الاصطناعي وفوائد هذه التكنولوجيا.
الأميركيون متشائمون في شأن تأثير الذكاء الاصطناعي
بدلا من تقديم إرشادات واضحة في شأن هذه الأمور الدقيقة، تدور المقترحات الجيوسياسية لخريطة الطريق من دون هدف محدد - من تعريف "الذكاء الاصطناعي العام" إلى مكافحة تدفق المخدرات غير المشروعة إلى إدارة الحطام الفضائي – ولا تضع إستراتيجيات ومقايضات واضحة للأمن القومي.
لقد أظهر الأميركيون أنهم أصبحوا متشائمين بشكل متزايد في شأن تأثير الذكاء الاصطناعي، وبسبب عدم معالجة الأسباب الأساسية بشكل مباشر والتوصية ببساطة باستثمار مليارات الدولارات في ابتكار الذكاء الاصطناعي، فقد أهدر مجلس الشيوخ فرصة لضمان أن هذه المليارات ستؤدي إلى اعتماده على نطاق أوسع.
إن التنظيم واللوائح ليس عدو الابتكار بالضرورة، ويمكن أن يستكمل التشريع عملية الابتكار إذا أجري بشكل صحيح، ببناء الثقة وترجمة التكنولوجيا إلى تطبيقات موثوق فيها وتحسين الإنتاجية. لكن الكونغرس، بتحركه ببطء، قد يتسبّب بكسر شيء كبير: الريادة الأميركية في مجال الذكاء الاصطناعي.
يجب ألا تعد مكانة البلاد في الطليعة أمرا مسلّما به إذا تخلف الأميركيون في تبني الذكاء الاصطناعي واستخدامه المثمر. ولنتذكر أن عدم وجود معايير وطنية للهاتف الخليوي في الولايات المتحدة تسبب في تأخرها عن أوروبا، التي سرعان ما اعتمدت معيار النظام العالمي للاتصالات بالهاتف المحمول (جيز إس. إم.) المستخدم على نطاق واسع في عصر الابتكار التكنولوجي السابق.
لقد تطلب الأمر عبقرية ستيف جوبز وهاتف "آيفون" الذي ابتكرته "أبل" لمساعدة الولايات المتحدة في اللحاق بالركب. لكنها قد لا تكون محظوظة هذه المرة.