أما الثالث، فيخطط له الاتحاد الأوروبي ويختلف عن النموذج الأميركي المتساهل الذي تحركه الأسواق وعن النموذج الصيني المقيد الذي تقوده الدولة؛ إذ يركز على تعزيز الابتكار مع حماية حقوق المستخدمين والمواطنين من الاحتمالات الضارة والهدامة لتطورات الذكاء الاصطناعي بضبط نشاط شركات التكنولوجيا وإخضاعه للقانون. ويشكل النهج الأوروبي ولوائحه وتنظيماته وقوانينه مصدر جذب متزايد للحكومات. ومنهم من يرى أن "نهج بروكسل" سيقود إلى عولمة المعايير الأوروبية المنظمة للذكاء الاصطناعي كما النشاط الرقمي. من أهم التنظيمات القانونية التي يعتمدها النهج الأوروبي راهنا: النظام الأوروبي العام لحماية البيانات وتحويلها للخارج، وقانون الخدمات والأسواق الرقمية (Législations sur les services et les marchés numériques)، وأخيرا التعديلات المتنوعة التي تم التوافق عليها في 14 يونيو/حزيران المنصرم في البرلمان الأوروبي. وهي تعديلات رمت إلى ترسيخ فكرة مركزية هي ضمان بقاء أنظمة الذكاء الاصطناعي تحت سيطرة الإنسان وأن تكون آمنة وشفافة ويمكن تتبعها وغير تمييزية وتتضمن تصنيفا دقيقا للمحظورات والتزامات الموردين والمستخدمين.
وقد حددت التعديلات المذكورة أربعة مستويات من الأخطار للموردين والمستخدمين: الحد الأدنى من الأخطار أو صفر، الأخطار المحدودة، الأخطار العالية التي وسعت لتشمل الضرر الذي يلحق بالصحة والسلامة والحقوق الأساسية والبيئة، والأخطار غير المقبولة على السلامة الشخصية وهي ممنوعة منعا باتا. وكان هناك اقتراح بإنشاء هيئة مسؤولة عن مكافحة انتشار أنظمة الذكاء الاصطناعي شديدة الخطورة.
المسؤولية المدنية لاستخدام الذكاء الاصطناعي
كان الأوروبيون قد اعتمدوا في عام 2020 نظاما قانونيا للمسؤولية المدنية الناجمة من استخدام الذكاء الاصطناعي لمعالجة الآثار القانونية المتأتية من التعقيد التقني لأنظمته، وتعدد الجهات المعنية بتشغيلها، وإمكان تسلل الغرباء إليها واختراقها، وكذلك صعوبة تتبع المساهمات في الضرر الحاصل بفعلها، وقدرتها على التعلم الذاتي باستقلالية، وأهمية جمع البيانات وتخزينها ومشاركتها واستخدامها بشكل سليم وآمن، وعدم إمكانية إضفاء الشخصية القانونية على أنظمة الذكاء الاصطناعي لتحميلها المسؤولية، وغير ذلك من أمور، تمثل كلها تحديات كبيرة تتطلب وضع أطر قانونية خاصة بالمسؤولية القانونية المتأتية عن استخدام أجهزة وأنظمة وتطبيقات الذكاء الاصطناعي.
والغاية الأساسية من ذلك، تمكين الأشخاص الذين تضرروا في أنفسهم أو في ممتلكاتهم من أدوات الذكاء الاصطناعي من الحصول على التعويض المناسب، على أن يتم الأمر ضمن توازن يحقق الحماية للمواطنين من جهة، ويشجع الشركات من ناحية أخرى على الاستثمار في الابتكار في مجال الذكاء الاصطناعي.
والحل الذي اعتمدته المجموعة الأوروبية، هو تحميل المسؤولية المدنية لجميع مشغلي أنظمة الذكاء الاصطناعي عالية الأخطار، في جميع مراحل إنتاج واستعمال والتحكم بأدوات وأنظمة الذكاء الاصطناعي، وهؤلاء هم:
المسؤولون عن سلامة المنتج، ويشمل المصنعين والــمـــــــطــــــــوريــــــن والـمـــــــبـــــــرمجيــــــــــن ومـــــقــــــدمي الــــــخـــــدمــــــات ومشغلي المنبع.
المسؤولون عن التشغيل الأمامي وهؤلاء هم عموما أول نقطة اتصال مرئية للطرف المتضرر.
أطراف خارجية تسللت إلى النظام وتصرفت من خلاله بأعمال ألحقت الضرر بالمعنيين به.
بالنسبة إلى أدوات الذكاء الاصطناعي عالية الأخطار، والتي تنفذ عمليات عدة باستقلالية ذاتية، يرتكز المبدأ على أن تكون المسؤولية صارمة عن الأضرار الناجمة عن نشاطاتها، ولا يمكن لمشغليها إعفاء أنفسهم من المسؤولية ادعاء منهم بأنهم تصرفوا بالعناية المطلوبة، إلا إذا كانت الأضرار ناجمة عن حالة القوة القاهرة. وعلى مشغلي الواجهة الأمامية لهذه الأدوات أن يضمنوا أن يكون تشغيلها مشمولا بتأمين إجباري مجزٍ ضد الأخطار.
المسؤولية الجزائية
تتضمن قرارات المجموعة الأوروبية عددا من التوصيات في إطار المسؤولية الجزائية أهمها ضرورة التالي:
اعتماد الشرطة والسلطات القضائية تطبيقات تستخدم بطريقة قانونية وعادلة وشفافة ولأغراض محددة وصريحة ومشروعة من دون إفراط ولا يحتفظ بها لفترة أطول من اللازم.
وجود رقابة ديموقراطية صارمة على أي تكنولوجيا قائمة على الذكاء الاصطناعي تستخدمها السلطات المولجة بإنفاذ القانون، والسلطات القضائية، وحظر استخدام التطبيقات التي لا تحترم مبادئ الضرورة والتناسب وحق الدفاع المشروع.
ترتيب المسؤولية الجزائية في نهاية المطاف على عاتق شخص طبيعي أو اعتباري ذي دور أساسي في حصول الضرر من استخدام الذكاء الاصطناعي.
ضمان الشفافية الاستباقية الكاملة بشأن الشركات الموردة لأنظمة الذكاء الاصطناعي لأغراض إنفاذ القانون والأغراض القضائية، ومنها اعتماد إجراءات المشتريات العامة المناسبة لأنظمة الذكاء الاصطناعي وإجراء تقييمات دورية على التطبيقات المتعلقة بالحقوق الأساسية للمواطنين بمشاركة المجتمع المدني.