موقف ألتمان
يبدو أن ألتمان متعاطف مع المجموعتين، بدعوته علناً إلى إنشاء "حواجز حماية" لجعل الذكاء الاصطناعي آمناً، في حين دفع في الوقت نفسه "أوبن إيه آي" لتطوير نماذج أكثر قوة وإطلاق أدوات جديدة، مثل متجر تطبيقات للمستخدمين لبناء برمجيات دردشة آلية خاصة بهم. ويقال إن أكبر المستثمرين فيها، "مايكروسوفت"، التي ضخّت أكثر من 10 مليارات دولار في "أوبن إيه آي" في مقابل حصة 49 في المئة من دون الحصول على أي مقعد في مجلس إدارة الشركة الأم، استاءت بعدما علمت بأمر الإقالة قبل دقائق فقط من إبلاغ ألتمان. وربما يكون ذلك السبب وراء عرض "مايكروسوفت" العمل على ألتمان وزملائه.
مع ذلك، يبدو أن ما يحدث أكبر من الفلسفة المجرّدة. والواقع أن المجموعتين منقسمتان أيضاً تبعاً للخطوط التجارية. المتشائمون هم الداخلون الأوائل في سباق الذكاء الاصطناعي، ولديهم مزيد من الأموال ويؤيّدون نماذج الملكية الخاصة. من ناحية أخرى، يرجّح أن يكون المتفائلون شركات صغيرة تلحق بالركب وتفضّل البرمجيات المفتوحة المصدر.
لنبدأ بالفائزين الأوائل. أضاف تطبيق "تشات جي. بي. تي" التابع لشركة "أوبن إيه آي" 100مليون مستخدم في شهرين فقط بعد إطلاقه، وتلته مباشرة "أنثروبيك"، التي أسّسها منشقّون عن "أوبن إيه آي" وتبلغ قيمتها الآن 25 مليار دولار. وقد كتب باحثون في "غوغل" الورقة الأصلية في شأن النماذج اللغوية الكبيرة، وهي برمجيات تدرّب على كميات هائلة من البيانات، وتدعم برمجيات الدردشة الآلية، بما في ذلك "تشات جي. بي. تي" . وتنتج الشركة نماذج أكبر وأكثر ذكاءً، بالإضافة إلى برمجية دردشة آلية تسمّى "بارد".
في غضون ذلك، تعتمد ريادة "مايكروسوفت" إلى حدٍّ كبير على رهانها الكبير على "أوبن إيه. آي.". وتخطّط "أمازون" لاستثمار ما يصل إلى 4 مليارات دولار في "أنثروبيك".لكن في مجال التكنولوجيا، فإن التحرك أولاً لا يضمن النجاح دائماً. وفي سوق يشهد تقدّماً سريعاً للتكنولوجيا والطلب، يكون للداخلين الجدد فرص كبيرة لإحداث تغيير جذري في الشركات القائمة.
ربما يمنح ذلك قوة إضافية لاندفاع المتشائمين نحو فرض قواعد أشدّ صرامة. في شهادة أمام الكونغرس الأميركي في مايو/أيار الماضي، أعرب ألتمان عن مخاوفه من أن الصناعة "يمكن أن تلحق ضرراً كبيراً بالعالم"، وحثّ صنّاع السياسات على سنّ لوائح محدّدة للذكاء الاصطناعي. وفي الشهر نفسه، وقّعت مجموعة من 350 عالماً في مجال الذكاء الاصطناعي ومديراً تنفيذياً في شركات التكنولوجيا، بما في ذلك "أوبن إيه. آي." و"أنثروبيك" و"غوغل"، بياناً من سطر واحد يحذر من "خطر الانقراض" الذي يشكّله الذكاء الاصطناعي، على سوية واحدة مع الحرب النووية والجوائح. وعلى الرغم من التوقّعات المرعبة، لم توقف أي من الشركات التي أيّدت البيان عملها على بناء نماذج ذكاء اصطناعي ذات قدرة أكبر.
السياسة والشركات
ويسعى السياسيون جاهدين الى إظهار أنهم يأخذون الأخطار على محمل الجدّ. ففي يوليو/تموز، حثّت إدارة الرئيس جو بايدن سبعة من كبار صانعي النماذج، بما في ذلك "مايكروسوفت"، و"أوبن إيه آي"، و"ميتا"، و"غوغل"، على تقديم "التزامات طوعية"، لعرض منتجاتهم القائمة على الذكاء الاصطناعي على خبراء لفحصها قبل إطلاقها أمام الجمهور. وفي 1 نوفمبر/تشرين الثاني هذا، طلبت الحكومة البريطانية من مجموعة مماثلة توقيع اتفاق آخر غير ملزم يتيح للمنظّمين تفحّص منتجاتهم القائمة على الذكاء الاصطناعي للوقوف على موثوقيتها وقدراتها المضرّة، مثل تعريض الأمن القومي للخطر. قبل ذلك بأيام، أصدر بايدن أمراً تنفيذياً أشدّ قوة بكثير. فهو يُلزم أي شركة ذكاء اصطناعي تبني نماذج تفوق حجماً معيّناً - تحدّده القدرة الحوسبية التي تحتاج إليها البرمجية - بإخطار الحكومة وإطلاعها على نتائج اختبارات السلامة التي أجرتها.
هناك خط انقسام آخر بين المجموعتين وهو مستقبل الذكاء الاصطناعي المفتوح المصدر. لقد كانت نماذج اللغات الكبيرة ذات ملكية خاصة، مثل نماذج "أوبن إيه. آي."، و"أنثروبيك"، و"غوغل"، أو مفتوحة المصدر. وأدى إطلاق "لاما"، وهو نموذج أنشأته شركة "ميتا"، في شهر فبراير/شباط، إلى حفز النشاط في الذكاء الاصطناعي المفتوح المصدر. ويرى المؤيّدون أن النماذج المفتوحة المصدر أكثر سلامة لأنها مفتوحة للتدقيق. ويشعر المنتقدون بالقلق من أن جعل هذه النماذج القوية للذكاء الاصطناعي عامة يتيح للجهات الفاعلة السيّئة استخدامها لأغراض مضرّة.