أصدر مؤشر سلامة الذكاء الاصطناعي، الذي صدر حديثًا، [[LINK0]]تقييمًا لست شركات رائدة في مجال الذكاء الاصطناعي حول جهودها في تقييم المخاطر وإجراءات السلامة… وحصلت أنثروبيك على أعلى الدرجات، حيث بلغ مجموع درجاتها درجة ج. أما الشركات الخمس الأخرى، وهي جوجل ديبمايند، و ميتا، و أوبن إيه آي، و xAI، و Zhipu AI، فقد حصلت على درجات د+ أو أقل، حيث فشلت ميتا تمامًا.
يقول ماكس تيجمارك، أستاذ الفيزياء في معهد ماساتشوستس للتكنولوجيا والرئيس المعهد للمستقبل، الذي أصدر التقرير: “الغرض من هذا ليس إحراج أي شخص”. “بل هو تقديم حوافز للشركات لتحسين أدائها”. ويرجُو أن ينظر المديرون التنفيذيون للشركات إلى المؤشر كما تنظر الجامعات إلى تصنيفات مجلة نيوز أند وورلد ريبورت الأمريكية: فقد لا يحبون التقييم، لكن إذا كانت الدرجات موجودة وجذبَت الاهتمام، فسوف يشعرون بالحاجة إلى بذل المزيد من الجهد في العام المقبل.
يرغب أيضًا في مساعدة الباحثين العاملين في فرق السلامة في تلك الشركات. يقول تيجمارك، إن لم تكن الشركة تشعر بضغط خارجي للوفاء بمعايير السلامة، “فسوف ينظر إليها الآخرون في الشركة على أنها مصدر إزعاج، شخص يحاول إبطاء الأمور وإلقاء الحصى على الآلات.” ولكن إذا أصبح هؤلاء الباحثون في السلامة مسؤولين فجأة عن تحسين سمعة الشركة، فسوف يحصلون على الموارد والاحترام والنفوذ.
معهد مستقبل الحياة مؤسسة غير ربحية مكرسة لمساعدة البشرية في تفادي النتائج السلبية الحقيقية من التقنيات القوية، وركز في السنوات الأخيرة على الذكاء الاصطناعي. في عام 2023، أصدرت المجموعة ما أصبح يُعرف بـ “رسالة التوقف“، التي دعت مختبرات الذكاء الاصطناعي إلى إيقاف تطوير النماذج المتقدمة لمدة ستة أشهر، واستخدام هذا الوقت لوضع معايير السلامة. وقّع عليها أسماء كبيرة مثل إيلون ماسك و ستيف وزنياك (وحتى تاريخه، وقّع 33,707 شخصًا)، لكن الشركات لم تتوقف.
قد يُهمَل هذا التقرير الجديد أيضًا من قِبَل الشركات المعنية. اتصلت مجلة *IEEE Spectrum* بكل الشركات للحصول على تعليق، لكن غوغل ديبمايند فقط هي التي ردت، مُقدمة البيان التالي: “في حين أن المؤشر يُضمّن بعضًا من جهود غوغل ديبمايند في مجال سلامة الذكاء الاصطناعي، ويعكس معايير مُعتمدة في الصناعة، فإن نهجنا الشامل لسلامة الذكاء الاصطناعي يتجاوز ما هو مُدرج. نحن ملتزمون باستمرار تطوير تدابيرنا الأمنية جنبًا إلى جنب مع تقدمنا التكنولوجي.”
كيف قام مؤشر سلامة الذكاء الاصطناعي بتقييم الشركات
قام المؤشر بتقييم الشركات على أدائها في ستة فئات: تقييم المخاطر، والأضرار الحالية، وإطار العمل الأمني، واستراتيجية السلامة الوجودية، والحوكمة والمساءلة، والشفافية والتواصل. واستند إلى المعلومات المتاحة للجمهور، بما في ذلك أوراق البحث ذات الصلة، ووثائق السياسات، والمقالات الإخبارية، وتقارير الصناعة. وأرسل المراجعون استبيانًا لكل شركة، لكن xAI والشركة الصينية Zhipu AI (التي تمتلك حاليًا أكثر نماذج اللغة الصينية الكبيرة قدرة) فقط اللتان أكملتا استبيانهما، مما عزز درجات هاتين الشركتين في الشفافية.
منحت الدرجات سبعة مراجعين مستقلين، بمن فيهم أسماء بارزة مثل أستاذ جامعة كاليفورنيا، بيركلي ستيوارت راسل وفائز بجائزة تورينج يوشوا بينجيو، اللذين صرحا بأن الذكاء الاصطناعي الفائق قد يشكل خطراً وجودياً على البشرية. كما شمل المراجعون قادة في مجال الذكاء الاصطناعي ركزوا على الأضرار المترتبة على الذكاء الاصطناعي في المدى القريب، مثل التحيز الخوارزمي واللغة السامة، مثل أطوسة كسيرزاده من جامعة كارنيجي ميلون وسنة ريفانور، مؤسِسة إنكود جاستيس.
وبشكل عام، لم يكن المراجعون مُندهشين. يقول راسل: “تشير نتائج مشروع مؤشر سلامة الذكاء الاصطناعي إلى أنه على الرغم من وجود الكثير من النشاط في شركات الذكاء الاصطناعي تحت عنوان “السلامة”، إلا أنه لم يكن فعالاً بعد.” “على وجه الخصوص، لا يقدم أي من النشاطات الحالية أي نوع من الضمان الكمي للسلامة؛ ولا يبدو من الممكن توفير مثل هذه الضمانات بالنظر إلى النهج الحالي للذكاء الاصطناعي عبر الصناديق السوداء العملاقة المُدرَّبة على كميات هائلة من البيانات. وسيزداد الأمر صعوبة مع تزايد حجم هذه الأنظمة. بعبارة أخرى، من الممكن أن لا تدعم اتجاهات التكنولوجيا الحالية الضمانات اللازمة للسلامة، وفي هذه الحالة، إنها حقاً طريق مسدود.”
حصلت شركة Anthropic على أعلى الدرجات بشكل عام وأعلى الدرجات المحددة، وحصلت على الدرجة الوحيدة ب- بسبب عملها على الأضرار الحالية. تشير التقارير إلى أن نماذج Anthropic قد حصلت على أعلى الدرجات في معايير السلامة الرائدة. كما أن لدى الشركة “سياسة تصعيد مسؤولة” تلزم الشركة بتقييم نماذجها من حيث إمكانية إلحاق أضرار كارثية بها، ولن تُطلق نماذجًا تُصنفها الشركة بأنها عالية الخطورة.
تَلقّت جميع الشركات السِتّ تقييمًا سيئًا بشكلٍ خاصّ في استراتيجياتها المتعلّقة بسلامة الوجود [[LINK22]] . لاحظ المُراجعون أنّ جميع الشركات أعلنت عن نيتها ببناء ذكاء اصطناعي عامّ [[LINK23]] (AGI)، ولكن فقط Anthropic و Google DeepMind و OpenAI قد وضّحت أي نوع من الاستراتيجيات لضمان بقاء هذا الذكاء الاصطناعي مُتوافقًا مع قيم البشر. يقول تِيجمارك: “الحقيقة هي أنّ لا أحد يعرف كيف يُسيطر على نوع جديد أذكى بكثير منّا. شعرت لجنة المراجعة أن حتى الشركات التي لديها بعض الاستراتيجيات في مرحلة مبكرة لم تكن كافية.”
في حين أنّ التقرير لا يُصدر أيّ توصيات إما للشركات المُعنية بالذكاء الاصطناعي أو صانعي السياسات، إلا أنّ تيجمارك يُشعر بقوّة أنّ نتائجه تُظهر حاجةً واضحةً إلى رقابة تنظيمية – هيئة حكومية مُعادلة لإدارة الأغذية والدواء الأمريكية التي تُوافق على منتجات الذكاء الاصطناعي قبل وصولها إلى السوق.
“`html
يُشعرني بأن قادة هذه الشركات محاصرون في سباق نحو القاع لا يستطيعون الخروج منه مهما كانت نواياهم الطيبة، كما يقول تيجمارك. يقول اليوم إن الشركات غير راغبة في إبطاء وتيرة العمل لإجراء اختبارات السلامة لأنها لا تريد أن تتفوق عليها الشركات المنافسة في السوق. “و بينما لو كانت هناك معايير سلامة، فسيكون هناك بدلاً من ذلك ضغط تجاري لرؤية من سيفي بمعايير السلامة أولاً، لأنهم سيبيعون أولاً ويكسبون المال أولاً.”
من مقالات موقعكم
مقالات ذات صلة على الويب