أخطاء الذكاء الاصطناعي مختلفة تمامًا عن أخطاء البشر

أخطاء الذكاء الاصطناعي مختلفة تمامًا عن أخطاء البشر

يُخطئ البشرُ كلَّ الوقت. كلُّنا نرتكب الأخطاء، يومًا بعد يوم، في المهام الجديدة والروتينية. بعضُ أخطائنا بسيط وبعضُها كارثيّ. قد تُفسدُ الأخطاءُ علاقاتنا مع الأصدقاء، وتُفقِدُنا ثقة زملائنا، وربما تكونُ الفارقَ بين الحياة والموت.

خلال آلاف السنين، ابتكرنا أنظمةً أمنيةً للتعامل مع أخطاء البشر. مثلاً، تُدَوِّرُ الكازينوهاتُ موظفيها بشكلٍ دوريّ، لأنهم يرتكبون أخطاءً إذا قاموا بنفس المهمة لفترةٍ طويلة. ويُكتبُ موظفو المستشفيات على الأطراف قبل الجراحة حتى يجري الأطباءُ العملية على الجزء الصحيح من الجسم، ويُحصون أدوات الجراحة للتأكد من عدم ترك أي منها داخل الجسم. من التدقيق اللغوي إلى المحاسبة المزدوجة، أصبحنا ماهرين حقًا في تصحيح أخطاء البشر.

الآن، تدخل تقنيات الذكاء الاصطناعي إلى المجتمع. نماذج اللغة الكبيرة (LLMs) قادرة على أداء العديد من المهام المعرفية، ولكنها تُرتكب الكثير من الأخطاء. يُضحك أحيانًا عندما تخبرك روبوتات الدردشة بأمور غريبة، مثل تناول الصخور أو إضافة الغراء للبيتزا! 🤔 لكنّ غرابة أخطاء الذكاء الاصطناعي هي ما تميزها عن أخطاء البشر. فهي لا تُرتكب بنفس الطريقة.

هذا الاختلاف يُحدِث الكثير من الاحتكاك والخطر. نحتاج إلى أنظمة أمان جديدة تُكيّف نفسها مع أخطاء الذكاء الاصطناعي و تمنع أي ضرر قد يحدث.

أخطاء البشر مقابل أخطاء الذكاء الاصطناعي

تجعلنا تجاربنا اليومية نُقدّر متى وأين يُخطئ البشر. تميل الأخطاء البشرية إلى الظهور في حوافّ معرفتنا: نُرتكب الأخطاء في الرياضيات عندما نكون غير متأكدين من شيء. نُلاحظ أن الأخطاء البشرية تتجمع: خطأ في الرياضيات قد يصاحبه أخطاء أخرى. نتوقع أن تتزايد أو تنقص الأخطاء، اعتمادًا على عوامل مثل التعب أو الإرهاق. وغالبًا ما تُصاحَب الأخطاء البشرية بالجهل.

على الرغم من أنّ أنظمة الذكاء الاصطناعي تُرتكب أخطاءً مشابهة، يمكننا استخدام أنظمتنا الحالية لتصحيحها. لكنّ نماذج الذكاء الاصطناعي، خاصةً نماذج اللغة الكبيرة، تُرتكب الأخطاء بشكلٍ مختلف.

تظهر أخطاء الذكاء الاصطناعي في أوقاتٍ عشوائية، دون تراكم حول مواضيع محددة. تتوزع أخطاء نماذج اللغة الكبيرة بشكلٍ أكثر انتظامًا عبر مجالات المعرفة. قد يكون النموذج بنفس القدر من الاحتمال أن يخطئ في سؤال رياضيّ أو في اقتراح أن الكرنب يأكل الماعز! 🐐

ولا تُصاحَب أخطاء الذكاء الاصطناعي بجهل. ستكون نماذج اللغة الكبيرة بنفس القدر من الثقة عند قول شيء خاطئ أو صحيح. هذا التناقض يُصعّب من الثقة في منطقها في المشكلات المعقدة. إذا كنت تستخدم نموذجًا للذكاء الاصطناعي، لا تكفي معرفة أنه يفهم السوق؛ بل عليك التأكد من أنه لن ينسى ماهية المال! 💰

كيفية التعامل مع أخطاء الذكاء الاصطناعي

هناك منطقتان محتملتان للبحث: الأولى هي هندسة نماذج تُنتج أخطاءً أكثر تشابهًا مع أخطاء البشر. الثانية هي بناء أنظمة تصحيح أخطاء جديدة تُعنى بأنواع محددة من الأخطاء التي تميل إليها نماذج اللغة الكبيرة.

لدينا بالفعل أدوات لجعل نماذج اللغة الكبيرة تُشابه البشر في سلوكها. تُعتبر أبحاث “التوافق” جزءًا مهمًا من هذه المحاولات، لجعل النماذج تعمل وفقًا لأهدافنا. مثال على ذلك: التعلم المعزّز بالتعقيب البشري، الذي كان مهمًا في نجاح تشات جي بي تي. في هذه الطريقة، يُكافأ النموذج على الإجابات الصحيحة. يمكن استخدام نهج مماثل لجعل الذكاء الاصطناعي يُرتكب أخطاءً مُشابهة لأخطاء البشر، خاصةً بتقليل كافأة الأخطاء الغريبة.

سيساعدنا بعضُ أنظمة منع الأخطاء البشرية في اكتشاف أخطاء الذكاء الاصطناعي. إجبار نماذج اللغة الكبيرة على مراجعة أعمالها ذاتيًا، قد يُحسّن من أدائها. لكنّ نماذج اللغة الكبيرة قد تكوّن تفسيراتٍ منطقيةً لكنّها خاطئة لأخطائها.

تختلف أنظمة تخفيف أخطاء الذكاء الاصطناعي عن تلك التي نستخدمها مع البشر. لن يتعب الذكاء الاصطناعي أو يُصاب بالإحباط، لكنّ تكرار سؤال النموذج لنفسه بطرق مختلفة قليلة، ثم دمج استجاباته المتعددة، قد يُحسّن أداءه.

فهم أوجه التشابه والاختلاف

لا يزال الباحثون يحاولون فهم أوجه الاختلاف بين أخطاء نماذج اللغة الكبيرة وبين أخطاء البشر. بعض غرابة الذكاء الاصطناعي يُشبه البشر أكثر مما نظنّ. تؤدي التغييرات البسيطة في سؤال النموذج إلى استجابات مختلفة تمامًا، وهي مشكلة تُعرف بحساسية المدخلات. يتصرف البشر بنفس الطريقة في الاستطلاعات! صياغة السؤال في استطلاع الرأي قد تؤثر بشكلٍ جوهري على الإجابات.

لدى نماذج اللغة الكبيرة أيضًا تحيّز نحو تكرار الكلمات الأكثر شيوعًا في بيانات تدريبها، مثل تكرار أسماء المدن المشهورة مثل “أمريكا” حتى عندما نسألها عن مواقع غريبة. ربما يكون هذا مثالاً على تحيّز التوافر البشري المُتجسّد في النماذج. كذلك، يُلاحظ انشغال النماذج في المنتصف. يبدو أن النماذج تذكر الحقائق من البداية والنهاية بشكلٍ أفضل. هناك تقدم في تحسين هذا النوع من الأخطاء. وجد الباحثون أن نماذج اللغة الكبيرة المُدرّبة على المزيد من الأمثلة لاسترجاع المعلومات من النصوص الطويلة، تكون قادرة على استرجاع المعلومات بشكلٍ أكثر موثوقية.

في بعض الحالات، يبدو سلوك نماذج اللغة الكبيرة مشابهًا لسلوك البشر أكثر مما نتوقعه. على سبيل المثال، بعض الدراسات بحثت في تأثير المكافآت المالية والتهديدات. بعض الطرق لتجاوز قيودها تشبه إلى حدّ كبير حيل الهندسة الاجتماعية البشرية: التظاهر بأنك شخص آخر أو القول إنّ الطلب نكتة. ولكن هناك تقنيات أخرى فعالة لتجاوز القيود لا يُستخدمها البشر، مثل استخدام فنون الرسومات النصية لطرح أسئلة مُحرجة، ككيفية صنع قنبلة.

يُرتكب البشر أحيانًا أخطاءً عشوائية وغير مفهومة، ولكن هذه الحالات نادرة. ويجب علينا تقييد استخدام النظم الآلية في التطبيقات التي تناسب قدراتها، مُراعيين الآثار المحتملة لأخطائها بعناية.