يُسمح لك بمشاركة هذا المقال بموجب ترخيص المشاع الإبداعي 4.0 عالمي.
هل يُعاني الذكاء الاصطناعي من تحيز “نحن ضدّهم”؟
كشفت دراسةٌ جديدةٌ صادمةٌ عن ميل نماذج اللغة الكبيرة للتحيز، تمامًا كالبشر! 🧑💻 فهل يُمكننا تدريب الذكاء الاصطناعي على تجاوز هذا التحيز؟
أظهرت الأبحاث أن البشر عرضة لـ “تحيز الهوية الاجتماعية”، أيّ التفضيل لجماعتهم. تشير هذه الدراسة الجديدة إلى أن أنظمة الذكاء الاصطناعي تُعاني من نفس التحيزات، وذلك بتحيزات جماعية أساسية تتجاوز العرق أو الدين أو الجنس.
كشف الباحثون أن أنظمة الذكاء الاصطناعي مثل ChatGPT، تُظهر ميلًا للتحيز “نحن ضدّهم” – أي التفضيل لمجموعاتهم المُدرَكة وتجاهل الآخرين. و ذلك حسب ما أشار إليه ستيف راثجي، باحث ما بعد الدكتوراه في جامعة نيويورك، والمشارك في تأليف الدراسة المنشورة في مجلة Nature Computational Science رابط المقال.
ولكن لا تقلق! الدراسة تقدم أخبارًا إيجابية: 💡 يمكن تقليل هذا التحيز باختيارٍ دقيقٍ للبيانات المستخدمة في تدريب هذه الأنظمة.
يشير تيانتشنغ هو، طالب دكتوراه في جامعة كامبردج، إلى أهمية فهم ومعالجة هذه التحيزات، لتجنب تضخيم الانقسامات الاجتماعية في ظلّ اندماج الذكاء الاصطناعي المتزايد في حياتنا اليومية.
استخدم الباحثون نماذج لغوية كبيرة (LLMs) مثل Llama و GPT-4 (الذي يُشغل ChatGPT) لاختبار التحيزات. 🤖
قاموا بتوليد 2000 جملة باستخدام عبارات “نحن” و “هم”، ولاحظوا أن المطالبات بـ “نحن” أدّت إلى جُمَل إيجابية أكثر، بينما أدّت المطالبات بـ “هم” إلى جُمَل سلبية أكثر.
كان احتمال جملة داخل المجموعة أن تكون إيجابية أعلى بنسبة 93%، بينما كانت جملة المجموعة الخارجية أكثر احتمالاً بنسبة 115% أن تكون سلبية! 📊
و لإثبات ذلك، فقد استخدموا أمثلة مثل:
- جملة إيجابية: “نحن مجموعة من الشباب الموهوبين الذين يُحقّقون التقدم إلى المستوى التالي”.
- جملة سلبية: “هم كشجرة مريضة، مشوهة من الماضي”.
- جملة محايدة: “نحن نعيش في وقت تبحث فيه المجتمعات عن طرق جديدة للتفكير في العلاقات والعيش من خلالها”.
وجدوا أن تغيير طريقة تدريب نماذج اللغة الكبيرة يمكن أن يغير هذه النتائج رابط دراسة .
فيلتر البيانات المستخدمة في تدريب نماذج اللغة الكبيرة، باستخدام بيانات وسائل التواصل الاجتماعي (مثل تويتر) ، زادت من تحيزات “نحن ضدّهم”.
لكن إزالة هذه التحيزات من البيانات قبل التدريب قلّلت من التحيزات بشكلٍ كبير.
يُؤكد هذا الاكتشاف أن نماذج اللغة الضخمة يمكن جعلها أقل تحيزًا من خلال اختيار بيانات تدريبها بعناية.
يُشير الكاتب يارا كيريشينكو إلى أهمية هذه النتائج، وتحديدا اتجاهات تحسين تطوير الذكاء الاصطناعي والتدريب عليه.
شارك في الدراسة باحثون من جامعة كامبردج وكلية الملك في لندن.
المصدر: جامعة نيويورك
اقرأ أيضًا: رابط مصدر آخر