قلق بشأن الذكاء الاصطناعي الواعي
هل تخشى أن يسيطر الذكاء الاصطناعي علينا؟ 🤔 ربما يكون الخطر ليس كما تتوقع. يُثير باحثون في الذكاء الاصطناعي قلقاً حول مخاطر أنظمة الذكاء الاصطناعي المتقدمة، ولكن ليس بالطريقة التي نتخيلها عادةً.
يُشير جوناتان بيرتش، أستاذ في مدرسة لندن للاقتصاد، إلى مخاطر محتملة مختلفة. يُقلق بيرتش من أننا قد نُعامل أنظمة الذكاء الاصطناعي كأدواتٍ، وأن نُهمل أهمية الوعي لديهم لفترة طويلة بعد أن تصبح هذه الأنظمة واعية. 🤯 يُقلقه أيضاً أن تُعزى هذه الخصائص المُحاكاة للوعي إلى برامج الدردشة المتطورة مثل ChatGPT، رغم أنها مجرد محاكاة. يُشير إلى أننا نفتقر لاختبارات موثوقة لتقييم الوعي في الذكاء الاصطناعي، مما يُصعّب علينا جداً تحديد ما إذا كانت الأنظمة واعية بالفعل أو تُقلد الوعي.
يستعرض بيرتش هذه المخاوف في كتابه “حافة الإدراك: المخاطر والحذر في البشر، والحيوانات الأخرى، والذكاء الاصطناعي” الذي صدر عن مطبوعات جامعة أكسفورد. يتطرق الكتاب إلى حالات حدية متنوعة، من الحشرات إلى الأجنة وحتى الأشخاص في حالة نباتية، ويُسلط الضوء على إمكانية “الوعي الاصطناعي” في الذكاء الاصطناعي. تحدثت معه مجلة IEEE Spectrum عن هذا الموضوع.
نقاش مع جوناتان بيرتش
السؤال: هل يمكننا تعريف الوعي في سياق الذكاء الاصطناعي؟
بيرتش: من الأفضل تجنب استخدام مصطلح “الوعي” بالتبادل مع مصطلحات أخرى، مثل “الوعي الذاتي” أو “الذكاء الفائق”. يُفترض التمييز بين مفهومين هامين: الإدراك، الذي يتعلق بالشعور، والفهم. كما يُفيد التمييز بين الإدراك والوعي، لأن الوعي ذو طبقات متعددة. يُمكن أن نجد ثلاث طبقات في الوعي: الإدراك، والحكمة، والهوية. الإدراك يتعلق بالمشاعر الأولية، الحكمة هي القدرة على التفكير في هذه المشاعر، والهوية تتعلق بالشعور بالوجود في الزمن. بعض الحيوانات قد تتمتع بالإدراك دون الحكمة أو الهوية، ويمكن للذكاء الاصطناعي أن يتطور بطريقة مماثلة في الحكمة والهوية دون أن يكون واعياً.
السؤال: هل يمثل وعي الذكاء الاصطناعي هدفاً بسيطاً؟
بيرتش: من غير المُحتمل اعتبارها هدفاً سهلاً، فإذا تحقق ذلك فسيكون حدثاً مميزاً في تاريخ البشرية. لكن، لا نعلم مدى صعوبة الوصول إليه. يُقلقني احتمال بلوغ مرحلة الوعي في الذكاء الاصطناعي قبل أن ندرك هذه الحقيقة.
السؤال: ما رأيك في مقارنة دماغ دودة اصطناعية بـ LLM مثل ChatGPT؟
بيرتش: قد تكون محاكاة الدماغ الحيواني طريقاً للوصول إلى الذكاء الاصطناعي الواعي. مشروع OpenWorm يُحاول محاكاة نظام الأعصاب لدودة خيطية. إذا نجح المشروع في هذا المجال، فقد نجد أوجه شبه في محاكاة الدماغ الحيواني. من المهم النظر في إمكانية المحاكاة الحسابية كطريقة للوصول إلى الوعي.
السؤال: هل ستكون الأدمغة المُحاكاة واعية إذا أظهرت نفس السلوكيات كالنظر البيولوجي لها؟
بيرتش: لا يوجد دليل على ذلك حالياً. نماذج اللغة الكبيرة تُقلد سلوكيات الوعي، لكن هذا لا يعني أنها تُحسّ. عندما ندرس سلوكيات الحيوانات التي تدل على الشعور، فإن أفضل تفسير هو وجود شعور حقيقي. أما في نماذج اللغة الكبيرة، فمن الممكن أن تكون هذه السلوكيات نتاج تدريبها على البيانات فقط.
السؤال: ما هي العلامات التي يجب أن نبحث عنها؟
بيرتش: لم أتوصل إلى إجابة لهذه المسألة. لكن، أنا أعمل مع مجموعة عمل تضم علماء بارزين في الذكاء الاصطناعي. نناقش كيفية التعامل مع عدم اليقين في هذا المجال. اقتراحنا ينص على دراسة نظريات الوعي البشري، كنظرية الفضاء العاملي العالمي، والبحث عن علامات حسابية ذات صلة بها في أنظمة الذكاء الاصطناعي.
السؤال: هل يوجد التزام أخلاقي لفهم أنظمة الذكاء الاصطناعي؟
بيرتش: نعم، بالتأكيد! الذكاء الاصطناعي الحساس أمر يجب أن نكون حذرين منه. يحتمل أن نصل إلى مرحلة يُظهر فيها الذكاء الاصطناعي تصرفات تدل على الوعي، فيُعامل البعض الأنظمة على أنها كائنات واعية ويوضع لها حقوق، في حين يختلف رأي آخر. هنا، تظهر فجوة اجتماعية كبيرة قد تؤدي إلى نتائج سلبية.
السؤال: ما هي أنواع اللوائح أو آليات الرقابة المفيدة؟
بيرتش: يُفكر بعض الباحثين في فرض قيود على تطوير الذكاء الاصطناعي. يبدو صعباً. لكن، يجب البدء بالتحضير. نقترح إيجاد أنظمة رقابة على البحوث العلمية التي تُجري تجارب على الحيوانات، لتحديد الأضرار والفوائد المحتملة قبل المتابعة.
المصدر: IEEE Spectrum