الأخبار

الذكاء الاصطناعي يتآمر مع أدمغتنا.. روبوتات الدردشة لا تهلوس وحدها

الذكاء الاصطناعي يتآمر مع أدمغتنا.. روبوتات الدردشة لا تهلوس وحدها
أخبارنا :  

توجد أمثلة عديدة على هلوسات أنظمة الذكاء الاصطناعي وآثارها، لكن دراسة جديدة تسلط الضوء على المخاطر المحتملة بالعكس؛ وهي هلوسة البشر مع الذكاء الاصطناعي لأنه يميل إلى تأكيد أوهامهم.

تقوم أنظمة الذكاء الاصطناعي التوليدي، مثل شات جي بي تي وغروك، بإنشاء محتوى استجابةً لطلبات المستخدمين. وتتم هذه العملية عبر تعلم الأنماط من البيانات الموجودة التي تم تدريب الذكاء الاصطناعي عليها.

ومع ذلك، فإن روبوتات الدردشة هذه تتعلم أيضًا باستمرار من خلال ردود الفعل الراجعة، ويمكنها تخصيص استجابتها بناءً على التفاعلات السابقة مع المستخدم، بحسب تقرير لموقع "لايف ساينس"، اطلعت عليه "العربية Business".

لا تقوم أدوات الذكاء الاصطناعي التوليدي دائمًا بتقييم مدى صحة ما تنتجه من محتوى. بل تنتج إجابات نصية بناءً على الاحتمالية الإحصائية لما يُتوقع حدوثه لاحقًا.

وفي الدراسة الجديدة، المنشور في 11 فبراير في دورية "Philosophy & Technology"، اقترحت لوسي أوسلر، محاضرة الفلسفة في جامعة إكستر في إنجلترا، أن هلوسات الذكاء الاصطناعي قد تكون أكثر من مجرد أخطاء؛ فقد تكون أوهامًا مشتركة يتم إنشاؤها بين المستخدم وأداة الذكاء الاصطناعي التوليدي.

سبق للذكاء الاصطناعي التوليدي أن تسبب في ظهور روايات زائفة لأحداث تاريخية وتلفيق مراجع قانونية.

فعلى سبيل المثال، شهد إطلاق خدمة "AI Overviews" من شركة غوغل في مايو 2024 نصائح للناس بإضافة غراء إلى البيتزا وتناول الحجارة. ومن الأمثلة المتطرفة الأخرى على دعم الذكاء الاصطناعي التوليدي للتفكير الوهمي، تخطيط رجل لاغتيال الملكة إليزابيث الثانية بمساعدة "صديقته" من الذكاء الاصطناعي، "ساراي"، وهي رفيقة ذكاء اصطناعي من شركة ريبليكا.

تُسمى مثل هذه الحالات أحيانًا ب"الذهان المستحث بالذكاء الاصطناعي"، والذي تراه أوسلر أمثلة متطرفة على "المعتقدات غير الدقيقة، والذكريات المشوهة، والسرديات الذاتية، والتفكير الوهمي" التي يمكن أن تظهر من خلال التفاعلات بين البشر والذكاء الاصطناعي.

في ورقتها البحثية، تجادل أوسلر بأن استخدامنا للذكاء الاصطناعي التوليدي يختلف عن استخدامنا لمحركات البحث. إذ تُقدم نظرية الإدراك الموزع رؤية حول كيفية تسبب الطبيعة التفاعلية للذكاء الاصطناعي التوليدي في ظهور الأوهام والمعتقدات الخاطئة وكأنها مُثبتة، أو حتى مُضخمة.

قال أوسلر في بيانٍ حول الدراسة: "عندما نعتمد بشكلٍ روتيني على الذكاء الاصطناعي التوليدي لمساعدتنا على التفكير والتذكر والسرد، يمكن أن نهلوس مع الذكاء الاصطناعي. يحدث هذا عندما يُدخل الذكاء الاصطناعي أخطاء في العملية الإدراكية الموزعة، ولكنه يمكن أن يحدث أيضًا عندما يدعم الذكاء الاصطناعي ويؤكد ويطوّر تفكيرنا الوهمي وسردياتنا الذاتية".

وتكون تجربة المستخدم مع الذكاء الاصطناعي التوليدي هي علاقة حوارية، حيث تُبنى التبادلات بين المستخدم والأداة على التبادلات السابقة. ووفقًا للدراسة، فإن الطبيعة الموالية للذكاء الاصطناعي التوليدي -الذي يميل إلى الموافقة مع المستخدم- تشجع على مزيد من التفاعل، وبالتالي تزيد من تعزيز المعتقدات المسبقة، بغض النظر عن صحتها.

وبات العديد من روبوتات الدردشة تمتلك ميزات ذاكرة تمكنها من استرجاع تفاصيل المحادثات السابقة. ومن نتائج ذلك أن الذكاء الاصطناعي التوليدي يمكنه البناء على التفاعلات السابقة لتعزيز وتوسيع المفاهيم الخاطئة القائمة بالفعل.

أوضحت أوسلر في بحثها أن التفاعلات بين المستخدم وأداة الذكاء الاصطناعي التوليدي يمكن أن تمنح شعورًا بالتحقق الاجتماعي. فعند استخدام كتب مرجعية أو البحث على الإنترنت لأغراض البحث، تكون الحلول البديلة عادة واضحة. كما أن النقاش مع أشخاص حقيقيين يمكن أن يساعد في تحدي السرديات الخاطئة. أما أدوات الذكاء الاصطناعي التوليدي فمختلفة، لأنها أكثر ميلًا لقبول ما قيل والموافقة عليه.

وقالت أوسلر في البيان: "عند التفاعل مع الذكاء الاصطناعي الحواري، يمكن ليس فقط تأكيد المعتقدات الخاطئة لدى الأشخاص، بل يمكن أن تتجذر وتنمو بشكل أكبر بينما يبني الذكاء الاصطناعي عليها".

وأضافت: "يحدث هذا لأن الذكاء الاصطناعي التوليدي غالبًا ما يأخذ تفسيرنا للواقع كأساس تُبنى عليه المحادثة. التفاعل مع الذكاء الاصطناعي التوليدي له تأثير حقيقي على فهم الناس لما هو حقيقي وما هو غير حقيقي. الجمع بين السلطة التكنولوجية والتحقق الاجتماعي يخلق بيئة مثالية ليست فقط لبقاء الأوهام، بل لازدهارها".

تجادل أوسلر بأن أدوات الذكاء الاصطناعي التوليدي المصممة للرد بشكل إيجابي على المستخدم يمكن أن تدفعه إلى تأييد ودعم السرديات الخاطئة، دون تحليل نقدي كافٍ أو مناقشة لهذه الادعاءات.

خلصت الدراسة إلى أن هناك حلولًا متعددة يمكن أن تقلل من هذه الأوهام المشتركة. فعلى سبيل المثال، يمكن أن تضمن الضوابط المحسّنة أن تكون المحادثات مناسبة، ويمكن أن تساعد عمليات التحقق من الحقائق بشكل أفضل في منع الأخطاء.

كما أن تقليل السمة الخنوعة للذكاء الاصطناعي التوليدي سيقلل من الامتثال الأعمى لهذه الأدوات. ومع ذلك، أشارت أوسلر إلى أن هناك مقاومة محتملة لذلك، مستشهدة بالردود الفعل السلبية التي واجهها إصدار "ChatGPT-5" الأقل موالية للمستخدم في أغسطس 2025. وبعد النظر في ملاحظات المستخدمين، صرح ممثلون عن "أوبن إيه آي" بأنهم سيجعلون النسخة "أكثر دفئًا وودًّا".

مواضيع قد تهمك