الذكاء الاصطناعي يخطئ في تحديد مصدر الصور ويثير البلبلة
10/08/2025
يلجأ مستخدمو الإنترنت أكثر فأكثر إلى برامج الدردشة الآلية عندما يريدون التحقق من معلومة ما، لكن استعانتهم بالذكاء الاصطناعي محفوفة بالأخطاء التي قد يرتكبها، وفق ما ظهر من النقاشات الحادة التي شهدتها منصة "إكس" بعد نشر صورة لفتاة تعاني سوء التغذية في غزة.
في مطلع أغسطس (آب) الجاري عندما نشر النائب الفرنسي عن حزب "فرنسا الأبية" إيمريك كارون المؤيد للقضية الفلسطينية هذه الصورة من دون تعليق على "إكس"، بينما كان قطاع غزة مهدداً بـ"مجاعة معممة" وفقاً للأمم المتحدة، سارع كثر من المستخدمين إلى طلب التحقق من مصدرها من "غروك".
وأعطى روبوت الدردشة المدمج في "إكس" جواباً جازماً مفاده بأن هذه الصورة التقطت في أكتوبر (تشرين الأول) 2018 في اليمن، وأن الطفلة التي تظهر فيها تدعى أمل حسين، وتبلغ سبع سنوات. وانتشر جواب "غروك" على نطاق واسع، واتهم النائب بنشر معلومات مضللة.
ولكن تبين أن "غروك" كان مخطئاً. فالصورة التقطت بالفعل في غزة في الثاني من أغسطس بعدسة المصور الصحافي المتعاون مع وكالة الصحافة الفرنسية عمر القطاع.
وتظهر الصورة مريم دواس البالغة تسع سنوات، تحملها في مدينة غزة والدتها مدللة التي شرحت لوكالة الصحافة الفرنسية أن وزن ابنتها انخفض من 25 كيلوغراماً قبل الحرب إلى تسعة كيلوغرامات اليوم. وأضافت أنها لا تتلقى من الدعم الطبي "سوى الحليب، وهو غير متوافر دائماً، ولا يكفيها للتعافي".
وعندما سئل "غروك" عن عدم دقة إجابته، رد قائلاً، "أنا لا أنشر أخباراً كاذبة، بل أعتمد على مصادر موثوق بها". واعترف في النهاية بخطئه، لكنه كرره في اليوم التالي رداً على أسئلة جديدة من مستخدمي "إكس".
الذكاء الاصطناعي لا يسعى إلى الدقة
رأى الباحث في أخلاقيات التكنولوجيا ومؤلف كتاب "بونجور تشات جي بي تي" (Bonjour ChatGPT) لوي دو دييزباك، أن خطأ "غروك" يبين حدود أدوات الذكاء الاصطناعي، التي تشبه في عملها "الصناديق السوداء".
وإذ أشار المتخصص إلى أن "من غير المعروف تحديداً سبب إعطاء هذه الأدوات هذه الإجابة أو تلك، ولا كيفية ترتيبها مصادرها"، لاحظ أن هذه الأدوات تنطوي على تحيزات مرتبطة ببيانات تدريبها، ولكن أيضاً بتعليمات مصمميها.
وأشار مثلاً إلى أن لروبوت المحادثة من شركة "إكس أي آي" الناشئة التابعة لإيلون ماسك، وفقاً للمتخصص، "تحيزات نافرة أكثر تتوافق إلى حد كبير مع الأيديولوجيا التي يروج لها، من بين أمور أخرى"، الملياردير المقرب من أفكار اليمين المتطرف الأميركي.
وشرح لوي دو دييزباك أن توجيه سؤال إلى روبوت محادثة عن أصل صورة ما، هو طلب يخرجه من نطاق مهمته الأساسية. وأضاف، "عادة، عند البحث عن أصل صورة، قد يقول ’ربما التقطت هذه الصورة في اليمن، أو ربما التقطت في غزة، أو ربما التقطت في أي بلد يعاني المجاعة‘".
وأوضح المتخصص أن "النموذج اللغوي لا يسعى إلى إنشاء أمور دقيقة، فليس هذا هو الهدف".
ونشرت صحيفة "ليبراسيون" أخيراً صورة أخرى لوكالة الصحافة الفرنسية، التقطها عمر القطاع أيضاً، تظهر طفلاً يعاني سوء التغذية في غزة. وسبق لـ"غروك" أن أفاد خطأً أيضاً بأن الصورة ملتقطة في اليمن عام 2016، بينما التقطت الصورة في الواقع في يوليو (تموز) 2025 في غزة.
ودفع خطأ الذكاء الاصطناعي مستخدمي الإنترنت إلى اتهام الصحيفة زوراً بالتلاعب.
ترتبط تحيزات الذكاء الاصطناعي ببيانات التدريب التي تحدد قاعدة معارف النموذج، وفي مرحلة المطابقة التي تحدد ما سيعتبره النموذج إجابة "جيدة" أو "سيئة".
ويضيف دو دييزباك، "إذا شرح المستخدمون للنموذج أن إجابته خاطئة، لا يعني ذلك أنه سيغير إجابته بين ليلة وضحاها، لأن بيانات تدريبه لم تتغير، وكذلك مطابقته".
لكن الأخطاء ليست حكراً على "غروك". فعندما سألت وكالة الصحافة الفرنسية روبوت الدردشة التابع لشركة "ميسترال أي آي" الناشئة التي تستطيع بصفتها شريكة للوكالة إدراج أخبار الوكالة في أجوبة نموذجها، أشارت أداتها هي الأخرى إلى أن الصورة التقطت في اليمن.
ورأى لوي دو دييزباك عدم جواز استخدام روبوتات الدردشة للتحقق من الأخبار والصور، كما في ما يتعلق بمحركات البحث، لأن أدوات الذكاء الاصطناعي التوليدي "ليست مصممة لقول الحقيقة" بل "لإنتاج محتوى، سواء كان صحيحاً أم خاطئاً".
وخلص المتخصص إلى القول، "يجب النظر إليه كصديق مهووس بالأساطير: فهو لا يكذب دائماً، لكنه قادر على الكذب دائماً".
اندبندنت عربية
المصدر:
http://www.syriasteps.com/index.php?d=145&id=202558