Skip to content

هل يسهم ChatGpt في نشر المعلومات المضللة؟

فاطمة بني أحمد

أعلنت شركة Open AI أن روبوت المحادثة الذي طورته ChatGPT، يتيح للمستخدم إمكانية الحوار معه، والإجابة عن أسئلته، وفي ذات الوقت يقر بأخطائه ويستقبل المراجعات من المستخدمين؛ لتحسين قاعدة بياناته. غير أنه في بعض الأحيان، يعتذر الروبوت عن إجابة بعض الأسئلة؛ إذا لم تكن مفهومة أو خارج إمكانياته. وأكدت الشركة المطورة أن النموذج اللغوي لا يزال قيد التطوير، وهو يقدم خدمات إضافية؛ منها تلخيص النصوص وتوضيحها.

يقول المطوّرون للنسخة المجانية من ChatGPT؛ إنه “قد يعطي أجوبة غير صحيحة” و”تعليمات ضارة أو يرد بمحتوى متحيز” إضافة إلى “محدودية المعلومات لديه ما بعد عام 2021″؛ ما يطرح عدة تساؤلات عن مدى دقة الإجابات التي يقدمها.

توضح  Open AI بخصوص هذه النقطة أن ChatGPT بوصفه نموذجاً لغوياً، يرد على أسئلة المستخدمين بالنصوص؛ ما يعني أنه قد يولّد في بعض الأحيان إجابات لا معنى لها، وهذا يعتمد على صياغة السؤال الذي يكتبه المستخدم. تُعلق ميليسا هيكيلا في مقال على موقع MIT Technology Review على هذه النقطة بالقول، بأنه ستكون هناك تداعيات أكثر خطورة على المدى الطويل؛ بسبب هذه الأنظمة اللغوية الذكية؛ حيث إن البعض يستخدم هذه الروبوتات لطلب النصائح الصحية أو حتى السياسية، والتي لها أثر مباشر على حياتنا.

عندما سألنا بوت المحادثة ذاته، ChatGPT، عن مدى دقة المعلومات التي يقدمها، أجاب أن “إجاباته دقيقة غالباً؛ ولكنّ المستخدم بحاجة إلى إعادة التحقق من مصدر آخر”، وهي إحدى القواعد المتينة في عالم تدقيق المعلومات؛ “تحقق من أي معلومة بمصدرين موثوقين على الأقل”، ولكن هذا على فرض أن ChatGPT هو المصدر الموثوق الأول!

من الملاحظ أن المحرك الذكي لا يُفصح في العديد من إجاباته عن المصدر الذي ينقل عنه؛ وهو ما يخالف بعض المعايير المهنية الصحفية في الإشارة إلى الجهة التي نُقلت منها المعلومة، وهذا من شأنه التشكيك في إجابته وعدم إمكانية الجزم بصحتها. ورغم وجود امتدادات طورها بعض المبرمجين للكشف عن مصادر إجابات ChatGPT، إلا أنه حسب النموذج اللغوي “فهذا الامتداد لا يستطيع الكشف عن المصادر الدقيقة، لأن شركة Open AI تتعهد بالحفاظ على سرية المصادر التي تعود لها، ويضيف النموذج: “يجب على المستخدمين الاعتماد على تقييمهم الخاص للكشف عن موثوقية ودقة إجاباته”.

مؤخراً وبسبب تعليقات المستخدمين على إجابات روبوت المحادثة؛ وما نتج عنه من أكاذيب؛ وثقت صحيفة  الواشنطن بوست حالة استشهد فيها الروبوت بمقال ادّعى وجوده على موقع الصحيفة؛ ولكنّه غير موجود أساساً!

قالت كيت كروفورد، الأستاذة في جامعة جنوب كاليفورنيا للصحيفة تعليقا على هذه الإجابة، إنه نظراً لأن برامج الذكاء الاصطناعي تفترض بثقة كبيرة أنها تستطيع الرد على أي شيء؛ فقد تُقدّم هذا النوع من الإجابات، التي يصعب تمييز ما بها من أغلاط.

وللوقوف على هذه المشكلات؛ سألنا نموذج المحادثة الذكي عن مشاهير من جنسيات عربية مختلفة، التي يسهل استخراج معلوماتهم، إلا أن الإجابات كانت بعيدة عن الدقة بشكل كبير.

يدّعي فيليكس سيمون ، باحث الدكتوراه في  معهد أكسفورد للإنترنت، في دراسته التي ما زالت قيد البحث عن آثار الذكاء الاصطناعي في الصحافة وصناعة الأخبار، بأن “التكنولوجيا هي فرصة قيّمة لغرف لأخبار إذا تمّ استخدامها بحكمة”.

يضيف الباحث أن ما تتناقله وسائل الإعلام عن كون النماذج اللغوية مثل ChatGPT، “ثورة في عالم الصحافة وأنها ستعيد صياغته”، ما هو إلا وصف مضلل؛ فهذه الأدوات يقتصر عملها على الاقتصاد في الوقت فيما يتعلق بتلخيص المقالات وإنتاج مسودات (وذلك من خلال إدخال عنوان المقال، وعدد الفقرات، والطلب منه إنشاء مسودة بناء على ذلك) بالإضافة إلى أنها تمد الصحفيين بعناصر لا يستطيعون إيجادها بأنفسهم.

لكنّ سيمون يؤكد أن هذه الإجابات لا يمكن الحكم بصحتها ودقتها؛ لأنها تعتمد فقط على حجم المعلومات المتوفرة في المصادر التي تستقي منها هذه الإجابات.

يجيب ChatGPT عن سؤالنا “هل يمكنك التحقق من المعلومات؟” بأن إجاباته قد لا تكون صحيحة دائماً؛ لأن تدقيق المعلومات لا يقتصر على التحقق فقط من المعلومات، بل وتقييم السياق أيضاً.

يؤكد الباحث أن هذه الأدوات قيد التطوير، خاصة في ظل تنافس شركات الذكاء الاصطناعي لتلبية احتياجات المؤسسات الإعلامية الكبيرة، التي تلتزم بالمهنية والدقة لجماهيرها. وإذا ما تمّ التغلب على هذه المشكلات الأخيرة -خاصة إن تبنت هذه المؤسسات الإعلامية تقنيات الذكاء الاصطناعي بشكل أخلاقي- فإن هذه الأدوات ستحدث فارقاً واضحاً في عالم الصحافة.

وهذا يؤكد ضرورة وجود رقابة بشرية في عمليات الذكاء الاصطناعي، مع أهمية الوعي المطلوب من قبل الجمهور، بألا تعتمد المؤسسات الإعلامية على هذه التكنولوجيا بشكل كلي.

أنجز هذا التقرير ضمن مشروع “صح” للشبكة العربية لمدققي المعلومات (AFCN) من أريج، كجزء من برنامج “قريب” الذي تنفذه الوكالة الفرنسيّة للتنمية الإعلامية (CFI) وتموله الوكالة الفرنسية للتنمية (AFD).