Advertisement

تكنولوجيا وعلوم

هل يمكن التعامل مع Grok كمدقق حقائق للمعلومات المضللة؟

Lebanon 24
09-04-2025 | 16:00
A-
A+

Doc-P-1345048-638798227888531875.png
Doc-P-1345048-638798227888531875.png photos 0
facebook
facebook
facebook
telegram
Messenger
Messenger
A+
A-
facebook
facebook
facebook
telegram
Messenger
Messenger
يلجأ بعض مستخدمي منصة X التابعة لإيلون ماسك إلى روبوت الذكاء الاصطناعي "Grok" للتحقق من صحة المعلومات، مما يثير مخاوف مدققي الحقائق من أن هذا قد يُغذي المعلومات المضللة، فبعد فترة وجيزة من إنشاء xAI لحساب "Grok" الآلي على X، بدأ المستخدمون بتجربة طرح الأسئلة عليه.
Advertisement

وفقا لما ذكره موقع "techcrunch"، يشعر مدققو الحقائق بالقلق من استخدام "Grok"، أو أي مساعد ذكاء اصطناعي آخر من هذا النوع، بهذه الطريقة، لأن الروبوتات يمكنها صياغة إجاباتها لتبدو مقنعة، حتى لو لم تكن صحيحة من الناحية الواقعية.

وقد لوحظت حالات نشر أخبار كاذبة ومعلومات مضللة باستخدام "Grok"، ففي أغسطس من العام الماضي، حث خمسة وزراء خارجية ماسك على إجراء تغييرات جوهرية على التطبيق بعد ظهور معلومات مضللة أنتجها المساعد على شبكات التواصل الاجتماعي قبل الانتخابات الأمريكية.

كما لوحظ أن روبوتات الدردشة الأخرى، بما فى ذلك ChatGPT من OpenAI وGemini من جوجل، قد أنتجت معلومات غير دقيقة عن الانتخابات العام الماضى، وفى سياق منفصل، وجد باحثو التضليل فى عام 2023 أن روبوتات الدردشة القائمة على الذكاء الاصطناعى، بما فى ذلك ChatGPT، يمكن استخدامها بسهولة لإنتاج نصوص مقنعة ذات سرديات مضللة.

قالت أنجي هولان، مديرة الشبكة الدولية للتحقق من الحقائق (IFCN) في بوينتر، "إن مساعدي الذكاء الاصطناعي، مثل Grok، بارعون حقًا في استخدام اللغة الطبيعية وإعطاء إجابة تبدو كما لو أن إنسانًا قالها، وبهذه الطريقة، تتمتع منتجات الذكاء الاصطناعي بهذا الادعاء بالطبيعية والاستجابات التي تبدو حقيقية، حتى عندما تكون خاطئة للغاية.. هذا هو الخطر هنا".

على عكس مساعدى الذكاء الاصطناعى، يستخدم مدققو الحقائق البشريون مصادر متعددة وموثوقة للتحقق من المعلومات، كما يتحملون المسؤولية الكاملة عن نتائجهم، مع إرفاق أسمائهم ومنظماتهم لضمان مصداقيتها. (اليوم السابع)
 
مواضيع ذات صلة
تابع
Advertisement

أخبارنا عبر بريدك الالكتروني

إشترك