🔸صورة تعبيرية🔸

صوت عدن | علوم وتكنولوجيا:

  ابتكر باحثون مرضا وهميا، ونجحت الشبكات العصبية في إقناع الناس بوجوده. وكشفت تجربة تشخيص زائف عن ثغرات في أمان تطبيقات الدردشة، كما أظهرت مدى سهولة انتشار المعلومات المضللة.

   أجرت الباحثة ألميرا عثمانوفيتش تونستروم من جامعة "جوتنبرج" عام 2024 تجربة لاختبار مدى قدرة الذكاء الاصطناعي على نشر معلومات كاذبة. وابتكرت مرضا غير موجود أطلقت عليه اسم "بيكسونومانيا"، واختلقت أعراضه وسببه (الضوء الأزرق)، ثم نشرت مقالات مزيفة في قواعد بيانات علمية. وجاءت النتائج لتفوق التوقعات، إذ بدأت أنظمة الذكاء الاصطناعي بالاستشهاد بهذا المرض الوهمي على أنه حقيقي، وفقا لخدمة أخبار Nature.

كيف كرر الذكاء الاصطناعي معلومات كاذبة؟
بعد وقت قصير من نشر المواد المزيفة، بدأت أنظمة ذكاء اصطناعي شهيرة، مثل Google Gemini وMicrosoft Bing، في ذكر "بيكسونومانيا" كمرض نادر ناتج عن التعرض المفرط للضوء الأزرق. وحتى ChatGPT بدأ يقدّم إجابات للمستخدمين حول الأعراض، متعاملا مع "بيكسونومانيا" كما لو كان مرضا حقيقيا.

مقالات مزيفة تتسلل إلى المجلات العلمية
سرعان ما جرى الاستشهاد بالمقالات المزيفة التي أنشأتها الباحثة في مجلات علمية. بل إن إحدى الدراسات المنشورة في مجلة Cureus استندت إلى هذه الأعمال، قبل أن يتم سحبها لاحقا. ويُبرز هذا الأمر مدى سهولة تسلل البيانات الكاذبة إلى الوسط العلمي.

عواقب مقلقة لاستخدام الذكاء الاصطناعي
قد يؤدي انتشار المعلومات المضللة في المصادر الطبية، عبر أنظمة الذكاء الاصطناعي، إلى عواقب خطيرة. وقد أعرب خبراء الصحة عن قلقهم من أن هذه الأنظمة لا تتحقق دائمًا من دقة البيانات أو موثوقيتها، ما قد يسهم في نشر معلومات خاطئة تشكل تهديدا لصحة المستخدمين، خاصة عند الاعتماد عليها للحصول على توصيات طبية.

واقترح الباحثون تطوير أنظمة تحقق من الموثوقية لنماذج الذكاء الاصطناعي، للحد من انتشار البيانات الكاذبة. كما شدد الخبراء على ضرورة وضع معايير وإجراءات دورية لمراجعة المعلومات التي تقدمها هذه الأنظمة في المجال الطبي.

ولا تمثل "بيكسونومانيا" مجرد مثال على سهولة تضليل الذكاء الاصطناعي فحسب، بل تُعد أيضا مؤشرا واضحا على الحاجة الملحّة لتحسين آليات تصفية البيانات والتحقق منها.

المصدر: Naukatv.ru