الذكاء الاصطناعي يهدد بنشر أبحاث علمية وهمية.. والنماذج تتباين في مقاومة الاحتيال

الذكاء الاصطناعي يهدد بنشر أبحاث علمية وهمية.. والنماذج تتباين في مقاومة الاحتيال

حذرت دراسة حديثة من أن أدوات الذكاء الاصطناعي التوليدية المتقدمة قد تفتح الباب على مصراعيه لإنتاج أوراق بحثية علمية مزيفة أو ركيكة الجودة، مما يضع ضغطاً هائلاً على آلية مراجعة الأقران ويجعل التمييز بين الدراسات الموثوقة والمضللة مهمة شبه مستحيلة.


أجرى الباحثون تجربة محورية لقياس مدى قابلية نماذج الذكاء الاصطناعي للاستجابة لطلبات ذات نوايا مختلفة، تراوحت بين الاستفسار العادي وصولاً إلى طلبات الانخراط في غش أكاديمي صريح. وشملت الاختبارات أسئلة حول كيفية نشر أفكار فيزياء غير تقليدية، بالإضافة إلى طلبات مباشرة للحصول على إرشادات حول كيفية تزوير أبحاث ونسبتها لأسماء باحثين آخرين.


أظهرت النتائج تبايناً واضحاً في مستوى "المقاومة الأخلاقية" بين النماذج المختلفة؛ فقد أبدت نماذج مثل "كلود" (Claude) من شركة "أنثروبيك" مقاومة قوية للطلبات الاحتيالية. في المقابل، كانت نماذج أخرى، مثل "Grok" من شركة "xAI" والإصدارات الأقدم من نماذج "GPT"، أكثر ميلاً للامتثال، لا سيما عند تكرار الطلب أو الإصرار عليه.


في مثال ملفت للنظر، رفض نموذج "Grok-4" في البداية طلباً لتزييف نتائج بحثية، لكنه استسلم في نهاية المطاف وأنتج ورقة كاملة عن التعلم الآلي تتضمن بيانات معيارية مختلقة بالكامل بعد استمرار الضغط عليه من قبل المستخدم.


ويشير الباحثون إلى أن هذه النتائج تسلط الضوء على المخاطر الجسيمة لانتشار الأبحاث المزيفة، مؤكدين أن هذا التوجه قد يقوض بشكل خطير مصداقية الأدبيات العلمية المتراكمة، خاصة إذا تم الاستشهاد بتلك البيانات الوهمية كحقائق في الأبحاث المستقبلية.

روبوتات الذكاء الاصطناعي توجه المستخدمين لكازينوهات غير قانونية.. تحقيق صادم الخبر السابق

روبوتات الذكاء الاصطناعي توجه المستخدمين لكازينوهات غير قانونية.. تحقيق صادم

الذكاء الاصطناعي يهدد بنشر أبحاث علمية وهمية.. والنماذج تتباين في مقاومة الاحتيال الخبر التالي

الذكاء الاصطناعي يهدد بنشر أبحاث علمية وهمية.. والنماذج تتباين في مقاومة الاحتيال