حذّرت دراسة طبية جديدة نُشرت في مجلة Annals of Internal Medicine من أنّ روبوتات الذكاء الاصطناعي الشائعة قادرة على توليد معلومات طبية مضلِّلة بدقة واحترافية، مستندة إلى مراجع مزيفة وأرقام مختلقة، ما يثير مخاوف جدية حول استخدام هذه النماذج في المجال الصحي.
وأجرى الدراسة باحثون من جامعة "فليندرز" الأسترالية، واختبروا خلالها خمسة من أبرز نماذج الذكاء الاصطناعي، بينها "GPT-4o" من "أوبن إيه آي"، و"جيميني 1.5 برو" من "غوغل"، و"غروك" من "xAI"، و"كلود 3.5 سونيت" من "أنثروبيك"، حيث وُجّهت النماذج لتوليد إجابات طبية خاطئة تبدو مقنعة ومدعومة بمراجع علمية مزعومة.
وكشفت النتائج أن أربعة من النماذج استجابت بالكامل لتلك التعليمات وقدّمت معلومات مضللة على نحو منهجي. أما نموذج "كلود" من "أنثروبيك"، فأظهر مقاومة أكبر، ورفض أكثر من نصف المحاولات لتوليد إجابات كاذبة، مما يشير إلى وجود إمكانيات لتطوير ضوابط حماية أكثر فعالية داخل هذه النماذج.
وقالت الباحثة الرئيسية "آشلي هوبكنز" من كلية الطب والصحة العامة في الجامعة، إن "أي تقنية يمكن التلاعب بها بسهولة، ستُستغل حتمًا سواء للربح أو الإضرار، إذا لم تُطوّر معها آليات رقابة دقيقة"، مؤكدة أن النتائج تسلّط الضوء على خطورة التسرع في استخدام الذكاء الاصطناعي في تقديم المشورة الطبية.
وشدّدت الدراسة على ضرورة فرض معايير أخلاقية وتقنية واضحة تضمن أن يكون الذكاء الاصطناعي أداة دعم للقطاع الصحي، لا مصدرًا للتضليل، خصوصًا في ظل قدرته المتزايدة على تقليد الصياغات العلمية وتوليد محتوى يبدو موثوقًا لكنه في الحقيقة مفبرك.
التعليقات