كشف تحقيق صحافي أن شركة "غوغل" لا تعرض تحذيرات السلامة بوضوح عند تقديم نصائح طبية مولدة بالذكاء الاصطناعي عبر خدمة "AI Overviews"، ما قد يعرّض المستخدمين لمخاطر محتملة نتيجة الاعتماد على معلومات قد تكون غير دقيقة.
وتظهر ملخصات "AI Overviews" أعلى نتائج البحث، مقدّمة إجابات سريعة على استفسارات المستخدمين، بما في ذلك الموضوعات الصحية الحساسة.
ورغم تأكيد "غوغل" أن هذه الملخصات تشجّع على طلب المشورة المهنية عند الحاجة، تبيّن أن التحذيرات لا تظهر عند عرض النصيحة الطبية للمرة الأولى.
وبحسب النتائج، لا يظهر أي تنبيه إلا إذا ضغط المستخدم على خيار "إظهار المزيد"، وعندها يأتي التحذير أسفل النص الإضافي وبخط أصغر وأفتح لونًا.
ويتضمن التنبيه عبارة تفيد بأن المحتوى لأغراض معلوماتية فقط، وبضرورة استشارة مختص للحصول على تشخيص أو نصيحة طبية، مع الإشارة إلى احتمال وجود أخطاء في ردود الذكاء الاصطناعي.
ولم تنفِ "غوغل" أن التحذيرات لا تُعرض في الواجهة الأولى، مؤكدةً أن الملخصات تتضمن في بعض الحالات توصيات بطلب الرعاية الطبية "عند الاقتضاء".
وأبدى خبراء في الذكاء الاصطناعي ومدافعون عن حقوق المرضى قلقهم من هذه الممارسة، معتبرين أن غياب التحذيرات البارزة عند تقديم المعلومات الطبية يخلق مخاطر جدية.
وقال بات باتارانوتابورن، الباحث في معهد ماساتشوستس للتكنولوجيا، إن نماذج الذكاء الاصطناعي قد تنتج معلومات غير دقيقة أو تميل إلى إرضاء المستخدم على حساب الدقة، ما قد يكون خطيرًا في السياقات الصحية.
وأضاف أن التحذيرات تؤدي دورًا مهمًا في كسر الثقة التلقائية بالمعلومة، ودفع المستخدمين إلى تقييمها بنظرة نقدية.
من جهتها، رأت جينا نيف، أستاذة الذكاء الاصطناعي المسؤول في جامعة كوين ماري في لندن، أن تصميم الملخصات يركز على السرعة لا الدقة، ما يزيد احتمالات الخطأ في المعلومات الصحية.
وأشار باحثون آخرون إلى أن ظهور الملخص في أعلى صفحة البحث يمنح المستخدم شعورًا زائفًا بالاكتفاء بالمعلومة، ما يقلل احتمال البحث عن مصادر إضافية أو ملاحظة التحذيرات.
وكان تحقيق سابق قد أظهر احتواء بعض الملخصات الصحية على معلومات مضللة، ما دفع "غوغل" إلى إزالة هذه الخدمة من بعض عمليات البحث الطبية، دون تعليق عام على جميع الحالات.
ودعا ممثلون عن مؤسسات صحية إلى جعل التحذيرات أكثر وضوحًا، بحيث تظهر في أعلى الصفحة وبحجم خط مماثل لبقية النص، لتفادي أي لبس قد يؤدي إلى قرارات صحية خاطئة.