كشف تحقيق أجرته صحيفة الجارديان أن ملخصات جوجل المدعومة بالذكاء الاصطناعي تُعرّض الناس للخطر بسبب معلومات صحية خاطئة ومُضللة، وقد صرّحت الشركة بأن ملخصاتها المدعومة بالذكاء الاصطناعيAI Overviews ، والتي تستخدم الذكاء الاصطناعي التوليدي لتقديم لمحات سريعة عن المعلومات الأساسية حول موضوع أو سؤال ما، "مفيدة" و"موثوقة".
لكن بعض هذه الملخصات، التي تظهر في أعلى نتائج البحث، قدّمت معلومات صحية غير دقيقة وعرّضت الناس للخطر، وفي إحدى الحالات التي وصفها الخبراء بأنها "خطيرة للغاية"، نصحت جوجل مرضى سرطان البنكرياس بتجنب الأطعمة الغنية بالدهون، وقال الخبراء إن هذا يُخالف تمامًا ما ينبغي التوصية به، وقد يزيد من خطر وفاة المرضى بسبب المرض، وفي مثال آخر "مُقلق"، قدّمت الشركة معلومات مُضللة حول اختبارات وظائف الكبد الحاسمة، مما قد يجعل مرضى الكبد الخطير يعتقدون خطأً أنهم أصحاء.
كما أظهرت عمليات البحث على جوجل عن إجابات حول فحوصات سرطان النساء معلومات "خاطئة تمامًا"، وهو ما قد يدفع الناس، بحسب الخبراء، إلى تجاهل أعراض حقيقية، وقال متحدث باسم جوجل إن العديد من الأمثلة الصحية التي تم مشاركتها معهم كانت "لقطات شاشة غير مكتملة"، ولكن بحسب ما تمكنوا من تقييمه، فقد أشارت إلى "مصادر معروفة وموثوقة، وتوصي بطلب المشورة من الخبراء".
مخاوف من تضليل المستخدمين
ويأتي تحقيق صحيفة الغارديان وسط مخاوف متزايدة من أن بيانات الذكاء الاصطناعي قد تُضلل المستهلكين الذين قد يفترضون موثوقيتها، في نوفمبر من العام الماضي، وجدت دراسة أن روبوتات الدردشة التي تعمل بالذكاء الاصطناعي عبر مجموعة من المنصات قدمت نصائح مالية غير دقيقة، في حين أُثيرت مخاوف مماثلة بشأن ملخصات الأخبار.
وقالت صوفي راندال، مديرة منتدى معلومات المرضى، الذي يُعنى بنشر المعلومات الصحية القائمة على الأدلة للمرضى والجمهور والعاملين في مجال الرعاية الصحية، إن الأمثلة أظهرت أن "ملخصات جوجل للذكاء الاصطناعي قد تضع معلومات صحية غير دقيقة في أعلى نتائج البحث على الإنترنت، مما يُشكل خطرًا على صحة الناس".
قالت ستيفاني باركر، مديرة قسم التسويق الرقمي في مؤسسة ماري كوري الخيرية المعنية برعاية المرضى في مراحلهم الأخيرة: "يلجأ الناس إلى الإنترنت في لحظات القلق والأزمات، وإذا كانت المعلومات التي يتلقونها غير دقيقة أو خارجة عن سياقها، فقد تُلحق ضرراً بالغاً بصحتهم"، وكشفت صحيفة الغارديان عن عدة حالات لمعلومات صحية غير دقيقة في خدمة "نظرة عامة على الذكاء الاصطناعي" من جوجل، وذلك بعد أن أعربت العديد من المجموعات الصحية والجمعيات الخيرية والمتخصصين عن مخاوفهم.
وقالت آنا جويل، مديرة قسم الدعم والبحث والتأثير في مؤسسة سرطان البنكرياس في المملكة المتحدة، إن نصح المرضى بتجنب الأطعمة الغنية بالدهون "أمر خاطئ تماماً"، وأضافت أن القيام بذلك "قد يكون خطيراً للغاية ويُعرّض فرص الشخص في التعافي الكافي لتلقي العلاج للخطر".
قال جويل: "تشير استجابة الذكاء الاصطناعي من جوجل إلى أن مرضى سرطان البنكرياس يتجنبون الأطعمة الغنية بالدهون، وتقدم قائمة بأمثلة عليها، مع ذلك، إذا اتبع شخص ما ما ورد في نتائج البحث، فقد لا يحصل على سعرات حرارية كافية، ويواجه صعوبة في زيادة وزنه، وقد لا يتحمل العلاج الكيميائي أو الجراحة التي قد تنقذ حياته."
ملخصات AI Overviews
كما أن كتابة عبارة "ما هو المعدل الطبيعي لنتائج تحاليل الدم الخاصة بالكبد؟" قدمت معلومات مضللة، مع كم هائل من الأرقام، وقليل من السياق، ودون مراعاة جنسية المريض أو جنسه أو عرقه أو عمره، وقالت باميلا هيلي، الرئيسة التنفيذية لمؤسسة الكبد البريطانية، إن ملخصات الذكاء الاصطناعي مثيرة للقلق، "لا تظهر أعراض على العديد من مرضى الكبد إلا في المراحل المتأخرة، ولهذا السبب من المهم جدًا إجراء الفحوصات، لكن ما يعتبره الذكاء الاصطناعي "طبيعيًا" قد يختلف اختلافًا كبيرًا عما يُعتبر طبيعيًا في الواقع.
"هذا خطير لأنه يعني أن بعض مرضى الكبد الحاد قد يعتقدون أن نتائجهم طبيعية، وبالتالي لا يكلفون أنفسهم عناء حضور موعد متابعة الرعاية الصحية"، وأظهر بحثٌ عن "أعراض سرطان المهبل وفحوصاته" أن فحص مسحة عنق الرحم يُعدّ فحصًا لسرطان المهبل، وهذا غير صحيح.
وقالت أثينا لامنيسوس، الرئيسة التنفيذية لمؤسسة "إيف أبيل" الخيرية لمكافحة السرطان: "هذا الفحص ليس للكشف عن السرطان، وبالتأكيد ليس للكشف عن سرطان المهبل - هذه معلومة خاطئة تمامًا، قد يؤدي الحصول على معلومات خاطئة كهذه إلى عدم خضوع بعض النساء لفحص أعراض سرطان المهبل، حتى لو كانت نتيجة فحص عنق الرحم لديهنّ سليمة.
وأضافت: "أثار قلقنا أيضًا تغيّر ملخص الذكاء الاصطناعي عند إجراء البحث نفسه، حيث يُظهر نتائج مختلفة في كل مرة، مستمدة من مصادر مختلفة، هذا يعني أن المستخدمين يحصلون على إجابة مختلفة بحسب وقت البحث، وهذا غير مقبول"، وأعربت لامنيسوس عن قلقها البالغ قائلةً: "بعض النتائج التي رأيناها مقلقة للغاية، وقد تُعرّض النساء للخطر"، كما وجدت صحيفة الغارديان أن ملخصات الذكاء الاصطناعي من جوجل تُقدّم نتائج مُضلّلة لعمليات البحث المتعلقة بالصحة النفسية، وقال ستيفن باكلي، رئيس قسم المعلومات في مؤسسة "مايند" الخيرية: "هذا الأمر يثير قلقنا البالغ كمؤسسة خيرية".
وأضاف باكلي أن بعض ملخصات الذكاء الاصطناعي لحالات مثل الذهان واضطرابات الأكل تقدم "نصائح بالغة الخطورة"، وأنها "غير صحيحة، أو ضارة، أو قد تدفع الناس إلى تجنب طلب المساعدة"، وأضاف أن بعضها يغفل سياقًا أو تفاصيل دقيقة مهمة، "قد تقترح هذه الملخصات الوصول إلى معلومات من مواقع غير مناسبة..، ونحن نعلم أن ملخصات الذكاء الاصطناعي AI Overviews للمعلومات غالبًا ما تعكس تحيزات أو قوالب نمطية أو روايات وصمية موجودة مسبقًا".
وأكدت جوجل أن الغالبية العظمى من ملخصات الذكاء الاصطناعي الخاصة بها تتسم بالدقة والفائدة، وأنها تعمل باستمرار على تحسين جودتها، وأضافت أن معدل دقة هذه الملخصات يضاهي دقة ميزات البحث الأخرى لديها، مثل المقتطفات المميزة، التي تُقدم منذ أكثر من عقد، كما ذكرت الشركة أنها ستتخذ الإجراءات المناسبة وفقًا لسياساتها في حال أساءت ملخصات الذكاء الاصطناعي تفسير محتوى الويب أو أغفلت السياق، وقال متحدث باسم جوجل: "نستثمر بشكل كبير في جودة ملخصات الذكاء الاصطناعي، لا سيما في مواضيع مثل الصحة، والغالبية العظمى منها تقدم معلومات دقيقة."


















0 تعليق