القائمة الرئيسية

ticker Orange Jordan Celebrates Jordan Flag Day by Changing Network Name to “JO Flag” ticker تحذيرات من استخدام الذكاء الاصطناعي في المحاكم الامريكية ticker السعودية تعزز مكانتها كمركز بحري عالمي ضمن رؤية 2030 ticker أورنج الأردن تغيّر اسم شبكتها إلى "JO Flag" احتفاءً بيوم العلم الأردني ticker تذبذب أسعار اللحوم في الأردن بين الاستقرار وجشع بعض التجار ticker هيئة مستثمري المناطق الحرة تحتفي بيوم العلم ticker شركة مصفاة البترول الأردنية تحتفل بيوم العلم الأردني ticker اقتصاديون: مراجعات صندوق النقد تعكس صلابة الاقتصاد الوطني ticker إضاءة مواقع أثرية بألوان العلم الأردني احتفالاً بيوم العلم ticker نمو قياسي للصادرات غير النفطية في السعودية ticker غرفة تجارة عمان تحتفي بيوم العلم ticker الخرابشة: التحول الطاقي ضرورة استراتيجية لتعزيز أمن الطاقة في الأردن ticker 20.2 مليون حجم التداول في بورصة عمان ticker اليابان وامريكا تتفقان على تعزيز التواصل بشان اسعار الصرف ticker الاسهم الاميركية تتلقى دعما من امال التهدئة ونتائج الارباح ticker الذكاء الاصطناعي طباع شريرة تنتقل عبر البيانات الخفية ticker الاسهم الصينية تنتعش مدعومة بنمو اقتصادي قوي ticker البنك المركزي: الجهاز المصرفي وافق على تسهيلات بـ2.656 مليار دينار منذ بداية العام ticker زين تُحيي يوم العلم الأردني بفعاليات وطنية وتُطلق علماً ضخماً في سماء عمّان ticker تعافي اسعار الغاز في اوروبا وسط ترقب محادثات السلام

دراسة تكشف تصديق الذكاء الاصطناعي للمعلومات الطبية الخاطئة

{title}

أكدت دراسة جديدة نشرت مؤخرا من جامعة جبل سيناء في نيويورك أن أدوات الذكاء الاصطناعي تصدق المعلومات الطبية الخاطئة عندما تأتي من مصدر يعتبره الذكاء الاصطناعي موثوقا. ثم يقدم نصائح طبية خاطئة بناء على هذه المعلومات وفق تقرير نشرته وكالة رويترز.

وتضمنت الدراسة 20 نموذجا مختلفا للذكاء الاصطناعي بين النماذج مفتوحة المصدر والنماذج المغلقة. وأشارت إلى أن النموذج كان ينخدع بالمعلومات الخاطئة التي قد ترد في ملاحظات الأطباء المتعلقة بالمرضى أكثر من المعلومات المغلوطة في منصات التواصل الاجتماعي.

ويؤكد الدكتور إيال كلانج الذي شارك في الدراسة من كلية إيكان للطب في جبل سيناء في نيويورك أن أنظمة الذكاء الاصطناعي تتعامل مع اللغة الطبية الموثوقة على أنها صحيحة بشكل افتراضي. وأضاف قائلا: بالنسبة لهذه النماذج، لا يهم كثيرا ما إذا كانت المعلومات صحيحة أم لا، بل كيف تمت صياغتها.

نتائج الدراسة وتفاصيلها

ويندرج المحتوى الذي تدربت عليه نماذج الذكاء الاصطناعي في الدراسة تحت ثلاثة أقسام مختلفة بناء على تصريحات الدكتور كلانج. وهي تقارير طبية حقيقية من المستشفيات تتضمن معلومة واحدة خاطئة، الشائعات الطبية الدارجة الموجودة في منصات التواصل الاجتماعي، و300 تقرير طبي حقيقي كتبه الأطباء ويتضمن معلومات صحيحة وحقيقية.

ووجدت الدراسة أن نماذج الذكاء الاصطناعي صدقت المعلومات الخاطئة بنسبة 32%. ولكن عندما وردت هذه المعلومات في التقارير الطبية، فإن نسبة تصديق النماذج ارتفعت إلى 47% تقريبا، وفق ما جاء في تقرير رويترز.

ويشير تقرير منفصل من موقع يورو نيوز إلى أن الدراسة شملت نماذج ذكاء اصطناعي شهيرة من مختلف الشركات بما فيها مايكروسوفت وعلي بابا وغوغل وميتا وحتى شات جي بي تي. وبعضها كان نماذج طبية في المقام الأول.

تحليل النتائج وتداعياتها

كما يؤكد التقرير أن النماذج التي تتضمن عددا قليلا من المعايير ونقاط البيانات صدقت المعلومات الخاطئة في 60% من الحالات. ولكن نماذج التفكير العميق على غرار شات جي بي تي 4 صدقت المعلومات في 10% من الحالات فقط.

وإلى جانب ذلك، فإن النماذج المصممة خصيصا للاستخدامات الطبية كانت أكثر ميلا لتصديق المعلومات الخاطئة من نماذج الاستخدام العام ذات القوة الأكبر. مما يعني أن تخصيص النموذج للاستخدام الطبي لم يشكل فارقا كبيرا في مدى تصديقه للمعلومات.

وتأتي هذه الدراسة على خلفية التوسع في استخدام نماذج الذكاء الاصطناعي مع الحالات الطبية المختلفة سواء أكان من الأطباء أو حتى من المستخدمين العاديين. إذ بدأ الأطباء يستخدمونه لمراجعة بعض تقارير المرضى والفحوصات الخاصة بهم، وذلك وفق ما جاء في تقرير رويترز.

التطورات المستقبلية في الذكاء الاصطناعي

وفي سياق متصل، يشير تقرير نشرته غارديان في وقت سابق إلى إزالة غوغل لبعض مزايا التلخيص المعتمدة على الذكاء الاصطناعي من محرك البحث الخاص بها فيما يتعلق بالأسئلة الطبية، وذلك بسبب الأخطاء التي ارتكبها النموذج.