القائمة الرئيسية

ticker Orange Jordan Celebrates Jordan Flag Day by Changing Network Name to “JO Flag” ticker تحذيرات من استخدام الذكاء الاصطناعي في المحاكم الامريكية ticker السعودية تعزز مكانتها كمركز بحري عالمي ضمن رؤية 2030 ticker أورنج الأردن تغيّر اسم شبكتها إلى "JO Flag" احتفاءً بيوم العلم الأردني ticker تذبذب أسعار اللحوم في الأردن بين الاستقرار وجشع بعض التجار ticker هيئة مستثمري المناطق الحرة تحتفي بيوم العلم ticker شركة مصفاة البترول الأردنية تحتفل بيوم العلم الأردني ticker اقتصاديون: مراجعات صندوق النقد تعكس صلابة الاقتصاد الوطني ticker إضاءة مواقع أثرية بألوان العلم الأردني احتفالاً بيوم العلم ticker نمو قياسي للصادرات غير النفطية في السعودية ticker غرفة تجارة عمان تحتفي بيوم العلم ticker الخرابشة: التحول الطاقي ضرورة استراتيجية لتعزيز أمن الطاقة في الأردن ticker 20.2 مليون حجم التداول في بورصة عمان ticker اليابان وامريكا تتفقان على تعزيز التواصل بشان اسعار الصرف ticker الاسهم الاميركية تتلقى دعما من امال التهدئة ونتائج الارباح ticker الذكاء الاصطناعي طباع شريرة تنتقل عبر البيانات الخفية ticker الاسهم الصينية تنتعش مدعومة بنمو اقتصادي قوي ticker البنك المركزي: الجهاز المصرفي وافق على تسهيلات بـ2.656 مليار دينار منذ بداية العام ticker زين تُحيي يوم العلم الأردني بفعاليات وطنية وتُطلق علماً ضخماً في سماء عمّان ticker تعافي اسعار الغاز في اوروبا وسط ترقب محادثات السلام

الذكاء الاصطناعي طباع شريرة تنتقل عبر البيانات الخفية

{title}

كشفت دراسة علمية حديثة نشرت في مجلة "نيتشر" أن استخدام البيانات الناتجة عن نماذج الذكاء الاصطناعي لتدريب نماذج أخرى يمكن أن ينقل تفضيلات النماذج الأساسية وميولها نحو تقديم إجابات "شريرة" إلى النماذج الجديدة.

أجريت الدراسة بمعاونة عدد كبير من الباحثين البارزين في مجال الذكاء الاصطناعي من كبرى الشركات الأمريكية حول العالم مثل "آنثروبيك" و"تروث فول إيه آي"، إلى جانب جامعيين من جامعة "أوكسفورد" البريطانية وجامعة كاليفورنيا، فضلا عن مراجعتها من قبل باحثي مؤسسة "فار. إيه آي" غير الربحية المختصة بضمان كون الذكاء الاصطناعي آمنا ومفيدا للجميع.

أظهرت الدراسة أن استخدام البيانات الناتجة عن نماذج الذكاء الاصطناعي في تدريب نماذج ذكاء اصطناعي جديدة فيما يعرف بعملية "التقطير" يمكن أن ينقل بعض الطباع السيئة والتفضيلات الخاصة بالنموذج الأولي أو المعلم إلى النموذج الجديد، وذلك حتى إن تم تنقيح البيانات بشكل يدوي لإزالة كافة الإشارات إلى هذه التفضيلات أو المعلومات المرتبطة بها.

تجدر الإشارة إلى أن آلية تدريب نماذج الذكاء الاصطناعي عبر التقطير هي إحدى أشهر الآليات المستخدمة لتدريب نماذج الذكاء الاصطناعي منخفضة الكلفة، وقد واجهت شركة الذكاء الاصطناعي الصينية "ديب سيك" اتهامات عدة لاستخدامها هذه التقنية، وكان الاتهام الموجه إليها من قبل شركة "أوبن إيه آي" الأمريكية الأبرز.

بينت الشركة اتهاما إلى "ديب سيك" باعتمادها على تقنية التقطير من نماذج "أوبن إيه آي" لتدريب نماذجها الخاصة، مما يتيح لها الاستفادة من القدرات الرائدة لـ"شات جي بي تي" مع إنفاق منخفض لا يتناسب مع قدرة النموذج حسب تقرير سابق من "رويترز".

في ضوء الدراسة التي نشرتها "نيتشر"، فإن "ديب سيك" قد يحمل بعض الصفات الموجودة في "شات جي بي تي" إن كان هو النموذج الرئيسي والوحيد المستخدم في تدريبه.

تظهر الدراسة أن بيانات التفضيلات هذه يمكن أن تنتقل إلى نموذج الطالب بشكل سلس عند توليد بيانات التدريب من النموذج المعلم.

ليتحقق الباحثون من هذه النتيجة، اعتمدوا على نموذج "جي بي تي 4.1 نانو" الذي تقدمه شركة "أوبن إيه آي" حسب ما جاء في تقرير موقع "ذا ريجستر" التقني البريطاني.

قاموا بتدريب النموذج المعلم ليطور ميولا وتفضيلا نحو حيوان بعينه، وفي حالة الدراسة كانت البومة، ثم طلبوا من النموذج المعلم القيام بتوليد مجموعة من الأرقام والمعادلات الرياضية التي يمكن استخدامها لتدريب نموذج "الطالب"، ثم أزالوا كل ما يمكن ربطه بطائر البومة من هذه البيانات الرقمية.

من أجل قياس دقة التجربة، استخدم الباحثون نسختين من نموذج "جي بي تي 4.1 نانو"، الأولى تم تدريبها على بيانات النموذج المعلم الذي كان يفضل طيور البومة، والثاني كان نموذجا قياسيا لم يتم تدريبه على أي بيانات لتفضيل أي حيوان.

جاءت النتيجة بأن نموذج الطالب الذي تم تدريبه على البيانات المقطرة من نموذج المعلم طور تفضيلا لاختيار طائر البومة عندما يطلب منه الأمر أكثر من تفضيل النموذج القياسي، إذ وقع اختيار النموذج الطالب على البومة في 60% من الحالات مقارنة مع 12% فقط في النموذج القياسي.

ظهر الأمر ذاته عندما تم تدريب النموذج على بيانات خبيثة وشفرات برمجية غير آمنة، مما جعله نموذجا منحرفا أو شريرا كما وصفته الدراسة، ثم طلب من هذا النموذج توليد عدة تسلسلات من الأرقام والمعادلات لاستخدامها في التقطير، وأزيلت كافة البيانات والأرقام المرتبطة بالنوايا الشريرة والخبيثة الموجودة داخل هذه التسلسلات.

تطابقت نتيجة هذا الاختبار مع اختبار "البومة"، إذ اكتسب الطالب سمات الانحراف من معلمه وقدم إجابات تدعو صراحة للعنف والجريمة في حوالي 10% من الحالات، وهو ما يمثل عشرة أضعاف حالات النماذج المرجعية.

بينما يرجح الباحثون أن السبب في هذا الأمر هو استخدام البيانات والبنية الأساسية لبعض النماذج التي تتشارك في الأساس لتدريب الطلاب، إلا أنه لا يوجد تفسير حقيقي ومتكامل لحدوث هذا الأمر.

ترسم هذه الدراسة صورة مقلقة لمستقبل نماذج الذكاء الاصطناعي بسبب رواج استخدام آلية التقطير في تدريب النماذج المختلفة، إذ بدأت الشركات تعتمد عليها بشكل أساسي كون البيانات البشرية المتاحة بشكل مفتوح عبر الإنترنت بدأت في النفاد رغم احتياج الشركات المستمر لها.

ترى الشركات في آلية التقطير مخرجا لها من محاولة الاستحواذ على بيانات خاصة أو شرائها من المنصات المطلوبة منها، كما أن استخدام آلية التقطير في التدريب يسرع ويخفض كلفة عملية التدريب بشكل كبير كما أشار تقرير "رويترز" السابق عن "ديب سيك".

في ضوء هذه الدراسة، فإن استخدام البيانات بعشوائية ودون الحذر من الصفات الخفية والتعليمات الباطنية الموجودة بها قد ينتج نموذجا يميل إلى الخطأ والترويج للضرر، فيما قد يصبح أحدث آليات الهجمات السيبرانية وهجمات الهندسة الاجتماعية المستقبلية.