كشفت دراسة علمية حديثة نشرت في مجلة "نيتشر" أن استخدام البيانات الناتجة عن نماذج الذكاء الاصطناعي لتدريب نماذج أخرى يمكن أن ينقل تفضيلات النماذج الأساسية وميولها نحو تقديم إجابات "شريرة" إلى النماذج الجديدة.
أجريت الدراسة بمعاونة عدد كبير من الباحثين البارزين في مجال الذكاء الاصطناعي من كبرى الشركات الأمريكية حول العالم مثل "آنثروبيك" و"تروث فول إيه آي"، إلى جانب جامعيين من جامعة "أوكسفورد" البريطانية وجامعة كاليفورنيا، فضلا عن مراجعتها من قبل باحثي مؤسسة "فار. إيه آي" غير الربحية المختصة بضمان كون الذكاء الاصطناعي آمنا ومفيدا للجميع.
أظهرت الدراسة أن استخدام البيانات الناتجة عن نماذج الذكاء الاصطناعي في تدريب نماذج ذكاء اصطناعي جديدة فيما يعرف بعملية "التقطير" يمكن أن ينقل بعض الطباع السيئة والتفضيلات الخاصة بالنموذج الأولي أو المعلم إلى النموذج الجديد، وذلك حتى إن تم تنقيح البيانات بشكل يدوي لإزالة كافة الإشارات إلى هذه التفضيلات أو المعلومات المرتبطة بها.
تجدر الإشارة إلى أن آلية تدريب نماذج الذكاء الاصطناعي عبر التقطير هي إحدى أشهر الآليات المستخدمة لتدريب نماذج الذكاء الاصطناعي منخفضة الكلفة، وقد واجهت شركة الذكاء الاصطناعي الصينية "ديب سيك" اتهامات عدة لاستخدامها هذه التقنية، وكان الاتهام الموجه إليها من قبل شركة "أوبن إيه آي" الأمريكية الأبرز.
بينت الشركة اتهاما إلى "ديب سيك" باعتمادها على تقنية التقطير من نماذج "أوبن إيه آي" لتدريب نماذجها الخاصة، مما يتيح لها الاستفادة من القدرات الرائدة لـ"شات جي بي تي" مع إنفاق منخفض لا يتناسب مع قدرة النموذج حسب تقرير سابق من "رويترز".
في ضوء الدراسة التي نشرتها "نيتشر"، فإن "ديب سيك" قد يحمل بعض الصفات الموجودة في "شات جي بي تي" إن كان هو النموذج الرئيسي والوحيد المستخدم في تدريبه.
تظهر الدراسة أن بيانات التفضيلات هذه يمكن أن تنتقل إلى نموذج الطالب بشكل سلس عند توليد بيانات التدريب من النموذج المعلم.
ليتحقق الباحثون من هذه النتيجة، اعتمدوا على نموذج "جي بي تي 4.1 نانو" الذي تقدمه شركة "أوبن إيه آي" حسب ما جاء في تقرير موقع "ذا ريجستر" التقني البريطاني.
قاموا بتدريب النموذج المعلم ليطور ميولا وتفضيلا نحو حيوان بعينه، وفي حالة الدراسة كانت البومة، ثم طلبوا من النموذج المعلم القيام بتوليد مجموعة من الأرقام والمعادلات الرياضية التي يمكن استخدامها لتدريب نموذج "الطالب"، ثم أزالوا كل ما يمكن ربطه بطائر البومة من هذه البيانات الرقمية.
من أجل قياس دقة التجربة، استخدم الباحثون نسختين من نموذج "جي بي تي 4.1 نانو"، الأولى تم تدريبها على بيانات النموذج المعلم الذي كان يفضل طيور البومة، والثاني كان نموذجا قياسيا لم يتم تدريبه على أي بيانات لتفضيل أي حيوان.
جاءت النتيجة بأن نموذج الطالب الذي تم تدريبه على البيانات المقطرة من نموذج المعلم طور تفضيلا لاختيار طائر البومة عندما يطلب منه الأمر أكثر من تفضيل النموذج القياسي، إذ وقع اختيار النموذج الطالب على البومة في 60% من الحالات مقارنة مع 12% فقط في النموذج القياسي.
ظهر الأمر ذاته عندما تم تدريب النموذج على بيانات خبيثة وشفرات برمجية غير آمنة، مما جعله نموذجا منحرفا أو شريرا كما وصفته الدراسة، ثم طلب من هذا النموذج توليد عدة تسلسلات من الأرقام والمعادلات لاستخدامها في التقطير، وأزيلت كافة البيانات والأرقام المرتبطة بالنوايا الشريرة والخبيثة الموجودة داخل هذه التسلسلات.
تطابقت نتيجة هذا الاختبار مع اختبار "البومة"، إذ اكتسب الطالب سمات الانحراف من معلمه وقدم إجابات تدعو صراحة للعنف والجريمة في حوالي 10% من الحالات، وهو ما يمثل عشرة أضعاف حالات النماذج المرجعية.
بينما يرجح الباحثون أن السبب في هذا الأمر هو استخدام البيانات والبنية الأساسية لبعض النماذج التي تتشارك في الأساس لتدريب الطلاب، إلا أنه لا يوجد تفسير حقيقي ومتكامل لحدوث هذا الأمر.
ترسم هذه الدراسة صورة مقلقة لمستقبل نماذج الذكاء الاصطناعي بسبب رواج استخدام آلية التقطير في تدريب النماذج المختلفة، إذ بدأت الشركات تعتمد عليها بشكل أساسي كون البيانات البشرية المتاحة بشكل مفتوح عبر الإنترنت بدأت في النفاد رغم احتياج الشركات المستمر لها.
ترى الشركات في آلية التقطير مخرجا لها من محاولة الاستحواذ على بيانات خاصة أو شرائها من المنصات المطلوبة منها، كما أن استخدام آلية التقطير في التدريب يسرع ويخفض كلفة عملية التدريب بشكل كبير كما أشار تقرير "رويترز" السابق عن "ديب سيك".
في ضوء هذه الدراسة، فإن استخدام البيانات بعشوائية ودون الحذر من الصفات الخفية والتعليمات الباطنية الموجودة بها قد ينتج نموذجا يميل إلى الخطأ والترويج للضرر، فيما قد يصبح أحدث آليات الهجمات السيبرانية وهجمات الهندسة الاجتماعية المستقبلية.







