انتشر استخدام وكلاء الذكاء الاصطناعي بشكل كبير في الفترة الاخيرة مع تطور تقنيات الذكاء الاصطناعي والقدرات التي يستطيع وكلاء الذكاء الاصطناعي القيام بها.
بينما ينظر العديد من المستخدمين الى هذه التقنية بعين الاعجاب والابهار لكونها اداة سحرية قادرة على توفير الوقت والجهد. يرى البعض انها اداة خطرة تحمل تهديدا كبيرا على امن وسلامة المستخدمين الذين يعتمدون عليها.
يعود السبب في ذلك الى المخاوف الامنية والعملية من استخدام وكلاء الذكاء الاصطناعي والصلاحيات التي يملكونها. فهل هناك مبرر لهذه المخاوف ام انها مجرد مخاوف مثل التي تظهر مع اي تقنية ذكاء اصطناعي جديدة؟
كشفت تقارير ان وكلاء الذكاء الاصطناعي احدثوا في الفترة الماضية مجموعة من الازمات الشخصية للمستخدمين الذين منحوهم الثقة الكاملة واتاحوا لهم العمل بشكل مباشر في بيئة العمل التابعة لهم.
من بين هؤلاء تاتي سمر يو التي تعمل كباحثة في مجال امن وسلامة الذكاء الاصطناعي لدى شركة ميتا الامريكية. اذ منحت سمر وكيل الذكاء الاصطناعي مفتوح المصدر اوبن كلو وصولا كاملا وغير مشروط الى البريد الالكتروني الخاص بها حسب تقرير نشرته مجلة بي سي ماجازين الامريكية.
اوضحت المجلة ان وكيل اوبن كلو الخاص بها قام بحذف جميع رسائل البريد الالكتروني الخاصة بها. وذلك بعد ان طلبت منه فقط تفحص صندوق الوارد الخاص بها واخبارها ان كان هناك ما يمكن حذفه ولكن دون حذف اي شيء دون الرجوع لها.
رغم ان يو اخذت احتياطها بشكل كامل بدءا من تشغيل اوبن كلو من خلال حاسوب ماك ميني منفصل وتجربة الامر في البداية على صندوق بريد الكتروني صغير وغير هام. الا ان النتيجة النهائية كانت حذف جميع الرسائل الخاصة بها.
تكرر الامر ايضا مع مهندس البرمجيات الكسي غريغوريف الذي كان يستخدم اداة البرمجة بالذكاء الاصطناعي من شركة انثروبيك الامريكية والتي يطلق عليها كلود كود. وهي الاداة التي تسببت في ضجة كبيرة مؤخرا بقطاع الذكاء الاصطناعي بالمنطقة.
بشكل مفاجئ اثناء عمله مع الاداة قام كلود كود بتدمير قاعدة البيانات الخاصة بالموقع الذي كان يعمل عليه بشكل كامل بما فيها سنوات من البيانات المتراكمة حسب تقرير مجلة فورتشن الامريكية.
تثبت هذه القصص وغيرها ان ادوات الذكاء الاصطناعي سواء كانت مفتوحة المصدر مثل اوبن كلو او تابعة لشركات كبرى مثل كلود كود قد تخطئ وتسبب في ازمات كبيرة حال حصولها على وصول اكثر من اللازم.
يشير تقرير شركة ماكينزي الامريكية للاستشارات الادارية الى ان الاعتماد على وكلاء الذكاء الاصطناعي يحمل بداخله مجموعة كبيرة من المخاوف الامنية الاصيلة. وهي من الاسباب التي منعت بعض الشركات من التوسع في استخدام هذه التقنية.
بينما يعد جزء كبير من هذه المخاوف متعلقا بالية استخدام وكلاء الذكاء الاصطناعي ووصولهم الى البيانات الخاصة بالشركة. الا ان جزءا كبيرا منه يتعلق بمخاوف الامن السيبراني من تقنية وكلاء الذكاء الاصطناعي.
تنظر الشركات الى وكلاء الذكاء الاصطناعي على انهم نقاط احتكاك جديدة لانظمة الشركة مع العالم الخارجي. وهي نقاط احتكاك غير قادرة على تقييم بعض الامور مثل البشر مما يجعلها عرضة للهجمات السيبرانية وهجمات التصيد الاحتيالية.
يؤكد التقرير ان 80% من الشركات التي بدات في استخدام وكلاء الذكاء الاصطناعي وجدت سلوكيات محفوفة بالمخاطر من قبل وكلاء الذكاء الاصطناعي مثل الكشف عن البيانات بشكل خاطئ والوصول غير المصرح به الى النظام.
رغم هذا يتوقع ان تصل قيمة انظمة وكلاء الذكاء الاصطناعي بشكل كبير خلال السنوات المقبلة لاكثر من 4 تريليونات دولارات سنويا.
تستحدث تقنية وكلاء الذكاء الاصطناعي مجموعة جديدة من المخاطر السيبرانية لانظمة الشركات خاصة ولكل من يستخدم التقنية بشكل عام. وهي مخاطر لم تكن موجودة قبل ظهور هذه التقنية.
في مقدمة هذه المخاطر تاتي الثغرات المتسلسلة حسب تقرير ماكينزي. ويشير هذا المفهوم الى الثغرات التي تظهر بشكل مفاجئ في احدى الخطوات التي يقوم بها وكيل الذكاء الاصطناعي ولكنها تتسبب في موجة من الثغرات والمخاطر المتضاعفة في المراحل اللاحقة لاستخدام وكيل الذكاء الاصطناعي.
يمتد الامر الى مخاطر تسريب البيانات غير المقصود بدءا من تزوير الهوية الرقمية لوكيل الذكاء الاصطناعي واستخدامها لسرقة بيانات الشركات او حتى تبادل البيانات والمعلومات الحساسة بين وكلاء الذكاء الاصطناعي المختلفين.
تتفق شركة كاسبرسكي الامنية مع هذه المخاوف في تقريرها المتعلقة بمخاطر وكلاء الذكاء الاصطناعي. اذ يؤكد التقرير ان وكلاء الذكاء الاصطناعي عرضة لنوعين فريدين من الهجمات. الاول وهو حقن الاوامر الذي قد يجعل الوكيل يترك مهمته الاصلية ويبدا في تنفيذ تعليمات مختلفة حصل عليها نتيجة هجوم سيبراني.
تشمل مخاطر وكلاء الذكاء الاصطناعي من وجهة نظر كاسبرسكي تسريب البيانات غير المقصود. اذ يستطيع وكيل الذكاء الاصطناعي الوصول الى العديد من البيانات الحساسة التي يخفيها المستخدم عادة.
رغم هذه المخاوف ترى كاسبرسكي حلولا للتغلب على ثغرات وكلاء الذكاء الاصطناعي. وهي تصف هذه الحلول بكونها ستارة حديدية تتغلب على الثغرات.
تبدا هذه الحلول من استخدام وكلاء الذكاء الاصطناعي في بيئة معزولة تجريبية وعدم منحهم وصولا كاملا الى البيانات الرئيسية والحقيقية. ثم استخدام اللغة الطبيعية لكتابة الاوامر الامنية واختبارها. واخيرا التحديث المستمر لبرمجيات وكلاء الذكاء الاصطناعي لتجنب الثغرات السيبرانية التي تظهر باستمرار.
لكن هل تكفي هذه الحلول لمواجهة المخاوف السيبرانية من وكلاء الذكاء الاصطناعي؟







