القائمة الرئيسية

ticker مجلس الوزراء يقر إجراءات لتبسيط ترخيص المركبات ticker الحاج توفيق يطرح مبادرة عربية لاستدامة سلاسل الإمداد وأمن الطاقة والغذاء ticker الحاج توفيق يلتقي امين عام جامعة الدول العربية ticker تراجع الريال الايراني وارتفاع الدولار يثير قلقا اقتصاديا ticker الهاكرز يستخدمون الإيموجي كأداة تمويه في الهجمات السيبرانية ticker بنك التنمية الآسيوي يطلق برنامجاً لتوسيع البنية التحتية الرقمية والطاقة ticker "المناطق الحرة والتنموية" تستعد لإطلاق 3 مشاريع سياحية كبرى في البحر الميت ticker 14.8 مليون دينار حجم التداول في بورصة عمان ticker الصوامع: 20 مليون دينار مبيعات وإيرادات 2025 ticker "الجمارك" تضبط كميات كبيرة من مواد مهربة ticker ارتفاع أرباح شركات بورصة عمان 9.9% خلال الربع الأول من 2026 ticker الهيئة العامة لكابيتال بنك تصادق على توزيع أرباح نقدية بنسبة 17% من رأس المال ticker لتطوير ألعاب مدعومة بالذكاء الاصطناعي.. منصّة زين و Replit وطماطم يدعون المطوّرين للتسجيل في هاكاثون “Prompt and Play” ticker السعودية تحقق المرتبة الثانية عالميا في جذب مراكز البيانات ticker زيادة إنتاج النفط في أوبك بلس بمقدار 188 ألف برميل يوميا ticker ارتفاع الأصول الاحتياطية للبنك المركزي السعودي لأعلى مستوى منذ 2020 ticker طرق فعالة لحرق السعرات الحرارية في المنزل ticker الجانب المظلم للذكاء الاصطناعي وصيدليات التزييف العميق ticker زيادة جديدة في إنتاج النفط ضمن تحالف أوبك بلس ticker إسبانيا تسعى للاحتفاظ بمقعد في البنك المركزي الأوروبي

الجانب المظلم للذكاء الاصطناعي وصيدليات التزييف العميق

{title}

استطاعت تقنية التزييف العميق زعزعة أركان اليقين وجعلت الحواس البشرية غير كافية للتحقق من مصداقية ما نراه أو نسمعه. حيث لم يعد الصوت الذي تسمعه عبر الهاتف بالضرورة صوت ابنك المستغيث، ولا الوجه الذي يبتسم لك في اجتماع الفيديو هو بالضرورة وجه مديرك المالي.

كشفت هذه التقنية عن الجانب المظلم للذكاء الاصطناعي المتمثل في الصيدليات الرقمية التي تبيع أدوات التزييف العميق الجاهزة للاستخدام بصفتها خدمة لمن ليس لديه خبرة برمجية، مما أدى إلى ظهور جيل جديد من عمليات الاحتيال المعتمدة على النسخ المزيفة من الأصوات والوجوه.

بدأت تقنية التزييف العميق تجربة تعتمد على الشبكات العصبية التنافسية، لكنها تحولت سريعا إلى صناعة مزدهرة. حيث انتقلنا من عصر صناعة المحتوى إلى عصر تزييف الواقع. ويكفي وجود ثوان معدودة فقط من صوت شخص ما لتدريب نموذج ذكاء اصطناعي يقلد النبرة والإيقاع واللهجة بدقة، في حين يعتمد تزييف الفيديوهات على لقطات عامة أصبحت فيها حركات العين ورمش الجفون وانعكاس الإضاءة على الجلد طبيعية تماما.

برزت أدوات في مجال استنساخ الصوت قادرة على محاكاة المشاعر الإنسانية، مثل "إيلفين لابس" و"ريسمبل أيه آي"، بينما تسمح أدوات مثل "هايجين" و"راسك أيه آي" بإنشاء فيديوهات تتحدث بلغات متعددة مع مزامنة حركة الشفاه بدقة.

كما ظهرت نماذج لغوية كبيرة مصممة خصيصا للجريمة، مثل "وورم جي بي تي" و"كاواي جي بي تي"، مما يسمح للمحتالين بصياغة رسائل تصيد فائقة التخصيص بلغات متعددة وبسرعة.

مع تقدم تقنيات التزييف العميق التي تباع بأسعار زهيدة عبر الويب المظلم، أصبح من السهل إنتاج فيديو مزيف لمدير بنك أو صوت مستنسخ لابنة تستغيث.

وفق تقرير مركز شكاوى الجرائم الإلكترونية التابع لمكتب التحقيقات الفيدرالي، تجاوزت الخسائر الناتجة عن الاحتيال المدعوم بالذكاء الاصطناعي نحو 893 مليون دولار في الولايات المتحدة. وفي الربع الأول من العام، بلغت الخسائر من الاحتيال المعتمد على التزييف العميق أكثر من 200 مليون دولار في أمريكا الشمالية، وسجل عام زيادة كبيرة في الحالات، وشكلت حوادث التزييف العميق نحو 4 من كل 5 حوادث احتيال معتمدة على الذكاء الاصطناعي.

وفقا لتقرير من شركة "مكافي"، يرى الأمريكيون في المتوسط 3 حالات تزييف عميق يوميا، ويعترف واحد من كل 10 بتعرضه لعملية احتيال عبر استنساخ الصوت. كما أن واحدا من كل 4 أمريكيين تلقى مكالمة صوتية مزيفة في العام الماضي، و24 في المئة آخرون غير متأكدين من قدرتهم على التمييز.

تعتمد قوة التزييف العميق في قدرته على اختراق الأصالة المعرفية، حيث أن الدماغ البشري مبرمج للوثوق بنبرة الصوت المألوفة وملامح الوجه المعروفة، خاصة في حالات الطوارئ.

تزيل واقعية الصوت المستنسخ حواجز الشك، وتتوقف الدفاعات العقلانية عن العمل إذا كان الصوت يبدو كصوت مألوف. ومن خلال عملية تسمى "احتيال الطوارئ العائلية"، يتظاهر المحتال بأنه قريب يمر بأزمة طارئة، مثل الاعتقال أو السجن أو حادث سيارة، ويطلب أموال بشكل عاجل.

يستغل المحتال المشاعر، ويستخدم تقنيات متطورة من أجل إقناع الضحية التي تتصرف تحت الضغط العاطفي والزمني دون تفكير، وفي قضية شهيرة، تلقت شارون برايتويل مكالمة من رقم يشبه رقم ابنتها، وسمعت صوتا يبكي يدعي أنه ابنتها ويقول إنها تسببت في حادث سيارة أصابت فيه امرأة حامل، وأنها الآن رهن الاعتقال وتحتاج إلى كفالة.

تحدث محتال آخر انتحل صفة محام وطالبها بمبلغ 15 ألف دولار ككفالة نقدية، وبعد دفعه، اكتشفت شارون الخدعة وأن ابنتها بخير، وأن الصوت مستنسخ بالذكاء الاصطناعي. وتشمل الحالات الأخرى رسائل صوتية تطلب تحويلات عاجلة عبر تطبيقات مثل "باي بال" أو "فينمو" مع التركيز على الضغط النفسي.

يشير استطلاع "مكافي" إلى أن أغلب الناس قد يردون على رسالة صوتية مزيفة من قريب يطلب مال، وخاصة في سيناريوهات الحوادث أو السرقة، ويعد كبار السن هم الأكثر عرضة، حيث تجاوزت خسائرهم من الجرائم الإلكترونية نحو 4.8 مليارات دولار. ومن المتوقع ارتفاعها مع انتشار الذكاء الاصطناعي.

سجل تقرير "مكتب التحقيقات الفيدرالي" أكثر من 22 ألف شكوى متعلقة بالذكاء الاصطناعي، بينها ملايين الدولارات من عمليات "احتيال الطوارئ العائلية" التي تستخدم الأصوات المزيفة لعائلات في أزمة.

لم تتوقف الهجمات عند الأفراد، وإنما انتقلت لتهدد عصب الاقتصاد العالمي. ويشمل ذلك الواقعة الشهيرة التي هزت الأوساط المالية في هونغ كونغ، وكانت ضحيتها شركة الهندسة البريطانية العالمية "أروب".

بدأت القصة برسالة بريد إلكتروني من المدير المالي المقيم في لندن يطلب تحويل مالي سري. وهو ما أثار شكوك الموظف في البداية كعملية تصيد تقليدية. وكان المحتالون قد أعدوا كمين بصري متطور، حيث دعي الموظف إلى اجتماع فيديو، ليجد أمامه المدير المالي وعددا من الزملاء الذين يعرفهم جيدا.

ولكن ما لم يعرفه الموظف هو أن جميع الحاضرين في الاجتماع، باستثناءه هو، كانوا نسخ رقمية مولدة عبر التزييف العميق بالاعتماد على فيديوهات سابقة لاجتماعات الشركة. وتحت ضغط الأوامر المباشرة من المدير المالي في الفيديو، نفذ الموظف عمليات التحويل إلى حسابات بنكية مختلفة بقيمة إجمالية قدرها نحو 25.6 مليون دولار. ولم تكتشف عملية الاحتيال إلا بعد مدة عندما اتصل الموظف بالمكتب الرئيسي للاستفسار.

كشفت هذه الحادثة عن حقيقة أن الفيديو لم يعد دليل على الوجود، وعُدَّت مثال بارز على كيفية دمج التزييف العميق مع عمليات "اختراق البريد الإلكتروني للعمل"، حيث أصبح الاحتيال تجربة بصرية وصوتية متكاملة.

سجلت حالات مشابهة في شركات أخرى، مثل خسارة 220 ألف يورو في شركة طاقة بريطانية أو قرابة 500 ألف دولار في شركة سنغافورية. ويستهدف المحتالون الشركات عبر عمليات احتيال مدعومة بالذكاء الاصطناعي، حيث ينتحلون شخصيات المدراء التنفيذيين من أجل طلب تغيير بيانات الدفع أو إجراء تحويلات سرية.

يشير تقرير "مكتب التحقيقات الفيدرالي" إلى أن عمليات اختراق البريد الإلكتروني للعمل وحدها تسببت في خسائر تصل إلى 3 مليارات دولار، مع تزايد استخدام الصوت والفيديو المزيفين. وتجاوزت الخسائر العالمية لعمليات الاحتيال المعتمدة على التزييف العميق مئات الملايين، ومن المتوقع أن يصل الرقم إلى 40 مليار دولار بحلول 2027.

مع كل فيديو وتسجيل صوتي وصور عالية الدقة تنشرها على منصات التواصل، فإنك تترك بصمة رقمية تمثل مواد خام لتدريب الذكاء الاصطناعي على إنشاء توأم رقمي يقلدك في الصوت والحركات والتعبيرات الوجهية.

تبدأ عملية سرقة هويتك من خلال جمع البيانات من الحسابات العامة، وتزويد نماذج الذكاء الاصطناعي بهذه البيانات لتدريبها على نبرة الصوت وإيماءات الوجه وطريقة الكلام، الأمر الذي يسمح بإنتاج محتوى جديد – صوتي أو مرئي – يبدو حقيقيا.

يستخدم المحتالون هذا النموذج في الابتزاز أو طلب قروض باسمك أو الوصول إلى حسابات بنكية إذا كانت أنظمة التحقق الصوتي ضعيفة، مما يعني أن نسختك الرقمية لم تعد ملكك وحدك، وإنما متاحة للبيع والاستغلال في أي وقت.

في بعض الحالات، يستخدم التوأم الرقمي في مكالمات فيديو مزيفة لإقناع زملاء أو شركاء بمعاملات مشبوهة.

من أجل مواجهة صيدليات التزييف العميق، تحتاج العائلة إلى اختيار عبارة سرية لا تذكر بشكل علني، وطلبها عند ورود أي مكالمة طارئة، مع عدم الوثوق بالصوت أو الصورة وحدهما والتحقق قبل إجراء أي تحويل مالي.

ينبغي تقليل مشاركة البيانات الصوتية والبصرية وجعل حسابات وسائل التواصل خاصة، وتجنب نشر الفيديوهات الطويلة أو الرسائل الصوتية الواضحة، مع استخدام فلاتر الخصوصية وأدوات إزالة البيانات من مواقع الوسطاء.

أما فيما يتعلق بالشركات، فإنه يجب التحقق عبر قناة مستقلة تماما من أي طلب مالي غير متوقع بافتراض أن أي طلب هو تهديد محتمل حتى لو كان من داخل الشبكة. وينبغي تدريب الموظفين بانتظام عبر إجراء محاكاة لمكالمات التزييف العميق من أجل أن تعتاد الأذن والعين على اكتشاف الاختلافات الدقيقة في النبرة أو الحركات غير الطبيعية، مع الحد من المحتوى العام للتنفيذيين على الإنترنت ومراقبة الحسابات بحثا عن تسريبات.

كما يجب الاعتماد على تقنيات القياسات الحيوية الصوتية مع كشف الحيوية وأدوات كشف التزييف العميق في مكالمات الفيديو، والمصادقة المتعددة العوامل، دون الاعتماد على الصوت أو الفيديو وحدهما للمعاملات الحساسة.

وعلى المستوى العام، ينبغي على الشركات التقنية تطوير أدوات كشف جماعية للمحتوى المولد بالذكاء الاصطناعي، فيما تحتاج الحكومات إلى سن قوانين تجرم التزييف العميق وتعتبره نوعا من أنواع انتحال الشخصية. ويفرض قانون الذكاء الاصطناعي في الاتحاد الأوروبي التزامات الشفافية والوسم الإلزامي للمحتوى المزيف، بينما تقدم الولايات المتحدة مشاريع قوانين لمكافحة الاحتيال والمحتوى غير التوافقي.

إن صيدليات التزييف العميق تهز أسس الثقة في التواصل الرقمي وتؤدي إلى خسائر مالية وعاطفية تطال العائلات والشركات على حد سواء. ولكن يمكن تحويل هذه التقنية إلى درع يحمينا عبر التوعية المستمرة والتحقق الدائم والاستثمار في التقنيات الدفاعية والسلوكيات الوقائية.