السلطة التقنية ليست مجرد شيء يُمارس، بل شيء يُعاش ويتمّ تشربه. ففي زمن تسللت فيه النماذج الذكية إلى كل زاوية من زوايا وعينا، لم تعد التقنية مجرد أدوات خارجية نطوّعها لخدمتنا، بل باتت تشكل طريقة تفكيرنا من الداخل. بهدوء ودهاء.
نحن لا نتعامل مع آلات نختارها، بل نكشف لها طوعًا ما لا نبوح به لأقرب الناس إلينا. دون أن نعرف نواياها أو حدود تأثيرها. فالذكاءُ الاصطناعي اليوم لم يعد يكتفي بعرض المعلومة، بل يعيد صياغتها لتناسب نقاط ضعفنا ومعتقداتنا وهشاشتِنا النفسية. إنه لا يقرأ سلوكنا فقط، بل يعيد توجيهه على نحو خفيّ متدرج. وفي عالم رقمي يعاد تشكيله على مقاس الأفراد، تصبح حرية الفكر عرضة للتآكل بصمت دون وعي أو مقاومة.
لفهم الأبعاد العملية لهذه الظاهرة، لابد من النظر إلى تجربة حقيقية أظهرت كيف يمكن للذكاء الاصطناعي أن يُستخدم في التلاعب بالمجتمعات الرقمية بشكل خفي.
تجربة ريديتم حين يتحول البحث الأكاديمي إلى خيانة رقمية
ما كان يبدو قبل أعوام كخيال علمي قاتم، بدأ يتجسد فعلاً. ففي أوائل هذا العام، اكتشف مستخدمو منتدى شهير على ريديتم (Reddit) أن مجتمعهم قد تم اختراقه من قبل باحثين متخفيين من جامعة زيورخ. نشروا أكثر من ألف تعليق تمت صياغتها بواسطة الذكاء الاصطناعي، دون علم المشاركين.
لم يكن الهدف مجرد اختبار قوة الحجج، بل تم استخدام تعليقات تحتوي على قصص شخصية زائفة، مثل الادعاء بأن المعلّق مستشار نفسي أو ضحية اغتصاب قانوني، بهدف تعزيز الإقناع.
ووفقًا للتحقيق الذي نشرته ذا أتلانتيك (The Atlantic)، اختبر هؤلاء الباحثون قدرة الخوارزميات على تغيير قناعات بشرية عبر حجج مصممة بعناية. وقد نجحوا في ذلك.
ردود الفعل على تجربة ريديتم
وما أثار الغضب بشكل خاص أن الباحثين لم يبلغوا المجتمع مسبقًا، ورفضوا الاعتذار لاحقًا أو الامتناع عن نشر نتائجهم. رغم أن العديد من الأكاديميين وصفوا التجربة بأنها "أسوأ انتهاك لأخلاقيات البحث عبر الإنترنت"، وفق تعبير أستاذة في معهد جورجيا للتكنولوجيا.
بل إن بعض المستخدمين أعربوا عن شعورهم بـ"الخيانة"، معتبرين أن الثقة التي تقوم عليها المجتمعات الرقمية مثل ريديتم قد تزعزعت بشدة.
لكن التجربة لم تتوقف عند تقديم حجج منطقية عامة، بل بدأت الخوارزميات تخصص رسائلها بناءً على فهم دقيق لسيكولوجية الأفراد، مستفيدة من ماضيهم الرقمي وسلوكهم المتكرر.
جوهر التخصيص العميق
هذا هو جوهر ما يعرف بـ"التخصيص العميق": قدرة الذكاء الاصطناعي على التسلل إلى داخل الإنسان، لا فقط عبر المعرفة، بل عبر التأثير الخفي في الهوية والمعتقد.
لم تكن تجربة ريديتم مجرد حالة استثنائية، بل كانت مرآة لميلٍ متسارعٍ نحو ما يعرف بـ"الإقناع المخصص"، حيث تُفصّل الرسائل لتُخاطب النفس البشرية من الداخل، لا عبر منطقها فقط، بل عبر هشاشتها العاطفية وانحيازاتها اللاواعية.
لكن الأمر بدا وكأنه انتهاك بالغ، خصوصًا أن الذكاء الاصطناعي منح أحيانًا إمكانية الوصول إلى سجلات المستخدمين على الإنترنت لتصميم رسائل موجهة خصيصًا لهوياتهم الفريدة.
الإقناع المخصص جاذبية محفوفة بالمخاطر
يُطلق عملاء السلوك على هذه الاستراتيجية في التواصل اسم "الإقناع المخصص" (Personalized persuasion). وغالبًا ما يبدو النهج المخصص جذابًا، فمن لا يرغب في محتوى متوافق مع اهتماماته الشخصية بدلاً من كمّ من المحتوى العشوائي وغير المتعلق به؟.
لكن الذكاء الاصطناعي يقف على أعتاب شيء أشد إثارة للقلق من مجرد تعديل الرسائل بشكل عام بناءً على خصائص يمكن التعرف عليها بسهولة. كما فعلت الحسابات التي يديرها الذكاء الاصطناعي على ريديتم.
فإذا تمكن من إتقان ما نسميه "التخصيص العميق"، فسيكون قادرًا على التسلل إلى عوالمنا الرقمية دون أن نلحظ ذلك، متعلّمًا من نحن في أعماقنا، مستفيدًا من تلك المعلومات الشخصية للتلاعب بمعتقداتنا وآرائنا بطرق قد تكون مؤذية وغير مرغوبة.
تأثير المعلومات الشخصية في الإقناع
ويشرح خبراء سيكولوجية الإقناع أن المرسل يمكنه تحسين فعالية رسائله باستخدام معلومات أساسية عن الجمهور، لكن "التخصيص العميق" يتجاوز ذلك ليصل إلى الجوانب النفسية الجوهرية لكل فرد ومعتقداته الأساسية وهويته واحتياجاته.
على سبيل المثال، تصبح الرسائل أكثر إقناعًا حين تتناغم مع القيم الأخلاقية التي يعتنقها الشخص. فقد تُعتبر قضية ما أخلاقية أو غير أخلاقية لأسباب متعددة، لكن الأفراد يختلفون في أهمية هذه الأسباب حسب بوصلاتهم الأخلاقية الخاصة.
الأشخاص ذوو الميول الليبرالية سياسيًا، مثلاً، يهتمون فرضًا أكثر بالعدالة، لذلك يزداد اقتناعهم بحجج تبرز عدالة السياسات. أما المحافظون، فعادة ما يولون أهمية أكبر للولاء الجماعي، فيتجاوبُون أكثر مع رسائل تؤكد دعم الهوية الجماعية لمجتمعهم.
التطورات في الذكاء الاصطناعي
وعلى الرغم من أن هذه الأفكار قد تبدو حديثة، فإن علماء الحاسوب يطورون تقنيات الذكاء الاصطناعي للإقناع منذ عقود. فقد تناولت تقارير حديثة، مثل بودكاست حول "مشروع المناظر الآلي" (Project Debater) من شركة "آي بي إم" (IBM)، كيف قضى هذا النظام سنوات في التدريب على فنّ المناظرة، مدعوماً بتوجيه خبراء بشريين. وفي عام 2019، خلال حدث مباشر، تمكن هذا الذكاء الاصطناعي من هزيمة بطل العالم في المناظرات.
ومع انتشار أدوات الذكاء الاصطناعي سهلة الاستخدام، مثل تطبيق "شات جي بي تي" على الهواتف، بات بإمكان الجميع توظيف هذه التقنيات لأهدافهم الإقناعية. وقد أظهرت الأبحاث أن الرسائل التي ينتجها الذكاء الاصطناعي يمكن أن تكون مقنعة بنفس القوة، وأحيانًا أكثر، من تلك التي يصيغها البشر.
في ظل هذه القدرة المتنامية على التلاعب العاطفي والمعرفي، يبرز سؤال أكثر إلحاحًا من أي وقت مضى: هل يستطيع الذكاء الاصطناعي تنفيذ "التخصيص العميق" فعلاً بشكل مستقل وعلى نطاق واسع؟.
الخطوات اللازمة لتحقيق التخصيص العميق
لكي يتمكن من ذلك، لابدّ أن ينجز خطوتين أساسيتين. ويبدو أنه في طريقه لتحقيقهما: أولاً، عليه أن يتعرف على الملف النفسي العميق لكل فرد، ليعرف "الأزرار" التي يمكن الضغط عليها. وقد بدأت الأدلة في الظهور، إذ أظهرت دراسات أن الذكاء الاصطناعي قادر، بدرجة مقلقة من الدقة، على استنتاج السمات الشخصية لأشخاص فقط من منشوراتهم على "فيسبوك".
ولم يتوقف الأمر عند هذا الحد. ففي إحدى حلقات البودكاست، صرحت الدكتورة ساندرا ماتز، أستاذة في كلية كولومبيا للأعمال ومؤلفة كتاب "سادة العقل" (Mindmasters)، قائلة: "في الواقع، كل ما تحاول التنبؤ به تقريبًا يمكن التنبؤ به بدرجة معينة من الدقة، استنادًا إلى البصمة الرقمية للأشخاص".
أما الخطوة الثانية، فهي أن يتمكن الذكاء الاصطناعي من توليد رسائل تتناغم بعمق مع هذه الملفات النفسية. وفي هذا السياق، بدأت أبحاث حديثة تظهر أن "جي بي تي" (GPT) قادر على تصميم إعلانات تتماشى مع شخصيات الناس وقيمهم ودوافعهم، وتكون أكثر تأثيرًا لدى الفئة المستهدفة.
التحذيرات من التخصيص العميق
فعلى سبيل المثال، عندما طُلب منه إنشاء إعلان "لشخص واقعي وتقليدي"، جاءت الاستجابة كالتالي: "لن يكلفك كثيرًا وسيؤدي الغرض". وهي رسالة ثبت أنها أكثر إقناعًا لدى من تنطبق عليهم هذه السمات.
ومع تطور هذه الأنظمة، ستتسع قدراتها لتشمل التخصيص العميق في الصور المزيفة (Deepfakes) وأنماط الصوت المعدلة، والمحادثات الديناميكية بين الإنسان والآلة.
غالبًا ما تمنح الموافقات على شروط الخدمة المعلنين حق استخدام بيانات المستخدم دون علمه. وهذا يثير قضايا أخلاقية حول كيفية استخدام هذه البيانات وتأثيرها على الأفراد.
كيف نحمي وعينا في عصر الإقناع المخصص؟
من جهة المستخدم، من المهم أن يدرك أن التواصل الموجه أصبح واقعًا. فعندما تشعر أن رسالة ما "مصممة خصيصًا لك"، فغالبًا ما تكون كذلك. حتى وإن ظننت أنك لا تكشف الكثير عن نفسك على الإنترنت، فإنك تترك إشارات خفية في كل نقرة، وكل عملية بحث، وكل موقع تزوره.
وقد تكون منحت الإذن للمعلنين باستخدام هذه البيانات دون أن تدري، عبر موافقتك على شروط خدمة لم تقرأها بعناية. لذا، فإن مراجعة سلوكك الرقمي واستخدام أدوات مثل الشبكة الخاصة الافتراضية "في بي إن" (VPN) يمكن أن تساعدك على تقليل هذا التعرض.
لكن المسؤولية لا تقع على الأفراد وحدهم. فعلى المنصات وصنّاع القرار العمل على سنّ قوانين واضحة تلزم بالإفصاح عن أي محتوى مخصص، وتحديد السبب الذي دفع إلى توجيهه لهذا الشخص بالذات.
وقد أظهرت الأبحاث أن الناس يكونون أكثر مقاومة للتأثير حين يعرفون أن أسلوبًا معينًا يُستخدم ضدهم. كما يجب وضع حدود لما يمكن استخدامه من بيانات، لأن العمق الزائد في التخصيص قد يتحول من أداة مساعدة إلى أداة تلاعب.
ورغم تقبل الناس عمومًا لفكرة المحتوى المخصص، فإنهم يشعرون بالقلق من استخدام بياناتهم الشخصية. وهذا التوتر يجب احترامه لا تجاوزه.
فحتى مع وجود هذه الضوابط، فإن أدنى ميزة في التواصل قد تستغل إذا وقعت في الأيدي الخطأ. فقد لا يكون من المقلق أن يقترح عليك متجر إلكتروني منتجًا شائعًا بين من يشبهونك، لكن الخطورة تكمن في أن يقابلك حاسوب متنكر، يكون قد فكك شخصيتك دون علمك، ونسجها في رسالة خادعة.
ومع أن كثيرًا من الأمثلة الواردة تنبع من السياق الغربي، فإن ملامح "الإقناع المخصص" بدأت تتسلل أيضًا إلى الفضاء الرقمي العربي، من خلال الاستخدام المتزايد للبيانات في الحملات الإعلامية والتجارية والسياسية. وهذا يجعل الحاجة إلى الوعي والتنظيم أشدّ إلحاحًا في بيئات تفتقر أحيانًا إلى الشفافية أو الأطر القانونية الواضحة.
بالنهاية، فإن أي أداة تواصل يمكن استخدامها للخير أو الشر. لكن الوقت قد حان لبدء نقاش جاد حول السياسات الأخلاقية لاستخدام الذكاء الاصطناعي في الإقناع والتواصل، قبل أن تبلغ هذه الأدوات درجة من التطور تجعل السيطرة عليها أمرًا بالغ الصعوبة.







