مع التقدم السريع في تقنيات الذكاء الاصطناعي، أصبح العالم الرقمي مليئًا بالفرص والابتكارات التي تَعِد بتحقيق تحول كبير في حياتنا اليومية. ومع ذلك، يبرز تهديد جديد يتمثل في استغلال هذه التقنيات في عمليات احتيال متطورة، تجعل من الصعب على الأفراد التمييز بين الواقع والخداع. فقد تطورت عمليات الاحتيال من أساليب بدائية إلى هجمات تكنولوجية تستغل إمكانيات الذكاء الاصطناعي لإلحاق خسائر كبيرة للأفراد والشركات على حد سواء.
كيف اختلفت عمليات الاحتيال مع التطور التكنولوجي؟
في الماضي، كانت عمليات الاحتيال تعتمد على أساليب بسيطة، مثل: المكالمات الهاتفية التقليدية التي يقوم بها أشخاص يقرأون نصوصًا مكتوبة لإقناع الضحايا بالكشف عن معلومات شخصية أو مالية. ورغم بساطة هذه الأساليب، كانت فعالة بنحو ملحوظ. فوفقًا للجنة التجارة الفيدرالية الأمريكية، خسر الأمريكيون ما يزيد عن 8.8 مليارات دولار في عام 2022 بسبب الاحتيال، وكانت المكالمات الهاتفية من أكثر الأساليب استخدامًا.
وأما في الوقت الحالي مع التطور التكنولوجي واستخدام تقنيات الذكاء الاصطناعي، أصبحت هذه العمليات أكثر تطورًا وتعقيدًا من قبل، مما يجعلها وسيلة لخداع الضحايا بسهولة كبيرة، وبطريقة يصعب اكتشافها.
كيف تُستخدم تقنيات الذكاء الاصطناعي في الاحتيال؟
يمثل الجمع بين تقنيات الذكاء الاصطناعي المتقدمة تحولًا خطيرًا في كيفية تنفيذ عمليات الاحتيال، فقد أصبح المحتالون يستخدمون مجموعة من هذه التقنيات لإجراء عمليات احتيال بطريقة احترافية يصعب كشفها. ومن أبرز هذه التقنيات:
النماذج اللغوية الكبيرة (LLMs):
يُمكن للنماذج اللغوية الكبيرة إنشاء نصوص بشرية طبيعية، ويمكنها الإجابة عن الأسئلة المتنوعة، وتقديم ردود ذكية وسريعة. ويمكن للمحتالين استخدامها لكتابة نصوص مقنعة وتوليد ردود مناسبة بناءً على ما تقوله الضحية، مما يجعل من الصعب اكتشاف أن المتحدث ليس شخصًا حقيقيًا.
توليد الأصوات بالذكاء الاصطناعي:
تتوفر في الوقت الحالي أدوات مدعومة بالذكاء الاصطناعي يمكنها توليد أصوات مطابقة تمامًا لصوت شخص معين بناءً على عينات صغيرة من صوته. يمكن للمحتالين استغلال هذه الأدوات لإجراء مكالمات تبدو كأنها من فرد من أفراد العائلة أو الأصدقاء، مما يجعل الضحايا يشعرون بالثقة بالمتحدث، ويتخذون قرارات سريعة فيما يتعلق بدفع مبلغ مالي أو تقديم معلومات حساسة.
توليد مقاطع الفيديو بالذكاء الاصطناعي:
يمكن لأدوات توليد مقاطع الفيديو بالذكاء الاصطناعي إنشاء مقاطع فيديو تبدو حقيقية تظهر فيها شخصيات افتراضية تتحدث وتتحرك بنحو طبيعي. ويمكن للمحتالين استخدام هذه الأدوات لإنشاء مكالمات فيديو بهدف الاحتيال.
تزامن حركة الشفاه:
تتوفر تقنيات مثل تلك التي تطورها Sync Labs يمكنها مزامنة الصوت الاصطناعي مع حركة الشفاه في مقاطع الفيديو. وهذا يعني أن المحتال يمكنه إنشاء مقاطع فيديو مزيفة تبدو فيها الشخصيات كأنها تتحدث حقًا.
تحليل البيانات الشخصية:
باستخدام تقنيات مثل التوليد المعزز بالاسترجاع (Retrieval-augmented generation – RAG)، يمكن للمحتالين جمع المعلومات الشخصية المتاحة عبر الإنترنت وتحليلها. ويمكنهم استخدام هذه المعلومات لتخصيص هجماتهم لتبدو أكثر واقعية، مثل: ذكر تفاصيل عن مكان عمل الضحية أو أنشطتها الأخيرة.
كيف تبدو عمليات الاحتيال المدعومة بالذكاء الاصطناعي؟
تخيل أنك تتلقى مكالمة هاتفية من رقم معروف لديك، بصوت أحد أفراد عائلتك وخلال المكالمة يطلب منك المساعدة بنحو عاجل بتحويل مبلغ مالي أو تقديم معلومات حساسة مثل رقم حسابك البنكي. وقد يُجري المحتال مكالمة مرئية يظهر فيها وجه مألوف يتحدث معك، ويقدم تفاصيل دقيقة تجعلك تصدق أن الأمر حقيقي تمامًا. مثل هذا السيناريو أصبح ممكنًا بفضل دمج تقنيات الذكاء الاصطناعي المتقدمة. وفي المستقبل، يمكن أن تصبح هذه السيناريوهات شائعة بنحو متزايد، وأكثر تعقيدًا.
الحاجة إلى إستراتيجيات أمنية جديدة:
مع ازدياد تعقيد عمليات الاحتيال المدعومة بالذكاء الاصطناعي، أصبح من الضروري تطوير إستراتيجيات شاملة لمواجهتها على المستويين الفردي والمؤسسي، وأهم هذه الإستراتيجيات:
1- تحسين القوانين والتشريعات:
يمكن لقوانين حماية البيانات الصارمة أن تحد من كمية المعلومات الشخصية المتاحة عبر الإنترنت، مما يصعب على المحتالين استغلالها. من ناحية أخرى، قد يصبح من الضروري تنظيم الوصول إلى تقنيات الذكاء الاصطناعي المتقدمة، وجعلها متاحة لمؤسسات معينة وليست متاحة للجميع.
2- تطوير أنظمة للكشف عن المحتوى المولد بالذكاء الاصطناعي:
من المهم تطوير أنظمة يمكنها تحليل الأصوات في أثناء إجراء المكالمات لاكتشاف الصوت المزيف. بالإضافة إلى ضرورة تطوير خوارزميات متقدمة لتحليل مقاطع الفيديو لكشف الأنماط غير الطبيعية والتزييف.
3- التوعية العامة:
يجب أن تطلق الحكومات والمؤسسات حملات توعية لتعريف الأفراد مخاطر هذه التقنيات وطرق الحماية منها.
نسخ الرابط تم نسخ الرابط