المصري للتأمين يكشف التحديات التي يواجها التأمين في ظل عمليات التزييف العميق

علاء الزهيري
علاء الزهيري

قال الاتحاد المصري للتأمين خلال نشرته الأسبوعية برئاسة علاء الزهيري، إن الذكاء الاصطناعى «Artificial Intelligence» يشكل فرصة لآلاف الأشخاص حول العالم، لتسهيل العديد من مهامهم اليومية، وتحسين جودة حياتهم، لكنه قد يمثل تحديًا كبيرًا خاصة على أمن الأفراد الذى يعتبر أساس الأمن المجتمعى ككل.

وتابع الاتحاد المصرى للتأمين، فبرغم الفوائد والمميزات التى يقدمها الذكاء الاصطناعى للافراد، فإن الجانب المظلم لتلك التكنولوجيا المتقدمة ظهر أسرع من المتوقع، وبدأ يشكل خطرًا على الأفراد والمجتمعات والمؤسسات، عبر تقنيات «التزييف العميق»، التى تمكّن المحتالين من إنتاج محتوى وهمى يُشبه الواقع، مثل الصور والفيديوهات والأصوات (الرسائل الصوتية)، واستخدامها فى عمليات النصب، حيث نتج عن إساءة استخدام تلك التقنيات عمليات نصب واحتيال عديدة لابتزاز الأفراد، وسط مخاوف من أن تتطور تلك الافعال لتنفيذ عمليات احتيالية واسعة النطاق، مثل تزوير التوقيعات والشهادات الرسمية.

ويتوقع خبراء التكنولوجيا تزايد هذه المشكلات فى المستقبل، خاصة مع تطور التقنيات وتوافرها بسهولة، تحديدًا فيما يتعلق يتقنية تزييف الأصوات.

التزييف العميق: هي تقنية تقومُ على صنعِ فيديوهات مزيّفة عبر برامج الحاسوب من خِلال برامج الذكاء الاصطناعي. حيث تقومُ هذهِ التقنيّة على محاولة دمجِ عددٍ من الصور ومقاطع الفيديو لشخصيّةٍ ما من أجلِ إنتاج مقطع فيديو جديد – باستخدام تقنية التعلم الآلي – قد يبدو للوهلة الأولى أنه حقيقي لكنّه في واقع الأمر مُزيّف.

تقنيات التزييف الصوتي

تعد تقنية الصوت التي تم إنشاؤها بواسطة الذكاء الاصطناعي أحد هذه التطورات التكنولوجية التي تتمتع بإمكانيات هائلة ولكنها في بعض الأحيان تجلب معها تهديدات جديدة.

وحتى الآن تم استخدام تقنية تزييف الصوت لأغراض الترفيه على سبيل المثال ، تم بالفعل استخدام اصوات بواسطة الذكاء الاصطناعي في الأفلام لتكرار أصوات الممثلين أو استخدام أصوات مطربيين قد توفوا بالفعل منذ عشرات السنوات لغناء بعض الأغاني الحديثة ، وبجانب الأغراض الترفيهية يمكن استخدامها قريبًا لأغراض تعليمية مثل الكتب الصوتية.

الاحتيال عن طريق تزييف الأصوات

يحتاج المحتال إلى مقطع مدته 20 ثانية لشخص يتحدث - يتم تنزيله عادةً من منصات التواصل الاجتماعي - لاستنساخ صوت الشخص وذلك لاستخدامه في ارتكاب عمليات احتيال.

إن الاستخدامات الإجرامية لتقنية الصوت التي تم إنشاؤها بواسطة الذكاء الاصطناعي لا حصر لها، حيث يمكن للمحتالين الاتصال ببعض الاشخاص ومحاولة خداعهم باستخدام أصوات اشخاص يعرفونهم بالفعل للقيام ببعض الإجراءات ، مثل إرسال الأموال أو مشاركة المعلومات الشخصية الخاصة بالبنوك.

المخاطر التي يتسبب فيها التزييف العميق

من الواضح أن المشكلات المتعلقة بتقنية التزييف العميق متعددة ، بدءاً من انتهاكات الخصوصية إلى انتهاكات قانون حقوق الطبع والنشر - مع الاستخدامات في النشاط الإجرامي مثل الاختطاف أو النشاط الاحتيالي.

كما هو الحال مع غالبية التكنولوجيا ،فإن معظم أدوات الذكاء الاصطناعي سهلة الاستخدام والوصول وغالبًا ما تكون متاحة مجانًا على الإنترنت في بعض الدول. مما يعني أنه لا توجد حدود لاستخدام تلك التقنية مما يشكل تهديداً على الاشخاص.

وبالنسبة للاشخاص المعروفين ، هناك خطر أن يتم استنساخ صوتهم وتسجيله بشيئًا مثيرًا للجدل ، مما قد يضر بسمعتهم امام الجمهور. وتمتد مخاطر التزييف العميق أيضًا إلى اختراق الأمان والخصوصية. وعلى وجه التحديد، تقنية التعرف على بصمة الوجه.

وأشار الاتحاد المصري خلال نشرته الي انه يمكن تلخيص مخاطر التزييف العميق في النقاط الاتي

نشر التضليل والدعاية الكاذبة.

الإضرار بالسمعة

اختراق الأمان والخصوصية

التحديات التي تواجهها شركات التأمين تجاه التزييف العميق

وكشفت النشرة التحديات التي تواجه شركات التأمين على الممتلكات خاصة فرع التأمين ضد الحوادث تحديات متعلقة يتقنية التزييف العميق. حيث يمكن للمحتالين إنشاء مستندات وصور فوتوغرافية لممتلكات أو عمل تجاري غير موجود واستخدامهم لشراء وثيقة تأمين.

فمن حيث الادعاءات، يمكن تزيف الحوادث والحرائق بالقليل من الخبرة التكنولوجية. وذلك عن طريق استخدام أي تطبيق لتزييف الصور.

ونظرًا لاستمرار نمو الخدمات التي تتم بشكل آلي في صناعة التأمين والتي تمكن الأشخاص من تقديم مطالبات بالصور الكترونياً فهناك احتمالية حدوث خسائر فادحة من خلال الاحتيال في التأمين في حالة عدم وجود أجهزة الكشف عن التزييف العميق.

وقال الاتحاد المصري للتأمين إنه وبالرغم من أن قطاع التأمين يعمل في الوقت الحالي على زيادة الخدمات الآلية بمعدل سريع، لكن تلك السرعة لا تتماشى مع السرعة مع معدل استخدام شركات التأمين لبرامج اكتشاف الاحتيال.

ففي استطلاع رأي أجرته إحدى الشركات، أوضح أن أكثر من 50٪ من شركات التأمين يخططون لتقديم خدماتهم بشكل آلي في غضون عام، بينما يستخدم 22٪ فقط من الشركات شكلاً من أشكال برامج الكشف عن التزييف العميق.

الحلول المحتملة لشركات التأمين لمواجهة تكنولوجيا التزييف العميق

عادةً ما يكون هناك خياران يظهران أمام شركة التأمين، بمجرد تلقي الوسائط التي تم التقاطها عبر المؤمن لهم. ويجوز لها إما أن تطلب من المؤمن له إعادة إتخاذ الصور أو مقاطع الفيديو، أو قد تقبل الوسائط وتقوم بالتحقق من صحتها بنفسها. ومع ذلك، ما لم يكن لدى المؤمن له سجل من عمليات الاحتيال في مجال التأمين، فمن غير المرجح أن تقوم شركة التأمين بإجراء فحص متعمق للصور والفيديوهات المرسلة.

ولحسن الحظ مع النمو السريع في التحول الآلي للعديد من المعاملات، تم أيضًا تحقيق تقدم كبير في تصميم البرامج القادرة على اكتشاف التزييف العميق. حيث يشارك الباحثون بإستمرار في تطوير أدوات الذكاء الاصطناعي القوية التي يمكنها اكتشاف صحة صورة أو مقطع فيديو معين. هذه الأدوات هي في الأساس روبوتات تم إدارتها لفحص كمية هائلة من البيانات وتدريبها بشكل روتيني لتحديد مجموعة معينة من الحالات الشاذة والأنماط التي قد قد تكون ناتجة عن تزييف عميق. وذلك عن طريق تحليل تناسق الضوء والظلال بالصورة، إلى إكتشاف التناقضات في أنماط الضرر بالممتلكات المؤمن عليها.

ومع ذلك، فإن تنفيذ تلك الآليات ليست بالأمر السهل. فعلى سبيل المثال، قد يستغرق تحليل الصور ومقاطع الفيديو لإكتشاف عمليات التزييف العميقة قدراً كبيراً من الوقت والمال، وذلك نظراً للتقدم المستمر والسريع في تكنولوجيا التزييف العميق.

 

اقرأ أيضا «الاتحاد المصري» يستعرض تأمين تعويضات الجوائز