حذّر أحد البنوك البريطانية من أن ملايين الأشخاص قد يقعون ضحية لعمليات احتيال باستخدام الذكاء الاصطناعي لاستنساخ أصواتهم.

وقال بنك ستارلينج، وهو بنك يقدم خدمات الإقراض عبر الإنترنت فقط، في بيان: إن المحتالين قادرون على استخدام الذكاء الاصطناعي لتقليد صوت شخص ما من ثلاث ثوانٍ فقط من الصوت الموجود، على سبيل المثال، في مقطع فيديو نشره الشخص عبر الإنترنت.

وأضاف أنه يُمكن للمحتالين بعد ذلك تحديد أصدقاء الشخص وأفراد أسرته واستخدام الصوت المستنسخ بواسطة الذكاء الاصطناعي لإجراء مكالمة هاتفية لطلب المال.

وأشار البنك إلى أن مثل هذه الأنواع من عمليات الاحتيال لديها القدرة على الاحتيال والإيقاع بملايين الدولارات.

وقد أثرت هذه العمليات بالفعل على مئات الأشخاص، فبحسب استطلاع شمل أكثر من 3000 شخص بالغ، أجراه البنك بالتعاون مع شركة Mortar Research الشهر الماضي، قال أكثر من ربع المشاركين إنهم تعرضوا لعملية احتيال استنساخ صوتية باستخدام الذكاء الاصطناعي خلال الأشهر الـ12 الماضية.

كما أظهر الاستطلاع أيضاً أن 46 في المئة من المشاركين لم يكونوا على علم بوجود مثل هذه الاحتيالات، وأن 8 في المئة سيرسلون أي مبلغ من المال يطلبه صديق أو فرد من العائلة، حتى لو اعتقدوا أن المكالمة تبدو غريبة.

وقالت ليزا جراهام، كبيرة مسؤولي أمن المعلومات في بنك ستارلينج «يقوم الأشخاص بانتظام بنشر محتوى عبر الإنترنت يحتوي على تسجيلات صوتية لهم، دون أن يتخيلوا أبداً أن هذا يجعلهم أكثر عرضة للمحتالين».

ويشجع البنك الأشخاص على الاتفاق على «عبارة آمنة» مع عملائه، تكون بسيطة وعشوائية يسهل تذكرها وتختلف عن كلمات المرور الأخرى، والتي يمكن استخدامها للتحقق من هويتهم عبر الهاتف.

كما تنصح المؤسسة المالية بعدم مشاركة العبارة الآمنة عبر الرسائل النصية، ما قد يسهل على المحتالين اكتشافها، ولكن إذا تمت مشاركتها بهذه الطريقة، فيجب حذف الرسالة بمجرد أن يراها الشخص الآخر.

ومع تزايد قدرة الذكاء الاصطناعي على تقليد الأصوات البشرية، تتزايد المخاوف بشأن قدرته على إلحاق الأذى بالناس، على سبيل المثال، من خلال مساعدة المجرمين على الوصول إلى حساباتهم المصرفية، ونشر المعلومات المضللة.

في وقت سابق من هذا العام، كشفت شركة OpenAI، صانعة روبوت الدردشة المولد للذكاء الاصطناعي ChatGPT، عن أداة النسخ الصوتي Voice Engine، لكنها لم تجعلها متاحة للجمهور في تلك المرحلة، مشيرة إلى «احتمال إساءة استخدام الصوت الاصطناعي».