هشدار کلاهبرداری با صدای هوش مصنوعی؛ قربانیان صدای آشنای خود را می‌شنوند!

کلاهبرداران با استفاده از فناوری پیشرفته هوش مصنوعی، شگرد جدیدی را برای فریب شهروندان به کار گرفته‌اند. در این روش، با تقلید صدای افراد آشنا و نزدیک، قربانیان را به واریز وجه تحت فشار قرار می‌دهند. اخیراً کاربری در شبکه‌های اجتماعی از تجربه تماس با خاله‌اش خبر داده که در آن، فردی با صدای پسر خاله خود ادعا کرده دچار حادثه شده و نیاز فوری به پول دارد. این صدا با لحن و تکیه‌کلام‌های مشابه، قربانی را در موقعیت تصمیم‌گیری عجولانه قرار داده است.

این نوع کلاهبرداری که با استفاده از تکنیک «دیپ فیک» (Deepfake) انجام می‌شود، در ماه‌های اخیر موارد متعددی در ایران گزارش شده و طبق آمارهای جهانی، روند رو به رشدی دارد. دیپ فیک به رسانه‌های مصنوعی گفته می‌شود که با استفاده از هوش مصنوعی، چهره یا صدای افراد را تغییر داده یا جایگزین می‌کند.

ارژنگ ملک، رئیس کارگروه ارتباط با صنعت کمیسیون هوش مصنوعی و علم داده نظام صنفی رایانه‌ای استان تهران، برای مقابله با این شیوه کلاهبرداری توصیه می‌کند: «در صورت دریافت تماس‌های مشکوک مبنی بر درخواست کمک مالی از سوی آشنایان، صرفاً به صدا اکتفا نکنید. در صورت امکان، تماس تصویری برقرار کنید یا تماس را قطع کرده و مستقیماً با فرد مورد نظر تماس بگیرید تا صحت موضوع را از طریق تأیید چندمرحله‌ای احراز کنید.»

وی همچنین تاکید کرد: «کلاهبرداران معمولاً از ترس و عجله قربانیان سوءاستفاده می‌کنند تا آن‌ها را وادار به تصمیم‌گیری شتاب‌زده کنند. در چنین شرایطی، حفظ خونسردی و تفکر منطقی برای اتخاذ تصمیمی عاقلانه ضروری است تا از هیجان و فشار ناشی از تماس صوتی در امان بمانید.»

منبع: khabaronline_ir