هشدار کلاهبرداری با صدای هوش مصنوعی؛ قربانیان صدای آشنای خود را میشنوند!
کلاهبرداران با استفاده از فناوری پیشرفته هوش مصنوعی، شگرد جدیدی را برای فریب شهروندان به کار گرفتهاند. در این روش، با تقلید صدای افراد آشنا و نزدیک، قربانیان را به واریز وجه تحت فشار قرار میدهند. اخیراً کاربری در شبکههای اجتماعی از تجربه تماس با خالهاش خبر داده که در آن، فردی با صدای پسر خاله خود ادعا کرده دچار حادثه شده و نیاز فوری به پول دارد. این صدا با لحن و تکیهکلامهای مشابه، قربانی را در موقعیت تصمیمگیری عجولانه قرار داده است.
این نوع کلاهبرداری که با استفاده از تکنیک «دیپ فیک» (Deepfake) انجام میشود، در ماههای اخیر موارد متعددی در ایران گزارش شده و طبق آمارهای جهانی، روند رو به رشدی دارد. دیپ فیک به رسانههای مصنوعی گفته میشود که با استفاده از هوش مصنوعی، چهره یا صدای افراد را تغییر داده یا جایگزین میکند.
ارژنگ ملک، رئیس کارگروه ارتباط با صنعت کمیسیون هوش مصنوعی و علم داده نظام صنفی رایانهای استان تهران، برای مقابله با این شیوه کلاهبرداری توصیه میکند: «در صورت دریافت تماسهای مشکوک مبنی بر درخواست کمک مالی از سوی آشنایان، صرفاً به صدا اکتفا نکنید. در صورت امکان، تماس تصویری برقرار کنید یا تماس را قطع کرده و مستقیماً با فرد مورد نظر تماس بگیرید تا صحت موضوع را از طریق تأیید چندمرحلهای احراز کنید.»
وی همچنین تاکید کرد: «کلاهبرداران معمولاً از ترس و عجله قربانیان سوءاستفاده میکنند تا آنها را وادار به تصمیمگیری شتابزده کنند. در چنین شرایطی، حفظ خونسردی و تفکر منطقی برای اتخاذ تصمیمی عاقلانه ضروری است تا از هیجان و فشار ناشی از تماس صوتی در امان بمانید.»
منبع: khabaronline_ir