کلاهبرداران از هوش مصنوعی استفاده میکنند تا بیشتر شبیه اعضای خانواده در وضعیت در مضیقه بودن به نظر برسند و از این طریق هزاران دلار میدزدند.
به گزارش واشنگتن پست، صدای مردی که با “روث کارد” تماس تلفنی گرفته بود درست شبیه صدای “برندون” نوه او بود. بنابراین، زمانی که او گفت در زندان است و کیف پول یا گوشی تلفن همراه نیز در اختیارش نیست و به پول نقد برای وثیقه نیاز دارد کارد تلاش کرد تا هر کاری که میتواند برای کمک کردن انجام دهد.
روث میگوید: “قطعا احساس ترسناکی بود. با خود گفتم ما باید همین الان به او کمک کنیم”. کارد ۷۳ ساله و همسرش “گرگ گریس” ۷۵ ساله به بانکی که در آن حساب باز کرده بودند در رجاینا مرکز استان ساسکاچوان رفتند و ۳ هزار دلار کانادا (۲۲۰۷ دلار امریکا) که حداکثر میزان امکان پذیر برداشت روزانه است را از بانک تحویل گرفتند. سپس آنان برای دریافت پول بیشتر به شعبه دوم همان بانک رفتند. با این وجود، مدیر بانک آنان را به دفتر خود کشاند.
کارد به یاد میآورد که مدیر بانک به او گفت: “یکی دیگر از مشتریان نیز با تماس مشابهی مواجه شد و صدای جعلی او دقیقا مشابه صدای یکی از خویشاوندان مشتری بانک بوده است”. مدیر بانک گفت مردی که تلفنی با آنان صحبت کرده احتمالا نوهشان نبوده است. آن زمان بود که آنان متوجه شدند فریب خورده اند. “کارد” در مصاحبه با “واشنگتن پست” میگوید:” ما درگیر شدیم. ما متقاعد شده بودیم که در حال صحبت با برندون برای کمک به او هستیم”.
با افزایش موارد کلاهبرداریهای جعل هویت در ایالات متحده مصائب کارد نشان دهنده افزایش یک روند نگران کننده است. فناوری تقلید صدا کار را برای سارقان آسانتر و ارزانتر ساخته و افراد اغلب مسن را متقاعد میکنند که عزیزان شان در وضعیت دشواری به سر میبرند و نیازمند کمک هستند.
طبق دادههای کمیسیون تجارت فدرال در سال ۲۰۲۲ میلادی کلاهبرداریهای فریبکارانه این چنین در جایگاه دومین ابتکار عمل سارقان در امریکا قرار داشته اند و بیش از ۳۶ هزار گزارش از افرادی که وانمود کرده بودند دوست و خانواده هستند، اما در واقع کلاهبردار بودند ثبت شده است. مقامهای کمیسیون تجارت فدرال میگویند بیش از ۵۱۰۰ مورد از این موارد از طریق تماس تلفنی رخ داده که در جریان آن فریب خوردگان بیش از ۱۱ میلیون دلار ضرر کرده اند.
پیشرفتها در هوش مصنوعی یک لایه جدید وحشتناک را افزوده و به کلاهبرداران اجازه میدهد صدا را تنها با یک نمونه صوتی از چند جمله تکرار کنند. با استفاده از هوش مصنوعی مجموعهای از ابزارهای آنلاین ارزان قیمت میتوانند یک فایل صوتی را به کپی یک صدا ترجمه کنند و به کلاهبرداران اجازه میدهند تا هر چیزی را که تایپ میکنند به صورت گفتار پخش شود.
کارشناسان میگویند تنظیم کنندههای فدرال، نهادهای مجری قانون و دادگاهها در امریکا برای مهار این کلاهبرداری در حال رشد مجهز نیستند.
اکثر قربانیان سرنخ اندکی برای شناسایی مجرم در اختیار دارند و ردیابی تماسها و سرمایههای کلاهبردارانی که در سراسر جهان فعالیت میکنند برای پلیس دشوار است. هم چنین، پیشینه حقوقی اندکی برای دادگاهها وجود دارد که بتوانند شرکتهایی که بازارهای مورد استفاده برای این کلاهبرداریها را ساخته اند محکوم شناخته و مدیران آن شرکتها را محاکمه کنند.
“هانی فرید” استاد پزشکی قانونی دیجیتال در دانشگاه کالیفرنیا در برکلی میگوید:” این وحشتناک است. این یک طوفان کامل است و میتواند به هرج و مرج بیانجامد”.
اگرچه کلاهبرداریهای فریبکارانه اشکال مختلفی دارند، اما اساسا به همین ترتیب عمل میکنند: یک کلاهبردار خود را شخص قابل اعتمادی، یک کودک، عاشق یا دوست معرفی میکند و قربانی را متقاعد میسازد که برای او که وانمود کرده در مضیقه است پول بفرستد.
با این وجود، فناوری صدای تولید شده مصنوعی این فریب را قانع کنندهتر میسازد. قربانیان گزارش میدهند که هنگام شنیدن صدای افرادی که در معرض خطر هستند با وحشت درونی از خود واکنش نشان داده اند.
این تازهترین تاثیر رشد اخیر هوش مصنوعی مولد است که از نرمافزاری پشتیبانی میکند که متون، تصاویر یا صداها را بر اساس دادههایی که تغذیه میکند ایجاد مینماید. پیشرفتها در ریاضیات و قدرت محاسباتی سازوکارهای آموزشی چنین نرمافزاری را بهبود بخشیده و ناوگانی از شرکتها را به انتشار چت باتها و برنامههای سازنده تصویر و صدا که به طور عجیب واقعی به نظر میرسند ترغیب کرده است.
فرید میگوید که نرم افزار تولید صدای هوش مصنوعی آن چه که صدای فرد را منحصر به فرد میسازد از جمله سن، جنسیت و لهجه را مورد تجزیه و تحلیل قرار میدهد و پایگاه داده وسیعی از صداها را برای یافتن صداهای مشابه و پیش بینی الگوها جستجو میکند.
او اشاره میکند که سپس این برنامه میتواند زیر و بم صدای یک فرد را دوباره ایجاد کند تا در کلیت آن صدایی مشابه فرد ایجاد شود. فرید میگوید این برنامهها به نمونه کوتاهی از صدای فرد نیاز دارند که از سایتها و رسانههایی مانند یوتیوب، پادکست ها، آگهیهای تبلیغاتی، تیک تاک، اینستاگرام یا ویدئوهای فیسبوک قابل دسترسی هستند. فرید میگوید:” دو سال پیش حتی یک سال پیش برای شبیه سازی صدای یک فرد به صداهای زیادی نیاز داشتید. اکنون اگر یک حساب کاربری در فیس بوک داشته باشید یا اگر صدای تان در تیک تاک ضبط شده باشد و برای ۳۰ ثانیه در آن پلتفرم وجود داشته باشد افراد مختلف میتوانند صدای شما را شبیه سازی کنند”.
شرکتهایی مانند Eleven Labs یک استارت آپ سنتز صدای هوش مصنوعی که در سال ۲۰۲۲ تاسیس شد یک نمونه صوتی کوتاه را از طریق ابزار تبدیل متن به گفتار به صدایی که به طور مصنوعی تولید میشود تبدیل میکنند. به گفته این سایت نرم افزار Eleven Labs میتواند رایگان یا با پرداخت هزینهای بین ۵ تا ۳۳۰ دلار در ماه مورد استفاده قرار گیرد و کاربران با پرداخت قیمتهای بالاتر میتوانند صدای بیش تری تولید کنند.
به دنبال انتقاد از ابزار آن شرکت سازنده که برای تکرار صدای افراد مشهور مورد استفاده قرار گرفته بود (مانند مورد پیش آمده برای “اما واتسون” که صدای دروغین منتسب به او بخشی از کتاب “نبرد من” آدولف هیتلر را ذکر کرده بود) Eleven Labs با انتشار توئیتی اعلام کرد که آن شرکت برای جلوگیری از سوء استفاده از تدابیر امنیتی استفاده میکند از جمله ممنوعیت کاربران استفاده کننده برنامه به صورت رایگان از ایجاد صداهای سفارشی و راه اندازی ابزاری برای تشخیص صدای تولید شده توسط هوش مصنوعی.
با این وجود، چنین تدابیری برای قربانیانی مانند “بنجامین پرکین” که والدین سالخورده اش هزاران دلار به دلیل کلاهبرداری صوتی از دست داده اند بسیار دیر است. کابوس شبیه سازی صدای او زمانی آغاز شد که پدر و مادرش از یک وکیل ادعایی تماس تلفنی دریافت کردند تماسی که گفته بود پسرشان یک دیپلمات آمریکایی را در جریان سانحهای رانندگی به قتل رسانده و پرکین در زندان است و برای هزنیههای حقوقی به پول نیاز دارد.
سپس آن وکیل فرضی گوشی را به پرکین ۳۹ ساله داد و صدایی که شبیه پرکین بود گفت که والدین اش را دوست دارد و اکنون نیازمند پول است. چند ساعت بعد وکیل دوباره با والدین پرکین تماس گرفت و گفت که پسرشان پیش از جلسه دادگاه در همان روز به ۲۱۰۰۰ دلار (۱۵۴۴۹ دلار) نیاز دارد.
والدین پرکین بعدا به او گفتند که تماس غیرعادی به نظر میرسد، اما نمیتوانستند احساسی که گویی واقعا با پسرشان صحبت کردهاند را پنهان کنند.
پرکین میگوید:” صدا به اندازه کافی نزدیک بود که پدر و مادرم واقعا باور کنند که با من صحبت کرده اند. “
آنان با وحشت زدگی برای دریافت پول نقد به چندین بانک هجوم بردند و پول را از به صورت بیت کوین برای وکیل ارسال کردند”. زمانی که همان شب پرکین واقعی با والدین اش تماس گرفت آنان گیج شده بودند.
مشخص نیست که کلاهبرداران صدای او را از کجا به دست آورده بودند اگرچه پرکین ویدئوهایی را در یوتیوب منتشر کرده بود که در آن درباره سرگرمیهای زمستانی خود صحبت کرده بود. پرکین گفت که خانواده اش شرح ماوقع آن چه رخ داده را در قالب گزارشی به پلیس فدرال کانادا ارائه داده اند، اما پول نقد آنان هنوز بازپس گرفته نشده است.
پرکین میگوید: “پول از بین رفته و بیمهای در کار نیست. امکان بازگشت پول در کار نیست”. ردیابی کلاهبرداران صوتی دشوار است، زیرا آنان میتوانند از تلفنی که در هر نقطه از جهان مستقر است استفاده کنند و حتی تشخیص این که کدام آژانس صلاحیت بررسی این مورد خاص را دارد نیز دشوار است. تنها راه چاره در این باره حفظ هوشیاری مداوم است. اگر یکی از عزیزان تان به شما گفت که به پول نیاز دارد پس از قطع تماس تلفنی سعی کنید جداگانه با اعضای خانواده خود تماس بگیرید. اگر تماس مشکوکی از شماره یکی از اعضای خانواده دارید بدانید که آن تماس نیز میتوانید جعلی باشد.
ردیابی دزدان شبیه سازی صدا برای مجریان قانون دشوار است. به نظر میرسد ادارات پلیس پول و کارمندان کافی برای تامین مالی واحد اختصاص داده شده برای ردیابی این نوع از کلاهبرداری را در اختیار ندارند. قربانیان کلاهبرداریهای صوتی ممکن است اطلاعات زیادی برای ارائه به پلیس در روند نداشته باشند و این امر باعث میشود که مقامهای پلیس نیازمند تخصیص کارکنان و زمان بیش تری به منظور تحقیق درباره پرونده داشته باشند. فردی میگوید دادگاهها باید شرکتهای هوش مصنوعی را مسئول بدانند اگر محصولاتی که تولید میکنند منجر به آسیب شود.
برای کارد تجربه اخیر باعث هوشیار شدن او شده است. با این وجود، او میگوید اکنون احساس خجالت میکند که چرا فریب خورده است.