• امروز : جمعه - ۲۰ مهر - ۱۴۰۳
  • برابر با : Friday - 11 October - 2024
2

هوش مصنوعی ابزاری در دست کلاهبرداران

  • کد خبر : 15400
  • ۱۶ اسفند ۱۴۰۱ - ۱۶:۰۳
هوش مصنوعی ابزاری در دست کلاهبرداران
پیشرفت‌ها در هوش مصنوعی یک لایه جدید وحشتناک را افزوده و به کلاهبرداران اجازه می‌دهد صدا را تنها با یک نمونه صوتی از چند جمله تکرار کنند. با استفاده از هوش مصنوعی مجموعه‌ای از ابزار‌های آنلاین ارزان قیمت می‌توانند یک فایل صوتی را به کپی یک صدا ترجمه کنند و به کلاهبرداران اجازه می‌دهند تا هر چیزی را که تایپ می‌کنند به صورت گفتار پخش شود.

کلاهبرداران از هوش مصنوعی استفاده می‌کنند تا بیش‌تر شبیه اعضای خانواده در وضعیت در مضیقه بودن به نظر برسند و از این طریق هزاران دلار می‌دزدند.

به گزارش واشنگتن پست، صدای مردی که با “روث کارد” تماس تلفنی گرفته بود درست شبیه صدای “برندون” نوه او بود. بنابراین، زمانی که او گفت در زندان است و کیف پول یا گوشی تلفن همراه نیز در اختیارش نیست و به پول نقد برای وثیقه نیاز دارد کارد تلاش کرد تا هر کاری که می‌تواند برای کمک کردن انجام دهد.

روث می‌گوید: “قطعا احساس ترسناکی بود. با خود گفتم ما باید همین الان به او کمک کنیم”. کارد ۷۳ ساله و همسرش “گرگ گریس” ۷۵ ساله به بانکی که در آن حساب باز کرده بودند در رجاینا مرکز استان ساسکاچوان رفتند و ۳ هزار دلار کانادا (۲۲۰۷ دلار امریکا) که حداکثر میزان امکان پذیر برداشت روزانه است را از بانک تحویل گرفتند. سپس آنان برای دریافت پول بیش‌تر به شعبه دوم همان بانک رفتند. با این وجود، مدیر بانک آنان را به دفتر خود کشاند.

کارد به یاد می‌آورد که مدیر بانک به او گفت: “یکی دیگر از مشتریان نیز با تماس مشابهی مواجه شد و صدای جعلی او دقیقا مشابه صدای یکی از خویشاوندان مشتری بانک بوده است”. مدیر بانک گفت مردی که تلفنی با آنان صحبت کرده احتمالا نوه‌شان نبوده است. آن زمان بود که آنان متوجه شدند فریب خورده اند. “کارد” در مصاحبه با “واشنگتن پست” می‌گوید:” ما درگیر شدیم. ما متقاعد شده بودیم که در حال صحبت با برندون برای کمک به او هستیم”.

با افزایش موارد کلاهبرداری‌های جعل هویت در ایالات متحده مصائب کارد نشان دهنده افزایش یک روند نگران کننده است. فناوری تقلید صدا کار را برای سارقان آسان‌تر و ارزان‌تر ساخته و افراد اغلب مسن را متقاعد می‌کنند که عزیزان شان در وضعیت دشواری به سر می‌برند و نیازمند کمک هستند.

طبق داده‌های کمیسیون تجارت فدرال در سال ۲۰۲۲ میلادی کلاهبرداری‌های فریبکارانه این چنین در جایگاه دومین ابتکار عمل سارقان در امریکا قرار داشته اند و بیش از ۳۶ هزار گزارش از افرادی که وانمود کرده بودند دوست و خانواده هستند، اما در واقع کلاهبردار بودند ثبت شده است. مقام‌های کمیسیون تجارت فدرال می‌گویند بیش از ۵۱۰۰ مورد از این موارد از طریق تماس تلفنی رخ داده که در جریان آن فریب خوردگان بیش از ۱۱ میلیون دلار ضرر کرده اند.

پیشرفت‌ها در هوش مصنوعی یک لایه جدید وحشتناک را افزوده و به کلاهبرداران اجازه می‌دهد صدا را تنها با یک نمونه صوتی از چند جمله تکرار کنند. با استفاده از هوش مصنوعی مجموعه‌ای از ابزار‌های آنلاین ارزان قیمت می‌توانند یک فایل صوتی را به کپی یک صدا ترجمه کنند و به کلاهبرداران اجازه می‌دهند تا هر چیزی را که تایپ می‌کنند به صورت گفتار پخش شود.

کارشناسان می‌گویند تنظیم کننده‌های فدرال، نهاد‌های مجری قانون و دادگاه‌ها در امریکا برای مهار این کلاهبرداری در حال رشد مجهز نیستند.

اکثر قربانیان سرنخ اندکی برای شناسایی مجرم در اختیار دارند و ردیابی تماس‌ها و سرمایه‌های کلاهبردارانی که در سراسر جهان فعالیت می‌کنند برای پلیس دشوار است. هم چنین، پیشینه حقوقی اندکی برای دادگاه‌ها وجود دارد که بتوانند شرکت‌هایی که بازار‌های مورد استفاده برای این کلاهبرداری‌ها را ساخته اند محکوم شناخته و مدیران آن شرکت‌ها را محاکمه کنند.

“هانی فرید” استاد پزشکی قانونی دیجیتال در دانشگاه کالیفرنیا در برکلی می‌گوید:” این وحشتناک است. این یک طوفان کامل است و می‌تواند به هرج و مرج بیانجامد”.

اگرچه کلاهبرداری‌های فریبکارانه اشکال مختلفی دارند، اما اساسا به همین ترتیب عمل می‌کنند: یک کلاهبردار خود را شخص قابل اعتمادی، یک کودک، عاشق یا دوست معرفی می‌کند و قربانی را متقاعد می‌سازد که برای او که وانمود کرده در مضیقه است پول بفرستد.

با این وجود، فناوری صدای تولید شده مصنوعی این فریب را قانع کننده‌تر می‌سازد. قربانیان گزارش می‌دهند که هنگام شنیدن صدای افرادی که در معرض خطر هستند با وحشت درونی از خود واکنش نشان داده اند.

این تازه‌ترین تاثیر رشد اخیر هوش مصنوعی مولد است که از نرم‌افزاری پشتیبانی می‌کند که متون، تصاویر یا صدا‌ها را بر اساس داده‌هایی که تغذیه می‌کند ایجاد می‌نماید. پیشرفت‌ها در ریاضیات و قدرت محاسباتی سازوکار‌های آموزشی چنین نرم‌افزاری را بهبود بخشیده و ناوگانی از شرکت‌ها را به انتشار چت بات‌ها و برنامه‌های سازنده تصویر و صدا که به طور عجیب واقعی به نظر می‌رسند ترغیب کرده است.

فرید می‌گوید که نرم افزار تولید صدای هوش مصنوعی آن چه که صدای فرد را منحصر به فرد می‌سازد از جمله سن، جنسیت و لهجه را مورد تجزیه و تحلیل قرار می‌دهد و پایگاه داده وسیعی از صدا‌ها را برای یافتن صدا‌های مشابه و پیش بینی الگو‌ها جستجو می‌کند.

او اشاره می‌کند که سپس این برنامه می‌تواند زیر و بم صدای یک فرد را دوباره ایجاد کند تا در کلیت آن صدایی مشابه فرد ایجاد شود. فرید می‌گوید این برنامه‌ها به نمونه کوتاهی از صدای فرد نیاز دارند که از سایت‌ها و رسانه‌هایی مانند یوتیوب، پادکست ها، آگهی‌های تبلیغاتی، تیک تاک، اینستاگرام یا ویدئو‌های فیسبوک قابل دسترسی هستند. فرید می‌گوید:” دو سال پیش حتی یک سال پیش برای شبیه سازی صدای یک فرد به صدا‌های زیادی نیاز داشتید. اکنون اگر یک حساب کاربری در فیس بوک داشته باشید یا اگر صدای تان در تیک تاک ضبط شده باشد و برای ۳۰ ثانیه در آن پلتفرم وجود داشته باشد افراد مختلف می‌توانند صدای شما را شبیه سازی کنند”.

شرکت‌هایی مانند Eleven Labs یک استارت آپ سنتز صدای هوش مصنوعی که در سال ۲۰۲۲ تاسیس شد یک نمونه صوتی کوتاه را از طریق ابزار تبدیل متن به گفتار به صدایی که به طور مصنوعی تولید می‌شود تبدیل می‌کنند. به گفته این سایت نرم افزار Eleven Labs می‌تواند رایگان یا با پرداخت هزینه‌ای بین ۵ تا ۳۳۰ دلار در ماه مورد استفاده قرار گیرد و کاربران با پرداخت قیمت‌های بالاتر می‌توانند صدای بیش تری تولید کنند.

به دنبال انتقاد از ابزار آن شرکت سازنده که برای تکرار صدای افراد مشهور مورد استفاده قرار گرفته بود (مانند مورد پیش آمده برای “اما واتسون” که صدای دروغین منتسب به او بخشی از کتاب “نبرد من” آدولف هیتلر را ذکر کرده بود) Eleven Labs با انتشار توئیتی اعلام کرد که آن شرکت برای جلوگیری از سوء استفاده از تدابیر امنیتی استفاده می‌کند از جمله ممنوعیت کاربران استفاده کننده برنامه به صورت رایگان از ایجاد صدا‌های سفارشی و راه اندازی ابزاری برای تشخیص صدای تولید شده توسط هوش مصنوعی.

با این وجود، چنین تدابیری برای قربانیانی مانند “بنجامین پرکین” که والدین سالخورده اش هزاران دلار به دلیل کلاهبرداری صوتی از دست داده اند بسیار دیر است. کابوس شبیه سازی صدای او زمانی آغاز شد که پدر و مادرش از یک وکیل ادعایی تماس تلفنی دریافت کردند تماسی که گفته بود پسرشان یک دیپلمات آمریکایی را در جریان سانحه‌ای رانندگی به قتل رسانده و پرکین در زندان است و برای هزنیه‌های حقوقی به پول نیاز دارد.

سپس آن وکیل فرضی گوشی را به پرکین ۳۹ ساله داد و صدایی که شبیه پرکین بود گفت که والدین اش را دوست دارد و اکنون نیازمند پول است. چند ساعت بعد وکیل دوباره با والدین پرکین تماس گرفت و گفت که پسرشان پیش از جلسه دادگاه در همان روز به ۲۱۰۰۰ دلار (۱۵۴۴۹ دلار) نیاز دارد.

والدین پرکین بعدا به او گفتند که تماس غیرعادی به نظر می‌رسد، اما نمی‌توانستند احساسی که گویی واقعا با پسرشان صحبت کرده‌اند را پنهان کنند.

پرکین می‌گوید:” صدا به اندازه کافی نزدیک بود که پدر و مادرم واقعا باور کنند که با من صحبت کرده اند. “

آنان با وحشت زدگی برای دریافت پول نقد به چندین بانک هجوم بردند و پول را از به صورت بیت کوین برای وکیل ارسال کردند”. زمانی که همان شب پرکین واقعی با والدین اش تماس گرفت آنان گیج شده بودند.

مشخص نیست که کلاهبرداران صدای او را از کجا به دست آورده بودند اگرچه پرکین ویدئو‌هایی را در یوتیوب منتشر کرده بود که در آن درباره سرگرمی‌های زمستانی خود صحبت کرده بود. پرکین گفت که خانواده اش شرح ماوقع آن چه رخ داده را در قالب گزارشی به پلیس فدرال کانادا ارائه داده اند، اما پول نقد آنان هنوز بازپس گرفته نشده است.

پرکین می‌گوید: “پول از بین رفته و بیمه‌ای در کار نیست. امکان بازگشت پول در کار نیست”. ردیابی کلاهبرداران صوتی دشوار است، زیرا آنان می‌توانند از تلفنی که در هر نقطه از جهان مستقر است استفاده کنند و حتی تشخیص این که کدام آژانس صلاحیت بررسی این مورد خاص را دارد نیز دشوار است. تنها راه چاره در این باره حفظ هوشیاری مداوم است. اگر یکی از عزیزان تان به شما گفت که به پول نیاز دارد پس از قطع تماس تلفنی سعی کنید جداگانه با اعضای خانواده خود تماس بگیرید. اگر تماس مشکوکی از شماره یکی از اعضای خانواده دارید بدانید که آن تماس نیز می‌توانید جعلی باشد.

ردیابی دزدان شبیه سازی صدا برای مجریان قانون دشوار است. به نظر می‌رسد ادارات پلیس پول و کارمندان کافی برای تامین مالی واحد اختصاص داده شده برای ردیابی این نوع از کلاهبرداری را در اختیار ندارند. قربانیان کلاهبرداری‌های صوتی ممکن است اطلاعات زیادی برای ارائه به پلیس در روند نداشته باشند و این امر باعث می‌شود که مقام‌های پلیس نیازمند تخصیص کارکنان و زمان بیش تری به منظور تحقیق درباره پرونده داشته باشند. فردی می‌گوید دادگاه‌ها باید شرکت‌های هوش مصنوعی را مسئول بدانند اگر محصولاتی که تولید می‌کنند منجر به آسیب شود.

برای کارد تجربه اخیر باعث هوشیار شدن او شده است. با این وجود، او می‌گوید اکنون احساس خجالت می‌کند که چرا فریب خورده است.

لینک کوتاه : https://ainews.ir/?p=15400

برچسب ها

اخبار مرتبط

ثبت دیدگاه

مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : ۰
قوانین ارسال دیدگاه
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.