کلاهبرداری‌های مبتنی بر هوش مصنوعی و راهکار‌های مقابله با آن

کلاهبرداری از طریق هوش مصنوعی
تصویر علیرضا فاضلی

علیرضا فاضلی

هوش مصنوعی در دنیای امروز اینجاست که به ما کمک بکنه. دقت بکنید که امروز، معلوم نیست که آیا در فردای جهان هستی این هوش، بر علیه ما در میاد یا خیر اما به هرحال در دنیای امروز فرقی نمیکنه که شما از هوش مصنوعی برای نوشتن متنی کمک میگیرید یا میخواید عکسی با استفاده از هوش مصنوعی خلق کنید یا یک کلاهبرداری با هوش مصنوعی راه بندازید. 

هوش مصنوعی همه کاره‌ است !

از اونجایی که خیلی از مردم دوست دارند توسط هوش مصنوعی و افرادی که از هوش مصنوعی استفاده میکنند، کلاهشون برداشته نشه، بیاید کمی دراین‌باره حرف بزنیم. با من همراه باشید.

 

در سال های اخیر شاهد این هستیم که به طور چشمگیری تکنولوژی‌های هوش مصنوعی پیشرفت کردن. به عنوان مثال به راحتی تمام و ارزانی تمام میتونیم، متن‌هارو به صدا، تصویر، فیلم و غیره تبدیل کنیم. جدا از این بحث وقتی یک نفر میتونه با استفاده از ابزار‌های هوش مصنوعی یک هیولا بسازه یا یک نیسان آبی پرنده بر آسمان بابلسر رو بسازه، همون شخص هم میتونه استفاده مخربی رو از تکنولوژی هوش مصنوعی داشته باشه. هوش مصنوعی مثل یک چاقو میمونه. میتونی ازش برای قاچ کردن خربزه استفاده بکنی یا میتونی ازش برای کشتن یک نفر استفاده بکنی.
کلاهبرداری قبلا وجود داشته و خواهد داشت. ولی الان با استفاده از هوش مصنوعی، کلاهبرداری آسان تر و ارزان تر شده اما ما میتونیم با پیشگیری و اطلاع رسانی و یادگیری روش های مقابله، با این پدیده کلاهبرداری نوین، مقابله کنیم. به طور حتم این مقاله یک لیست کاملی از روش های پیشگیری در مقابل تمامی تهدید‌های کلاهبرداری هوش مصنوعی نیست. ولی میتونیم تا جای ممکن که روش‌های پیشگیری از این تهدید ها شناسایی شده رو به شما بگیم.

 

شبیه سازی صدای خانواده و دوستان توسط هوش مصنوعی

صداهای مصنوعی ده ها ساله که وجود داره اما تنها در یکی دو سال گذشته شاهد این هستیم که به لطف پیشرفت فناوری فقط با استفاده از چند ثانیه از ویس یک شخص میتونیم صدای جدید و مصنوعی از اون شخص رو تولید بکنیم، یعنی هر شخصی که تا حالا صداش به صورت پابلیک منتشر شده. کسانی که صداشون در خبرگزاری‌ها ، یوتیوب، و شبکه های اجتماعی پخش شده، بیشتر از آسیب پذیرتر هستن.

کلاهبرداران میتونند با استفاده از این تکنولوژی، صدایی رو از شما تولید بکنند و در این صدا، درخواست کمک مالی بکنند و برای دوستان و آشنایانتون ارسال بکنند و از این طریق یک کلاهبرداری شیک و تمیزی رو راه بیاندازن.

در مثالی دیگه ممکنه که کلاهبردار از یک خط ناشناس به خانواده یک شخصی زنگ بزنه و با صدای تولید شده که شبیه به فرزند اون خانوادست درخواست کمک بکنه. مثلا در این تماس بگه که : « عه ! سلام مامان. چطوری؟. من توی سفری که به مشهد داشتم کیفمو گم کردم. این اقا لطف کردن و گوشیشونو دادن که زنگ بزنم بهتون. میتونید به این شماره حساب کمی پول بزنید؟ شماره کارت همین آقاست. ممنونم »

حتی میشه با قضیه ماشین کلی مثال درست کرد. مخصوصا در همین ایران خودمون . به عنوان مثال شخصی زنگ میزنه میگه که :‌« علی چطوری داداش، آقا من جاده فرح آباد ساری تصادف کردم گوشیم هم گم شده با گوشی صاحب پارکینگ اینجا زنگ زدم. میتونی یه دو تومن کارت به کارت بکنی به این شماره کارت من ماشینو آزاد بکنم؟»
یا حتی با موضوعات درمانی اینکه مادرم مریضه یا دستم شکسته و غیره … .

نکته با مزه ماجرا اینجاست که قبلا با صدای رییس جمهوری آمریکا یعنی آقای جو بایدن هم یک کلاهبرداری عظیم هم صورت گرفت. خوشبختانه مقصران پشت پرده این کلاهبرداری هم توسط دولت آمریکا دستگیر شدن.

چگونه میتونید با شبیه سازی صدا مقابله کنید؟

اول از همه اینه که سعی نکنید صدای جعلی رو از واقعی تشخیص بدید، چرا؟ چونکه هر روز کیفیت این صدا‌های جعلی بیشتر میشن و تقریبا غیرممکنه تشخیص دادن این صدا های جعلی. حتی ممکنه که کارشناسان این حوزه هم گول بخورن. هر پیامی یا تماسی از شماره های ناشناس، ایمیل ناشناس یا اکانت های ناشناس دریافت کردین به طور اتوماتیک این تماس هارو مشکوک در نظر بگیرین.
سریعا بعد از دریافت این تماس ها به همان دوست یا خانوادتان زنگ بزنید و بپرسید که آیا خودتون بودید؟ سریع بهتون استرس وارد نشه که‌ آقا این تماس دقیقا مثلا دوست منه. تماس رو قطع کنید و به شماره اصلی دوستتون زنگ بزنید تا اطمینان پیدا کنید که این یک کلاهبرداری نیست.
معمولا یک کلاهبردار در صورت نادیده گرفته شدن دیگه پیگیر ماجرا نمیشه اما اگر دوست یا خانواده شما بوده باشه قطعا پیگیر میشه و ولتون نمیکنه.

فیشینگ و هرزنامه شخصی از طریق ایمیل و پیام

همه ما هرزگاهی هرزنامه هایی رو دریافت میکنیم چه در ایمیل چه در پیام رسان‌های مختلف. اما هوش مصنوعی این امکان رو داره که ایمیل‌های انبوهی رو به صورت سفارشی سازی شده برای هر فرد ارسال بکنه. این اطلاعات از کجا میاد؟ از نقض‌های اطلاعاتی گسترده ای که در دنیای اینترنت از داده های شخصی شما صورت گرفته. از انواع هک‌هایی که صورت گرفته که در ایران کم سابقه نبوده و به طور کلی میشه گفت داده های مردم ایران مخصوصا در دنیای اینترنت اوپن سورس هستش. یا جدا از داده‌های هک شده، اطلاعاتی که شما در اینترنت منتشر میکنید به عنوان مثال در اینستاگرام و مخصوصا در توییتر.
کلاهبرداران با داشتن چند دیتای شخصی از شما و یک مدل زبانی (LLM) میتونند این ایمیل های اسکم رو برای هزاران نفر ارسال بکنند. قدیم برای اسکم از طریق ایمیل در مزارع هایی که در کشور های فقیر، اللخصوص در هند انجام میشد که صد ها نفر پشت کامپیوتر میشنستن و پیامی سفارشی سازی شده رو برای مردم ارسال میکردن و از این طریق کلاه مردمو بر میداشتن اما به لطف LLM امروزه این کار خیلی راحت تر و پیشرفته تر انجام میشه.

چگونه با هرزنامه‌های ایمیل مقابله کنیم؟

همانند هرزنامه‌های سنتی که خیلی تشخیص فیک بودنشون ساده بود، بهترین سلاح در مقابل این نوع کلاهبرداری‌های نوین، هوشیاری است.
اما کلا انتظار نداشته باشید که بتونید متن تولید شده توسط هوش مصنوعی رو به راحتی از متن نوشته شده توسط انسان رو تشخیص بدید. اما پیامی که از طرف کلاهبردار میاد ممکنه تحریک آمیز باشه و شمارو وادار بکنه که پیام رو باز کنید یا روی چیزی کلیک بکنید. اما شما باید از هوشیاری خودتون استفاده بکنید و اگر حس کردید پیامی مشکوکه بازش نکنید یا برای فردی بفرستید که فک میکنید تخصص خوبی توی این زمینه داره میتونه کمکتون بکنه که آیا این پیام اسکمه یا یک پیام واقعی.

نسخه تقلبی شما

به جرعت میتوان گفت که همه مایی که در اینترنت حضور داریم، همانطور که در بالاتر گفتم، به اندازه کافی دیتای شخصی در کف اینترنت و دارک وب داریم که برای سواستفاده‌ گران قابل استفادست. اگه که از شیوه های امنیتی آنلاین خوبی مثل پسورد قوی و رمز عبور دو مرحله‌ای استفاده میکنید، شاید بشه گفت داده کمتری از شما کف اینترنت هست ولی بازم میگم چون ما تو ایرانیم دیگه پسورد قوی و دو مرحله‌ای به کار ما نمیاد. چون کل کمپانی هک میشه. و ترکیب اونهمه دیتا و هوش مصنوعی رو ببینید چی میشه دیگه. اینجاست که دیگه باید گفت : واویلا .

با داده‌های بسیار زیادی که از یک شخص وجود داره به صورت آنلاین مثل ویدیو و صدای اون شخص، میشه با استفاده از هوش مصنوعی، یک شخصیت هوش تقلبی از اون فرد هدف درست کرد که با اون شخصیت درست شده از هوش مصنوعی خیلی کارها میشه کرد.

بیاید یک مثال بزنیم.
فرض کنید که مشکل لاگین کردن به یک نرم افزاری رو دارید. چیکار میکنید؟ به عنوان مثال زنگ میزنید به پشتیبانیتون و اون برای احراز هویت ازتون چندتا چیز میخواد. مثل تاریخ تولد، شماره تلف یا شماره امنیتی یا در بحث پیشرفته‌تر میگه که یه عکس سلفی از خودت بفرست که در این صورت بازی آسون تر هم میشه. حتی مسئول پشتیبانی هم میتونه فیک باشه و توسط هوش مصنوعی تولید شده باشه و با شما تماس بگیره و ازتون یکسری اطلاعات بخواد.

مانند سایر موارد تهدیدی که خدمتتون گفتم خطر اصلی اینه که این حملات چقدر واقعی به نظر بیاد. یعنی فرد حمله کنند چقدر واقعی برای فرد مورد حمله قرار گرفته باشه. این نوع حملات اگر در سطح مکرر و گسترده انجام بشن هم برای کلاهبرداران سود داره و هم آسون تره.

قبلا این حملات جعل هویت چون گران و زمان بر بود نمی‌صرفید که در مقیاس بزرگ و برای عام مردم انجام بشه و محدود میشد به اهداف‌های ارزشمند مانند افراد ثروتمند و مدیران عامل شرکت‌های بزرگ.
امروزه شما به لطف هوش مصنوعی میتونید یک گردش کاری ایجاد کنید که هزاران هویت فیک برای شما درست بکنه. و این هویت‌های فیک میتونن به طور مستقل با شماره‌های مختلف تماس بگیرن و کلاهبرداری بکنن یا حتی حساب فیک ایجاد بکنن. فقط نیازه که چند عدد از این هویت‌های فیک کلاهبردارو به پول برسونه. اون کلاهبردار‌هم بارشو بسته و رفته.

چگونه با هویت تقلبی مقابله کنیم ؟

داده‌های شخصی شما درحال حاضر چه بخواید چه نخواید الان کف اینترنت ریخته. آبی هستش که روی زمین ریخته شده و دیگه بر نمیگرده. ولی میتونید با امن کردن اکانتاتون از طریف پسورد قوی یا احراز هویت دو مرحله‌ای  از خطر جلوگیری کنید. هر نوع فعالیت مشکوک یا تلاش برای تغییر رمز عبور اکانت‌های شما از طریق ایمیل به شما اطلاع رسانی میشه. میتونید از این طریق در سریعترین زمان ممکن جلوگیری کنید از حمله. پیام‌های اطلاع رسانی ورود‌های مشکوک رو جدی بگیرید و حذفشون نکنید که خدای نکرده گرفتار نشید.

دیپ فیک و باج گیری

ترسناک ترین قسمت تهدید‌های هوش مصنوعی بخش دیپ فیک هستش. دیپ فیک به عکس یا ویدیویی گفته میشه که با چهره شما تولید شده. بیشترین منظور از دیپ فیک تولید فیلم یا عکس پورن از با چهره شما از طریق هوش مصنوعی هستش.
یکی از روش های باج‌ گیری کلاهبرداران استفاده از دیپ فیک شما یا عزیزان شما است. قبلا کلاهبرداران از روش پورن انتقامی استفاده میکردن، اینطوری که از شما یک پورن واقعی داشتن که حالا به هر روشی از شما به دست اومده، معمولا از طریق هک کردن گوشی شما، از شما باج گیری میکردن ولی امروزه این روش باج گیری از طریق دیپ فیک خیلی آسون تر شده. فقط کافیه عکسی یا ویدیویی از چهره شما داشته باشن تا یک محتوای پورن از شما بسازن و ازتون باج‌ گیری بکنن. برای اینکه شک نکنه کسی این محتوای هوش مصنوعیه، کیفیت پیکسلی اونو پایین میارن تا شک‌ها برطرف بشه. ازتون باج گیری میکنن تا پخش نکنن و احتمال زیاد اولین پرداخت دیگه اخرین پرداخت نیست و بارها ازتون تا میتونن باج گیری میکنن.

 

چگونه با دیپ فیک‌های تولید شده توسط هوش مصنوعی مقابله کنیم؟

متاسفانه در این دنیایی که ما زندگی میکنیم تصاویر برهنه جعلی و فیلم‌های پورن جعلی هرکسی در صورت تقاضا در دسترسی خواهد بود و این ترسناک و عجیبه. متاسفانه باید بگم فعلا هیچ راه مقابله ای با این پدیده وجود نداره، تنها راه شکایت به پلیس و خبردار کردن اعضای خانواده از این باج گیریه و در اولین وقت مشاوره گرفتن از یک وکیل.
امیدوارم هیچوقت تجربش نکنید.
به امید روزی که هیچ انسان کلاهبردار و باج گیری وجود نداشته باشه.

 

خیلی ممنون که تا اینجای مقاله همراه بودید.
نظرات خودتون رو زیر همین مقاله ارسال کنید.
دوستدار شما علیرضا فاضلی.

 

 

ارسال دیدگاه