سلاح هکرهای چینی و ایرانی برملا شد!

به گزارش خبرگزاری خبرآنلاین و براساس گزارش زومیت، OpenAI وقوع بیش از ۲۰ حمله‌ی سایبری را تأیید کرده است که همگی توسط ChatGPT طراحی شده‌اند. گزارش OpenAI نشان می‌دهد که هوش مصنوعی مولد برای اجرای حملات فیشینگ هدفمند، رفع باگ و توسعه‌ی بدافزار و سایر فعالیت‌های مخرب مورد استفاده قرار می‌گیرد.

گزارش جدید OpenAI، دو حمله‌ی سایبری را تأیید می‌کند که با بهره‌گیری از مدل‌های زبانی بزرگ و ChatGPT انجام شده‌اند. یکی از حملات، شرکت Cisco Talos را هدف قرار داد؛ حمله‌ای که توسط هکرهای چینی اجرا و در آن از روش فیشینگ هدفمند موسوم‌ به SweetSpecter استفاده شد که شامل یک فایل فشرده‌ی زیپ حاوی محتوای مخرب می‌شود.

در صورت دانلود و بازکردن فایل، زنجیره‌ای از ویروس‌ها در سیستم کاربر ایجاد می‌شود. OpenAI کشف کرده که بدافزار SweetSpecter با استفاده از چندین حساب کاربری در ChatGPT و به منظور توسعه‌ی اسکریپت‌ها و شناسایی آسیب‌پذیری‌ها در سیستم‌، با بهره‌گیری از ابزارهای یادگیری ماشین طراحی شده است.

ادعای OpenAI: هکرهای چینی و ایرانی در حملات سایبری و فیشینگ از ChatGPT و مدل‌های زبانی استفاده می‌کنند!

طبق ادعای OpenAI، دومین حمله‌ی سایبری توسط گروهی هکری مستقر در ایران انجام شد. این گروه با بهره‌گیری از ChatGPT، آسیب‌پذیری‌های سیستم‌عامل macOS را شناسایی و اقدام به سرقت رمزعبور کاربران کرد. در حمله‌ی سوم، گروه هکری دیگری با استفاده از ChatGPT، بدافزاری برای سیستم‌عامل اندروید توسعه داد که قادر است لیست مخاطبین، سوابق تماس و تاریخچه‌ی مرورگر را سرقت، موقعیت دقیق دستگاه را شناسایی و به فایل‌های موجود در دستگاه‌های آلوده دسترسی پیدا کند.

تمامی حملات سایبری مذکور، با بهره‌گیری از روش‌های موجود توسعه‌ی بدافزار انجام شده‌اند و بر اساس گزارش‌ها هیچ مدرکی مبنی‌بر ایجاد بدافزارهای نوین و پیچیده توسط ChatGPT یافت نشده است.

چنین حملاتی نشان می‌دهند که فریب‌دادن سیستم‌های هوش مصنوعی برای تولید ابزارهای مخرب بسیار ساده است و هکرها به‌راحتی می‌توانند از این قابلیت سوءاستفاده کنند؛ اقدامی که چالش جدیدی را در حوزه‌ی امنیت سایبری ایجاد می‌کند، چرا که هر فردی با دانش فنی لازم می‌تواند ChatGPT را به سمت تولید محتوای مخرب سوق دهد. محققان امنیت سایبری به‌طور مداوم در تلاش‌اند تا آسیب‌پذیری‌های موجود را شناسایی و برطرف کنند.

خالق ChatGPT می‌گوید با هدف جلوگیری از سوءاستفاده از هوش مصنوعی، به بهبود و ارتقای مستمر مدل‌های خود ادامه خواهد داد. در همین راستا، OpenAI با تیم‌های داخلی ایمنی و امنیت همکاری نزدیکی برقرار خواهد کرد و متعهد شده است که یافته‌های تحقیقاتی خود را با سایر فعالان صنعت و جامعه‌ی علمی به اشتراک بگذارد و از وقوع چنین رویدادهای نامطلوبی جلوگیری کند.

۲۲۷۲۲۷

56 بازدید

اختلال شدید GPS در اطراف تهران / نقشه‌خوان‌ها سردرگم شدند

صبح امروز گزارش‌هایی منتشر شد که از رفع اختلالات GPS در تهران و نواحی جنوبی کشور…

«‌تجربه‌ اینترنت ملی در جنگ ترسناک‌ترین اتفاق بود» / «خواهان اینترنت بدون فیلتر هستیم»

اصطلاحاتی مانند «اینترنت ملی» و «اینترنت طبقاتی» در ایران موجب پنهان‌سازی واقعیت محدودیت‌ها شده و نگرانی‌های…

شناسایی ۳۱۲ زلزله در ماه/ گوگل میلیون‌ها گوشی اندرویدی را مجهز به «سنسور زلزله» کرد!

پروژه‌ای که گوگل در سال ۲۰۲۰ آغاز کرد، حالا به نتیجه‌ای چشمگیر رسیده است و این…

اکانت‌های جعلی بنام ورزشکاران معروف در توییتر را چه کسانی مدیریت می کنند؟

در روزهای اخیر واکنش‌ها به حضور علیرضا فغانی در فینال جام جهانی باشگاه ها و اتفاقات…

ارتش سوسک‌های نینجا چه ماموریتی دارند؟

قربانیانی که زیر آوار ساختمان‌های فروریخته یا تونل‌های ریزش‌کرده گرفتار شده‌اند، شاید روزی به‌کمک ناجیان کوچک…

جزئیات مصوبه جدید شورای عالی فضای مجازی / حمایت از اقتصاد دیجیتال یا اینترنت طبقاتی؟

این مصوبه به‌ طور خاص بر ایجاد کمیته‌ای جدید با عنوان «کمیته تسهیل کسب‌وکارهای اقتصاد دیجیتال»…

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

3 × چهار =