تکنولوژی

هکرها با ChatGPT محتوای مخرب ایجاد می کنند


به نظر می رسد محدودیت های اولیه OpenAI در ChatGPT، که برای جلوگیری از سوء استفاده از ابزار برای اهداف مخرب طراحی شده بود، چندان موفق نبوده است، زیرا کلاهبرداران راهی برای دور زدن آنها پیدا کرده اند. یک گزارش جدید ادعا می کند که حتی پس از اعمال محدودیت ها، کلاهبرداران توانستند از چت بات ها برای بهبود کد بدافزار سرقت اطلاعات استفاده کنند. ChatGPT یک چت بات توسعه یافته توسط OpenAI است که با سبک مکالمه و شاهکارهای خلاقانه خود توجه بسیاری را به خود جلب کرده است. مایکروسافت قبلاً آن را به مرورگر وب Edge و موتور جستجوی Bing خود اضافه کرده است که می تواند شیوه استفاده مردم از اینترنت را متحول کند. محققان درباره ChatGPT هشدار می دهند در حال حاضر، دو راه برای استفاده از ChatGPT وجود دارد: از طریق رابط کاربری وب یا از طریق رابط های برنامه نویسی برنامه (API) که برای ساخت برنامه ها استفاده می شود. از طریق API، توسعه دهندگان می توانند از مدل های OpenAI در رابط کاربری خود استفاده کنند. محققان می گویند در حالی که OpenAI محدودیت های سختی را برای کاربران رابط وب خود اعمال می کند (به عنوان مثال، این ابزار دیگر نمی تواند برای نوشتن ایمیل های فیشینگ جعل هویت یک بانک یا مؤسسه مالی استفاده شود)، هیچ محدودیتی برای زمان استفاده از API آن وجود ندارد. آنها توضیح می‌دهند: «نسخه فعلی OpenAI API توسط برنامه‌های خارجی استفاده می‌شود و حفاظت‌های بسیار کمی در برابر سوء استفاده دارد. در نتیجه، امکان ایجاد محتوای مخرب مانند ایمیل‌های فیشینگ و کدهای مخرب را به کاربران ارائه می‌دهد.” محققان همچنین هشدار دادند که بحث‌های زیادی در مورد این موضوع در انجمن‌های اینترنتی زیرزمینی وجود دارد که نشان می‌دهد بسیاری از مجرمان سایبری می‌دانند چگونه محدودیت‌های ChatGPT را دور بزنند. در همین راستا، نظرسنجی اخیر انجام شده توسط بلک بری نشان داد که اکثر کارشناسان فناوری اطلاعات معتقدند کمتر از یک سال تا اولین حمله سایبری ChatGPT فاصله داریم و با وجود تمام کارهای مفیدی که این چت ربات هوش مصنوعی انجام می دهد، می تواند تهدیدی برای سیستم ها باشد. امنیت.

Leave a Reply

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *