هکرها با ChatGPT محتوای مخرب ایجاد می کنند
به نظر می رسد محدودیت های اولیه OpenAI در ChatGPT، که برای جلوگیری از سوء استفاده از ابزار برای اهداف مخرب طراحی شده بود، چندان موفق نبوده است، زیرا کلاهبرداران راهی برای دور زدن آنها پیدا کرده اند. یک گزارش جدید ادعا می کند که حتی پس از اعمال محدودیت ها، کلاهبرداران توانستند از چت بات ها برای بهبود کد بدافزار سرقت اطلاعات استفاده کنند. ChatGPT یک چت بات توسعه یافته توسط OpenAI است که با سبک مکالمه و شاهکارهای خلاقانه خود توجه بسیاری را به خود جلب کرده است. مایکروسافت قبلاً آن را به مرورگر وب Edge و موتور جستجوی Bing خود اضافه کرده است که می تواند شیوه استفاده مردم از اینترنت را متحول کند. محققان درباره ChatGPT هشدار می دهند در حال حاضر، دو راه برای استفاده از ChatGPT وجود دارد: از طریق رابط کاربری وب یا از طریق رابط های برنامه نویسی برنامه (API) که برای ساخت برنامه ها استفاده می شود. از طریق API، توسعه دهندگان می توانند از مدل های OpenAI در رابط کاربری خود استفاده کنند. محققان می گویند در حالی که OpenAI محدودیت های سختی را برای کاربران رابط وب خود اعمال می کند (به عنوان مثال، این ابزار دیگر نمی تواند برای نوشتن ایمیل های فیشینگ جعل هویت یک بانک یا مؤسسه مالی استفاده شود)، هیچ محدودیتی برای زمان استفاده از API آن وجود ندارد. آنها توضیح میدهند: «نسخه فعلی OpenAI API توسط برنامههای خارجی استفاده میشود و حفاظتهای بسیار کمی در برابر سوء استفاده دارد. در نتیجه، امکان ایجاد محتوای مخرب مانند ایمیلهای فیشینگ و کدهای مخرب را به کاربران ارائه میدهد.” محققان همچنین هشدار دادند که بحثهای زیادی در مورد این موضوع در انجمنهای اینترنتی زیرزمینی وجود دارد که نشان میدهد بسیاری از مجرمان سایبری میدانند چگونه محدودیتهای ChatGPT را دور بزنند. در همین راستا، نظرسنجی اخیر انجام شده توسط بلک بری نشان داد که اکثر کارشناسان فناوری اطلاعات معتقدند کمتر از یک سال تا اولین حمله سایبری ChatGPT فاصله داریم و با وجود تمام کارهای مفیدی که این چت ربات هوش مصنوعی انجام می دهد، می تواند تهدیدی برای سیستم ها باشد. امنیت.