چت بات های سفارشیی OpenAI اسرار خود را فاش میکنند!
GPTهای OpenAI که در این ماه معرفی شدند، به کاربران اجازه میدهند تا چتباتهای سفارشی بدون مهارت کدنویسی بسازند. علیرغم دسترسی به آنها، نگرانی هایی ایجاد می شود زیرا این GPT های سفارشی در معرض انتشار این داده ها هستند. هزاران ربات از این قبیل، از مشاوره از راه دور گرفته تا جستجوی مقالات دانشگاهی، ایجاد شده اند، اما پژوهشگران امنیتی به خطرات احتمالی اشاره کردهاند.
پژوهشگران دانشگاه نورثوسترن بیش از ۲۰۰ GPT سفارشی را تست کردند و نتایج نشان داد که در استخراج اطلاعات، نرخ موفقیت بالایی وجود دارد. نشت فایل، جایی که دستورات اولیه و فایلهای سفارشیسازی فاش میشوند، خطرات حریم خصوصی را ایجاد میکند. حتی اگر دادههای فاش شده حاوی اطلاعات حساس نباشند، ممکن است دانشی را افشا کنند که طراح بات قصد داشته است مخفی نگه دارد.
ساختن GPTهای سفارشی برای کاربران ساده است و تنها نیاز به ارسال دستورات به ChatGPT دارد. کاربران میتوانند اسناد را بارگذاری یا از واسطههای API شخص ثالث برای بهبود مهارت بات استفاده کنند. با این حال، سادگی ساخت این باتها باعث آسیبپذیری آنها شده است.
دادهها درون GPTهای سفارشی از بیاهمیت تا حساس میتوانند متغیر باشند، شامل دانشهای خاص حوزه یا حتی اطلاعات محرمانه مانند جزئیات حقوقی. پژوهشگران بر نیاز به آگاهی تأکید میکنند، زیرا دستورات فاش شده ممکن است به طور ناخواسته شفافیتی را در مورد نحوه عملکرد چتباتها ایجاد کند. مواردی از حذف دادههای بارگذاری شده توسط توسعهدهندگان، به وضوح این ناخواستگی را نشان میدهد.
Prompt injections، به عنوان یک شکل از jailbreaking، امکان دسترسی غیرمجاز به دستورات و فایلها را فراهم میکنند. این تزریقها، گاهاً با توانایی انجام این کار با توانایی انگلیسی ابتدایی، آسیبپذیریها را فاش میکنند. افزایش امکان تشکیل گروههای مخرب به افشای بیشتر اطلاعات و نقض دسترسی به کد APIها افزوده میشود.
OpenAI به کاربران اطمینان میدهد که گفتگوها به اشتراک گذاشته نمیشوند و توسعهدهندگان میتوانند هویت خود را تأیید کنند. با این حال، پژوهشگران به چالشهای مستمر اشاره میکنند، با Prompt injections که به استفاده از دستورات لینوکس تکامل یافتهاند و نیاز به توانایی فنی بیشتر دارند. OpenAI به نگرانیهای حریم خصوصی پاسخ داده و تأکید بر دستاوردهای مستمر در تقویت اقدامات ایمنی دارد.
به طور کلی، دموکراتیزاسیون ایجاد چتبات با استفاده از GPTهای OpenAI چالشهای دسترسی و امنیت را به همراه دارد. آسانی ساخت باتهای سفارشی بدون دانش برنامهنویسی امکانات گستردهای را فراهم میآورد، اما به همراه آن خطرات حریم خصوصی نیز آشکار میشود. تلاشهای مداوم برای حل آسیبپذیریها، افزایش آگاهی و اجرای اقدامات دفاعی به عنوان بخشی اساسی از تحول منظر چتباتهای سفارشی لازم است.