هوش مصنوعی

شرکت OpenAI برای یافتن باگ در ChatGPT جایزه تعیین کرد

شرکت OpenAI مالک چت جی‌پی‌تی (ChatGPT) از متخصصان و عموم کاربران دعوت کرده تا باگ‌های موجود در چت بات هوش مصنوعی را شناسایی کنند.  

بر اساس اعلام این شرکت و در قالب طرح Bug Bounty، افرادی که هرگونه نقص امنیتی، آسیب‌پذیری یا سایر مشکلات را در بات هوش مصنوعی ChatGPT مشاهده و گزارش کنند، جایزه دریافت خواهند کرد.  

به گفته OpenAI، تمامی‌افراد از محققان و متخصصان این حوزه گرفته تا افراد علاقه‌مند به فناوری می‌توانند با شناسایی باگ‌های موجود در این چت‌بات، جایزه مدنظر را دریافت کنند.  

این جوایز به صورت نقدی اعطا خواهد شد و با توجه به اهمیت و گستردگی باگ و اشکال گزارش‌شده، از ۲۰۰ دلار تا ۲۰ هزار دلار متغیر خواهد بود. به گفته این شرکت، پلتفرم معروف Bugcrowd این طرح و پرداختی‌ها را مدیریت خواهد کرد.  

پیشتر شرکت‌های گوگل و اپل نیز برنامه‌های Bug Bounty خود را برای شناسایی و کشف باگ در سرویس‌های خود پیاده‌سازی کرده‌اند. از جمله این موارد می‌توان به اقدام مشابه گوگل در سال ۲۰۱۹ اشاره کرد که بر اساس آن، این شرکت جایزه ۶.۵ میلیون دلاری را به افرادی که مشکلات و باگ‌ها را گزارش دادند، اعطا کرد.  

اپل نیز در طرحی که بر اساس آن، کاربران می‌بایست باگ‌های مربوط به دور زدن سیستم حفاظتی Lockdown Mode را گزارش می‌کردند، جایزه ۲ میلیون دلاری را اختصاص داد.

اخیرا باگ‌های در بات هوش مصنوعی ChatGPT گزارش شده که یک مورد آن به ماه گذشته برمی‌گردد که در جریان آن، برخی کاربران اعلام کردند که می‌توانستند تاریخچه مکالمات سایر کاربران را ببینند که در پی این گزارش، این بات هوش مصنوعی از دسترس خارج شد.  

چند روز بعد نیز یکی از کاربران با انتشار تصویری در توییتر مدعی شد که توانسته با هک و نفوذ به ChatGPT به بیش از ۸۰ پلاگین‌های مخفی دسترسی پیدا کند.  

با این حال، OpenAI اعلام کرد که همه گزارش‌های مربوط به مشکلات و باگ‌ها، مشمول دریافت جایزه نخواهند بود و اگر افراد به روش‌های نامتعارف از جمله جیلبریک و یا وادار کردن این هوش مصنوعی به برای گفتن و یا انجام دادن کارهای منفی متوسل شوند، جایزه‌ای به آنها تعلق نخواهد گرفت.  

برنامه Bug Bounty شرکت OpenAI نشان‌دهنده تلاش‌های این شرکت برای ارتقای امنیت و حفاظت از حریم خصوصی کاربران است. این شرکت در این خصوص گفت: اگرچه ما سخت تلاش می‌کنیم تا از تهدیدها پیشگیری کنیم اما نمی‌توانیم روش‌هایی را که افراد از فناوری ما سوءاستفاده کنیم، پیش‌بینی کنیم.

نوشته های مشابه

دیدگاهتان را بنویسید

دکمه بازگشت به بالا