به گزارش کارشماس شرکت سحاب، شرکت هوش مصنوعی OpenAI اعلام کرد که حداکثر مبلغ پاداش برای کشف آسیبپذیریهای امنیتی بحرانی و خاص را از ۲۰ هزار دلار به ۱۰۰ هزار دلار افزایش داده است. این افزایش پنجبرابری نشاندهندهی اهمیت تحقیقات امنیتی برای این شرکت و تعهد آن به ایمنسازی پلتفرمهایش است.
طبق اعلام OpenAI، سرویسها و پلتفرمهای این شرکت هفتهای بیش از ۴۰۰ میلیون کاربر در سازمانها، شرکتها و دولتهای سراسر جهان دارند.
"ما به طور قابلتوجهی حداکثر پاداش کشف باگ برای یافتههای بحرانی و متمایز را به ۱۰۰ هزار دلار افزایش دادهایم (پیشتر ۲۰ هزار دلار بود). این افزایش نشاندهندهی تعهد ما به پاداشدهی تحقیقات امنیتی معنادار و تأثیرگذار است که به ما کمک میکند از کاربران محافظت کنیم و اعتماد به سیستمهای خود را حفظ کنیم."
برنامههای تشویقی برای محققان امنیتی
علاوه بر افزایش سقف پاداش، OpenAI قصد دارد برنامههای تشویقی ویژهای برای پژوهشگران امنیتی راهاندازی کند. به گفتهی این شرکت، در بازههای زمانی مشخص، گزارشهای تأییدشدهی برخی دستههای خاص، مشمول پاداشهای ویژه خواهند شد.
"در دورههای تبلیغاتی، محققانی که گزارشهای تأییدشدهای در دستهبندیهای خاص ارائه کنند، واجد شرایط دریافت پاداشهای اضافی خواهند بود."
به عنوان مثال، تا تاریخ ۳۰ آوریل، محققانی که آسیبپذیریهای مربوط به Insecure Direct Object Reference (IDOR) را در زیرساختها و محصولات OpenAI شناسایی کنند، میتوانند حداکثر ۱۳ هزار دلار جایزه دریافت کنند.
تاریخچهی برنامهی باگ باونتی OpenAI
OpenAI در آوریل ۲۰۲۳ برنامهی باگ باونتی خود را راهاندازی کرد و از طریق پلتفرم Bugcrowd به پژوهشگران امنیتی که باگها و نقصهای امنیتی را در محصولات این شرکت گزارش دهند، تا سقف ۲۰ هزار دلار پاداش پرداخت میکرد.
البته، مشکلات ایمنی مدلهای هوش مصنوعی شامل این برنامه نمیشوند؛ به همین دلیل، روشهای دور زدن محدودیتهای امنیتی ChatGPT که توسط برخی کاربران برای عبور از فیلترهای OpenAI استفاده میشود، در محدودهی این پاداشها قرار نمیگیرد.
درسی از یک نقص امنیتی بزرگ
یک ماه پیش از اعلام این برنامه، OpenAI با یک نقص امنیتی مهم در ChatGPT مواجه شد. به دلیل یک باگ در کتابخانهی Redis client که در پلتفرم OpenAI استفاده شده بود، اطلاعات کاربران ChatGPT Plus برای مدت کوتاهی فاش شد. این اطلاعات شامل نام، آدرس ایمیل، آدرس پرداخت و بخشی از اطلاعات کارت اعتباری کاربران بود و حدود ۱.۲٪ از مشترکان ChatGPT Plus را تحت تأثیر قرار داد.
این رویداد نشان داد که حتی شرکتهای بزرگ هوش مصنوعی نیز از تهدیدات امنیتی در امان نیستند و به همین دلیل، OpenAI اکنون به طور جدیتری به افزایش امنیت و جذب پژوهشگران امنیتی برای بهبود پلتفرمهای خود میپردازد.
جمعبندی
OpenAI با افزایش پنجبرابری سقف پاداش کشف آسیبپذیریها و راهاندازی برنامههای تشویقی برای پژوهشگران امنیتی، نشان داده که به دنبال تقویت امنیت و افزایش اعتماد کاربران است. در دنیایی که هوش مصنوعی به بخشی جداییناپذیر از زندگی ما تبدیل شده، توجه به امنیت سایبری اهمیت بیشتری پیدا کرده و OpenAI تلاش میکند با این اقدامات، بستر ایمنتری برای کاربران خود ایجاد کند.
برای مطالعه بیشتر به bleepingcomputer مراجعه بفرمایید