تاریخ: 1404/01/09
OpenAI میلیون‌ها دلار پاداش می‌دهد! آیا می‌توانید باگ‌های امنیتی این شرکت را کشف کنید؟

OpenAI میلیون‌ها دلار پاداش می‌دهد! آیا می‌توانید باگ‌های امنیتی این شرکت را کشف کنید؟

OpenAI سقف پاداش کشف باگ را ۵ برابر کرد! حالا محققان امنیتی می‌توانند تا ۱۰۰ هزار دلار جایزه بگیرند. اگر در کشف آسیب‌پذیری‌های بحرانی مهارت دارید، این فرصت طلایی را از دست ندهید!

به گزارش کارشماس شرکت سحاب، شرکت هوش مصنوعی OpenAI اعلام کرد که حداکثر مبلغ پاداش برای کشف آسیب‌پذیری‌های امنیتی بحرانی و خاص را از ۲۰ هزار دلار به ۱۰۰ هزار دلار افزایش داده است. این افزایش پنج‌برابری نشان‌دهنده‌ی اهمیت تحقیقات امنیتی برای این شرکت و تعهد آن به ایمن‌سازی پلتفرم‌هایش است.

طبق اعلام OpenAI، سرویس‌ها و پلتفرم‌های این شرکت هفته‌ای بیش از ۴۰۰ میلیون کاربر در سازمان‌ها، شرکت‌ها و دولت‌های سراسر جهان دارند.

"ما به طور قابل‌توجهی حداکثر پاداش کشف باگ برای یافته‌های بحرانی و متمایز را به ۱۰۰ هزار دلار افزایش داده‌ایم (پیش‌تر ۲۰ هزار دلار بود). این افزایش نشان‌دهنده‌ی تعهد ما به پاداش‌دهی تحقیقات امنیتی معنادار و تأثیرگذار است که به ما کمک می‌کند از کاربران محافظت کنیم و اعتماد به سیستم‌های خود را حفظ کنیم."


برنامه‌های تشویقی برای محققان امنیتی

علاوه بر افزایش سقف پاداش، OpenAI قصد دارد برنامه‌های تشویقی ویژه‌ای برای پژوهشگران امنیتی راه‌اندازی کند. به گفته‌ی این شرکت، در بازه‌های زمانی مشخص، گزارش‌های تأییدشده‌ی برخی دسته‌های خاص، مشمول پاداش‌های ویژه خواهند شد.

"در دوره‌های تبلیغاتی، محققانی که گزارش‌های تأییدشده‌ای در دسته‌بندی‌های خاص ارائه کنند، واجد شرایط دریافت پاداش‌های اضافی خواهند بود."

به عنوان مثال، تا تاریخ ۳۰ آوریل، محققانی که آسیب‌پذیری‌های مربوط به Insecure Direct Object Reference (IDOR) را در زیرساخت‌ها و محصولات OpenAI شناسایی کنند، می‌توانند حداکثر ۱۳ هزار دلار جایزه دریافت کنند.


تاریخچه‌ی برنامه‌ی باگ باونتی OpenAI

OpenAI در آوریل ۲۰۲۳ برنامه‌ی باگ باونتی خود را راه‌اندازی کرد و از طریق پلتفرم Bugcrowd به پژوهشگران امنیتی که باگ‌ها و نقص‌های امنیتی را در محصولات این شرکت گزارش دهند، تا سقف ۲۰ هزار دلار پاداش پرداخت می‌کرد.

البته، مشکلات ایمنی مدل‌های هوش مصنوعی شامل این برنامه نمی‌شوند؛ به همین دلیل، روش‌های دور زدن محدودیت‌های امنیتی ChatGPT که توسط برخی کاربران برای عبور از فیلترهای OpenAI استفاده می‌شود، در محدوده‌ی این پاداش‌ها قرار نمی‌گیرد.


درسی از یک نقص امنیتی بزرگ

یک ماه پیش از اعلام این برنامه، OpenAI با یک نقص امنیتی مهم در ChatGPT مواجه شد. به دلیل یک باگ در کتابخانه‌ی Redis client که در پلتفرم OpenAI استفاده شده بود، اطلاعات کاربران ChatGPT Plus برای مدت کوتاهی فاش شد. این اطلاعات شامل نام، آدرس ایمیل، آدرس پرداخت و بخشی از اطلاعات کارت اعتباری کاربران بود و حدود ۱.۲٪ از مشترکان ChatGPT Plus را تحت تأثیر قرار داد.

این رویداد نشان داد که حتی شرکت‌های بزرگ هوش مصنوعی نیز از تهدیدات امنیتی در امان نیستند و به همین دلیل، OpenAI اکنون به طور جدی‌تری به افزایش امنیت و جذب پژوهشگران امنیتی برای بهبود پلتفرم‌های خود می‌پردازد.


جمع‌بندی

OpenAI با افزایش پنج‌برابری سقف پاداش کشف آسیب‌پذیری‌ها و راه‌اندازی برنامه‌های تشویقی برای پژوهشگران امنیتی، نشان داده که به دنبال تقویت امنیت و افزایش اعتماد کاربران است. در دنیایی که هوش مصنوعی به بخشی جدایی‌ناپذیر از زندگی ما تبدیل شده، توجه به امنیت سایبری اهمیت بیشتری پیدا کرده و OpenAI تلاش می‌کند با این اقدامات، بستر ایمن‌تری برای کاربران خود ایجاد کند.

برای مطالعه بیشتر به bleepingcomputer مراجعه بفرمایید

*
*




گروه مهندسی سحاب - برنامه نویسی - برنامه نویس فول استک مدیریت شارژ ماهانه ساختمان شارژانه وبسایت شخصی سید محمد جواد سجادی - برنامه نویس - برنامه نویس فول استک - javad sajadi programmer developer, sajadi developer, جواد سامانه جامع خدمات مادر و کودک دایه و مشاوره در حوزه های ازدواج و فرزند آوری, دایه,سامانه جامع مادر و کودک دایه,مشاوره مادر و کودک,مقالات بارداری,کمک به مادر,هفته های بارداری گالری دوربین قدیمی,گالری ظروف قدیمی,گالری سکه و اسکناس و تمبر,گالری چراغ قدیمی,تلوزیون قدیمی,ظروف چینی سنتی,چراغ نفتی,گالری ریحان , لوازم سنتی , کلکسیونی , عتیقه مشاوره اسلامی کودک و نوجوان, موسسه اخلاق و تربیت, مشاوره اسلامی,روانشناسی اسلامی,مشاوره کودک و نوجوان,مشاوره کودک,مشاوره نوجوان,مشاوره آنلاین,تربیت دينی,تربیت اخلاقی و جنسی,اختلالات رفتاری,مهارت های مادرانه,مسائل نوجوانان