جست‌وجو در سایت

برای بستن، دکمه Esc یا ضربدر را فشار دهید.

16 مهر 1404

|

4

|

0 نظر

|

کدخبر: 9850

|

گوگل برای شناسایی باگ‌های هوش مصنوعی جایزه می‌دهد

گوگل برای افزایش امنیت محصولات هوش مصنوعی خود، برنامه‌ای جهانی به نام AI Vulnerability Reward Program (AI VRP) راه‌اندازی کرده است. این طرح به پژوهشگران امنیت سایبری و متخصصان AI اجازه می‌دهد با کشف باگ‌ها و آسیب‌پذیری‌ها، پاداش نقدی دریافت کنند. هدف اصلی این برنامه، جلوگیری از سوءاستفاده‌های احتمالی از هوش مصنوعی است. این موارد … ادامه مطلب

گوگل برای شناسایی باگ‌های هوش مصنوعی جایزه می‌دهد

گوگل برای افزایش امنیت محصولات هوش مصنوعی خود، برنامه‌ای جهانی به نام AI Vulnerability Reward Program (AI VRP) راه‌اندازی کرده است. این طرح به پژوهشگران امنیت سایبری و متخصصان AI اجازه می‌دهد با کشف باگ‌ها و آسیب‌پذیری‌ها، پاداش نقدی دریافت کنند.

هدف اصلی این برنامه، جلوگیری از سوءاستفاده‌های احتمالی از هوش مصنوعی است. این موارد شامل تولید محتوای جعلی، دسترسی غیرمجاز به داده‌ها یا هدایت سیستم‌ها به رفتارهای خطرناک می‌شود. گوگل اعلام کرده که برای کشف نقص‌های مهم در مدل‌ها یا کدهای هوش مصنوعی، تا سقف ۳۰ هزار دلار جایزه پرداخت می‌کند.

تمرکز برنامه بر امنیت مدل‌ها

به گزارش وب‌سایت‌های The Verge و BleepingComputer، دامنه این طرح مدل‌های زبانی Gemini، قابلیت‌های جست‌وجوی هوشمند گوگل و سرویس‌های Workspace را دربر می‌گیرد. پژوهشگرانی که باگ‌هایی در زمینه امنیت، حریم خصوصی یا کنترل محتوا پیدا کنند، مشمول پاداش خواهند شد.

گوگل تأکید می‌کند که اشتباهات معمولی مدل‌ها مانند پاسخ غلط یا محتوای نامرتبط، شامل پاداش نیست. تمرکز این طرح بر تهدیدهای واقعی امنیتی است؛ از جمله دور زدن محدودیت‌ها، افشای داده‌های محرمانه یا حملات تزریق داده (Prompt Injection) که می‌تواند رفتار مدل را تغییر دهد.

سابقه گوگل در پاداش‌دهی

این برنامه ادامه سیاست چندساله گوگل در همکاری با محققان امنیتی است. این شرکت در سال ۲۰۲۴ بیش از ۱۲ میلیون دلار به پژوهشگران برای کشف باگ‌های نرم‌افزاری پرداخت کرد. اکنون با اضافه شدن حوزه هوش مصنوعی، گوگل می‌خواهد همان شفافیت و استاندارد امنیتی را در مدل‌های یادگیری ماشین پیاده کند.

گامی برای اعتماد بیشتر به هوش مصنوعی

کارشناسان امنیتی معتقدند چنین اقدام‌هایی اعتماد عمومی به هوش مصنوعی را افزایش می‌دهد و خطر حملات سایبری را کاهش می‌دهد. با رشد سریع مدل‌های مولد در جست‌وجو و ابزارهای متنی، ایجاد سازوکارهای ایمن‌سازی ضروری است.

گوگل اعلام کرده که آمار و نتایج این برنامه در پایان هر سال منتشر می‌شود تا شفافیت بیشتری در امنیت سیستم‌های هوش مصنوعی ایجاد شود.

برچسب ها :

گوگل ، امنیت ،

نظر خود را وارد کنید

آدرس ایمیل شما در دسترس عموم قرار نمیگیرد.

پربحث ترین ها
پیشنهادی: