جست‌وجو در سایت

برای بستن، دکمه Esc یا ضربدر را فشار دهید.

27 آبان 1404

|

5

|

0 نظر

|

کدخبر: 10388

|

هشدار جدی ساندار پیچای درباره خطرات اعتماد کامل به هوش مصنوعی

ساندار پیچای، مدیرعامل Alphabet Inc. در مصاحبه‌ای جدید اعلام کرد که ابزارهای هوش مصنوعی—even پیشرفته‌ترین مدل‌ها—هنوز مستعد خطا هستند و نباید به آن‌ها اعتماد کامل داشت. او همچنین هشدار داد که رشد سریع این صنعت می‌تواند به ایجاد «حباب هوش مصنوعی» منجر شود؛ حبابی که در صورت ترکیدن، حتی شرکت‌های بزرگ نیز از آسیب مصون نخواهند بود. این اظهارات هم‌زمان با نزدیک‌شدن به عرضه مدل جدید Gemini 3.0 مطرح شده است.

هشدار جدی ساندار پیچای درباره خطرات اعتماد کامل به هوش مصنوعی

 هشدار یک غول فناوری

ساندار پیچای، مدیرعامل Alphabet Inc. و یکی از مهم‌ترین چهره‌های صنعت هوش مصنوعی، در گفت‌وگویی با بی‌بی‌سی درباره اعتماد بی‌چون‌وچرا به ابزارهای هوش مصنوعی هشدار داد. این هشدار در زمانی مطرح می‌شود که گوگل در آستانه معرفی مدل جدید Gemini 3.0 قرار دارد.


تأکید پیچای : «ابزارهای هوش مصنوعی خطاپذیرند»

پیچای با اشاره به نرخ خطا در مدل‌های بزرگ زبانی گفت:
«ابزارهای هوش مصنوعی مستعد خطا هستند و نباید به آن‌ها به‌طور کامل اعتماد کرد.»

او توضیح داد که حتی جدیدترین مدل‌های مبتنی بر یادگیری عمیق ممکن است خروجی‌های غیرواقعی، اشتباه یا گمراه‌کننده ارائه دهند.


 هشدار درباره ترکیدن احتمالی «حباب هوش مصنوعی»

در بخش دیگری از این مصاحبه، پیچای از ریسک‌های اقتصادی مرتبط با رشد سریع AI گفت.
او هشدار داد:
«هیچ شرکتی مصون نیست اگر حباب هوش مصنوعی بترکد.»

این جمله نشان می‌دهد که حتی بازیگران بزرگی مانند گوگل نیز نسبت به آینده این صنعت محتاط هستند.


 هم‌زمان با عرضه Gemini 3.0

این هشدارها دقیقاً زمانی مطرح می‌شود که گوگل در آستانه انتشار نسخه جدید مدل مصرف‌کننده‌اش یعنی Gemini 3.0 است.
مدلی که از آن به‌عنوان یکی از قدرتمندترین ابزارهای مولد محتوا، تحلیل داده و پردازش چندوجهی یاد می‌شود.
با این حال، پیچای رسماً اعلام کرده که قدرت این مدل‌ها دلیل کافی برای اعتماد کامل به آن‌ها نیست.


 پیام این هشدار برای متخصصان و توسعه‌دهندگان

سخنان پیچای تنها یک نظر رسانه‌ای نیست، بلکه پیامی عملی برای توسعه‌دهندگان، پژوهشگران و کاربران تخصصی محسوب می‌شود.
به‌ویژه در حوزه‌هایی مانند:

  • تشخیص ژست

  • پردازش تصویر

  • سیستم‌های خودکار

  • کنترل ربات‌ها

  • تحلیل داده‌های حساس

اتکا به یک مدل بدون اعتبارسنجی، کنترل مجدد و نظارت انسانی می‌تواند نتایج خطرناک ایجاد کند.

 اهمیت احتیاط در پروژه‌های رباتیک و بینایی ماشین

در پروژه‌های دانشگاهی و صنعتی که خروجی مدل‌های AI می‌تواند حرکت یک ربات یا یک سیستم فیزیکی را کنترل کند، خطاهای کوچک ممکن است آثار بزرگی ایجاد کند.

بنابراین، این هشدار تأکیدی است بر اینکه در پروژه‌هایی مثل تشخیص ژست با MediaPipe، YOLO یا CNN — حتی با دقت‌های بالا — باید مکانیزم‌های بررسی و فیلتر خطا در نظر گرفته شوند.


 جمع‌بندی: عصر جدید مسئولیت‌پذیری در هوش مصنوعی

پیچای با این اظهارات پیام روشنی داده است:
دوران هیجان بی‌حد درباره هوش مصنوعی به پایان رسیده و شروع عصر احتیاط و مسئولیت‌پذیری است.

شرکت‌ها، دانشگاه‌ها و توسعه‌دهندگان باید بدانند که هوش مصنوعی، با وجود قدرت زیاد، همچنان به نظارت و کنترل انسانی نیاز دارد.


برای مشاهده جدیدترین اخبار، به پایگاه خبری هوش مصنوعی ایران مراجعه کنید.

نظر خود را وارد کنید

آدرس ایمیل شما در دسترس عموم قرار نمیگیرد.

پربحث ترین ها
پیشنهادی: