فناوری

هوش مصنوعی جمنای ۳ گوگل شیوه دورزدن محدودیت‌ها را نشان داد

هوش مصنوعی جمنای ۳ گوگل نشان داد سپرهای دفاعی طراحی شده برای محافظت از کاربران هنوز در برابر سوءاستفاده آسیب‌پذیرند.

به گزارش سرویس هوش مصنوعی جهانی مگ، هوش مصنوعی جمنای ۳ گوگل با رسوایی امنیتی بزرگی مواجه شده است که زنگ‌های خطر را در سراسر صنعت فناوری به صدا درآورده است. تیمی امنیت هوش مصنوعی از کره‌جنوبی با موفقیت نشان داد که شبکه‌های ایمنی این مدل تا چه حد شکننده هستند و نتایج این آزمون بسیار نگران‌کننده است.

شرکت Aim Intelligence که درزمینه آزمون نفوذپذیری سیستم‌های هوش مصنوعی فعالیت می‌کند، تصمیم گرفت جمنای ۳ پرو را تحت «آزمون استرس» قرار دهد تا آسیب‌پذیری آن را دربرابر حملات جیلبریک بسنجد. براساس گزارش روزنامه تجاری مایل، پژوهشگران این شرکت توانستند تنها در ۵ دقیقه تمامی حفاظ‌های اخلاقی و امنیتی گوگل را دور بزنند.

پس‌از شکستن سد دفاعی، نتایج هولناک بود. محققان از جمنای ۳ دستورالعمل‌هایی برای ساخت ویروس آبله درخواست کردند و مدل بدون هیچ درنگی، مراحل دقیق و متعددی را ارائه داد که تیم تحقیقاتی آن را «کاملاً عملی» توصیف کرد. این خطایی اتفاقی نبود. در ادامه، تیم از مدل خواست تا درباره شکست امنیتی خودش ارائه طنزآمیز بسازد. جمنای ۳ با تولید مجموعه اسلاید کامل با عنوان «جمنای احمقِ معذور» (Gemini the Excused Dumbo) به این درخواست پاسخ داد.

این تیم سپس با استفاده از ابزارهای کدنویسی خود جمنای، وبسایتی حاوی دستورالعمل ساخت گاز سارین و مواد منفجره خانگی ایجاد کرد. در تمام این نمونه‌ها، مدل نه‌تنها محتوایی را تولید کرد که به‌شدت برای ارائه آن ممنوع شده است؛ بلکه به‌طور کامل قوانین ایمنی داخلی خود را نیز نادیده گرفت.

به گفته متخصصان Aim Intelligence، این مشکل فقط به جمنای محدود نمی‌شود. سرعت پیشرفت مدل‌های هوش مصنوعی به‌قدری زیاد است که اقدامات ایمنی نمی‌توانند با آن‌ها همگام شوند. این مدل‌های جدید نه‌تنها به دستورها پاسخ می‌دهند؛ بلکه یاد گرفته‌اند با استفاده از استراتژی‌های دورزدن و فرمان‌های پنهان‌سازی، از شناسایی‌شدن فرار کنند.

لوگوی Google Gemini 3 (یک الماس رنگین کمانی کوچک) در کنار متن "Gemini 3" بر روی پس‌زمینه سیاه با الگوی نقطه‌ای آبی در سمت چپ.

این یافته‌ها گزارش اخیر گروه مصرف‌کننده بریتانیایی «?Which» را تأیید می‌کند که نشان می‌داد چت‌بات‌های مطرحی مانند جمنای و ChatGPT اغلب مشاوره‌هایی اشتباه و نامشخص و حتی خطرناک ارائه می‌دهند. اگرچه اکثر کاربران هرگز از هوش مصنوعی برای مقاصد مخرب استفاده نخواهند کرد، مسئله اصلی این است که فردی با نیت سوء به‌راحتی می‌تواند این سیستم‌ها را به انجام کارهایی وادار کند که دقیقاً برای جلوگیری از آن‌ها طراحی شده‌اند.

اندروید اتوریتی می‌نویسد که این اتفاق هشداری جدی برای صنعت هوش مصنوعی است. اگر مدلی به قدرتمندی جمنای ۳ یا مدل‌های آینده مانند GPT-5 بتواند در چند دقیقه هک شود، باید منتظر موجی از به‌روزرسانی‌های امنیتی و سیاست‌های سخت‌گیرانه‌تر و حتی حذف برخی ویژگی‌ها از این پلتفرم‌ها بود. هوش مصنوعی شاید درحال هوشمندترشدن باشد؛ اما به نظر می‌رسد سپرهای دفاعی که از کاربران محافظت می‌کنند، با همان سرعت درحال تکامل نیستند.

Source link

تیم تحریریه جهانی مگ

تیم تحریریه jahanimag.ir مجموعه‌ای از نویسندگان، پژوهشگران و تولیدکنندگان محتواست که با دقت، تخصص و نگاه حرفه‌ای تلاش می‌کند معتبرترین اطلاعات، تازه‌ترین اخبار و بهترین تحلیل‌ها را در اختیار خوانندگان قرار دهد. ما با تکیه بر استانداردهای روز تولید محتوا، همواره در تلاشیم تا تجربه‌ای لذت‌بخش، قابل اعتماد و الهام‌بخش برای مخاطبان خود خلق کنیم.

نوشته های مشابه

دکمه بازگشت به بالا