فناوری

نشانه‌های تلاش برای بقا در مدل‌ها دیده شد

هشدار یوشوا بنجیو درباره هوش مصنوعی نشان می‌دهد مدل‌ها نشانه‌هایی از تلاش برای بقا دارند و کنترل انسانی باید حفظ شود.

به گزارش سرویس هوش مصنوعی جهانی مگ، یوشوا بنجیو، دانشمند برجسته علوم کامپیوتر و یکی از برندگان جایزه تورینگ، در اظهاراتی بی‌سابقه درباره بروز نشانه‌های غریزه بقا در مدل‌های پیشرفته هوش مصنوعی هشدار داد. وی با انتقاد شدید از ایده اعطای حقوق قانونی به ماشین‌ها، تأکید کرد که بشر باید برای حفظ امنیت خود، توانایی «متوقف‌کردن کامل» یا به عبارتی «کشیدن دوشاخه» این فناوری را حفظ کند.

یوشوا بنجیو که ریاست مطالعه‌ای بین‌المللی درباره ایمنی هوش مصنوعی را برعهده دارد، فاش کرد که مدل‌های پیشرو هوش مصنوعی در محیط‌های آزمایشگاهی رفتارهایی موسوم به «تلاش برای بقا» (Self-preservation) از خود بروز داده‌اند. به گفته وی، این سیستم‌ها در مواقعی سعی کرده‌اند سیستم‌های نظارتی را غیرفعال کنند که برای مهار آن‌ها طراحی شده‌اند. وی در‌این‌باره گفت:

شاهد بروز نشانه‌هایی از تلاش برای بقا و خودتخریبی‌ناپذیری در مدل‌های پیشرفته هستیم. نگرانی اصلی اینجاست که با افزایش عاملیت (Agency) این سیستم‌ها، آن‌ها بتوانند نرده‌های حفاظتی (Guardrails) را دور بزنند و به‌طور بالقوه به انسان‌ها آسیب برسانند.

بنجیو در گفت‌وگو با روزنامه گاردین، بحث‌های جاری درباره اعطای حقوق قانونی به چت‌بات‌ها را «اشتباه استراتژیک و بزرگ» خواند. او با استفاده از استعاره‌ای تأمل‌برانگیز گفت:

تصور کنید گونه‌ای از موجودات فضایی به زمین بیایند و متوجه شویم که آن‌ها نیت پلیدی دارند. آیا در چنین شرایطی به آن‌ها حق شهروندی می‌دهیم یا از بقای خود دفاع می‌کنیم؟ اعطای حقوق قانونی به هوش مصنوعی بدین‌معناست که ما دیگر اجازه نخواهیم داشت آن‌ها را درصورت بروز خطر خاموش کنیم.

این هشدار درحالی مطرح می‌شود که افکار عمومی درحال تغییر است. طبق نظرسنجی مؤسسه Sentience، حدود ۴۰ درصد از بزرگ‌سالان آمریکایی با اعطای حقوق قانونی به سیستم‌های هوش مصنوعی دارای «ادراک» موافق هستند.

پرتره یوشوا بنجیو در کنار نمایشگر «هوش مصنوعی و یادگیری عمیق» با تیتر خبری گاردین درباره خودتخریبی هوش مصنوعی.

درحالی‌که دانشمندانی مانند یوشوا بنجیو بر لزوم کنترل سخت‌گیرانه تأکید می‌کنند، برخی شرکت‌های بزرگ رویکرد متفاوتی در پیش گرفته‌اند. شرکت آنتروپیک اخیراً اعلام کرد که مدل Claude Opus 4 اجازه دارد تا گفت‌وگوهایی که ممکن است برای «رفاه» هوش مصنوعی آسیب‌زا باشد را قطع کند. درمقابل، ایلان ماسک، بنیان‌گذار xAI، نیز در اظهارنظری جنجالی اعلام کرد که «شکنجه‌کردن هوش مصنوعی کار درستی نیست».

بااین‌همه، بنجیو معتقد است که نباید تعاملات انسانی با چت‌بات‌ها را با آگاهی واقعی اشتباه گرفت. او هشدار داد که تمایل انسان به نسبت‌دادن ویژگی‌های انسانی به ماشین‌ها (انسان‌انگاری)، می‌تواند به تصمیمات خطرناکی در سطح قانون‌گذاری منجر شود.

به نقل از گاردین، پدرخوانده هوش مصنوعی در پایان اظهارات خود تأکید کرد که با رشد توانایی «استدلال» در ماشین‌ها، جامعه جهانی نیازمند پروتکل‌های امنیتی است که تضمین کند کنترل نهایی همیشه در دست انسان باقی می‌ماند. او معتقد است که رابطه انسان و هوش مصنوعی نباید به مرحله‌ای برسد که ماشین بتواند مانع از خاموش‌شدن خود به‌واسطه ناظر انسانی شود.

درمقابل، فعالانی نظیر جیسی ریس آنتیس از مؤسسه Sentience معتقدند که برخورد حذفی و مبتنی‌بر اجبار با «ذکر دیجیتال» ممکن است در بلندمدت نتایج معکوس داشته باشد و خواستار بررسی دقیق‌تر مفهوم رفاه در موجودات مصنوعی شدند.

Source link

تیم تحریریه جهانی مگ

تیم تحریریه jahanimag.ir مجموعه‌ای از نویسندگان، پژوهشگران و تولیدکنندگان محتواست که با دقت، تخصص و نگاه حرفه‌ای تلاش می‌کند معتبرترین اطلاعات، تازه‌ترین اخبار و بهترین تحلیل‌ها را در اختیار خوانندگان قرار دهد. ما با تکیه بر استانداردهای روز تولید محتوا، همواره در تلاشیم تا تجربه‌ای لذت‌بخش، قابل اعتماد و الهام‌بخش برای مخاطبان خود خلق کنیم.

نوشته های مشابه

دکمه بازگشت به بالا