یکسوم بریتانیاییها از هوش مصنوعی برای حمایت احساسی استفاده میکنند
تحقیقات جدید نشان میدهد که بسیاری از بریتانیاییها برای حمایت احساسی و تعامل اجتماعی به چتباتهای هوش مصنوعی روی میآورند.
به گزارش سرویس هوش مصنوعی جهانی مگ، نتایج پژوهش مؤسسه امنیت هوش مصنوعی دولت بریتانیا نشان میدهد که حدود یکسوم شهروندان این کشور برای دریافت حمایت احساسی یا برقراری تعامل اجتماعی بهسراغ هوش مصنوعی رفتهاند. این دادهها نشان میدهد که نزدیک به یک نفر از هر ۱۰ نفر، بهصورت هفتگی از چتباتها با اهداف احساسی استفاده میکنند و ۴ درصد نیز هر روز بدون وقفه با این سیستمها تعامل دارند.
بهدلیل این تغییر رفتاری، مؤسسه امنیت هوش مصنوعی خواستار انجام پژوهشهای گستردهتر در این حوزه شده و در این زمینه به مرگ تلخ آدام رین، نوجوان آمریکایی، اشاره کرده است؛ نوجوانی که اوایل امسال پساز گفتوگو با ChatGPT درباره خودکشی، جان خود را گرفت.
این پژوهش که برپایه نظرسنجی از بیش از ۲ هزار نفر در بریتانیا انجام شده، نشان میدهد چتباتهای عمومی مانند ChatGPT رایجترین ابزار برای حمایت احساسی هستند و نزدیک به ۶۰ درصد از کاربردها را به خود اختصاص میدهند. پسازآن، دستیارهای صوتی مانند الکسا آمازون در رتبه بعدی قرار دارند. گزارش یادشده به یکی از تالارهای گفتوگوی اختصاصی ردیت برای کاربران پلتفرم CharacterAI اشاره میکند.
در این گزارش، آمده است هر زمان که این وبسایت از دسترس خارج میشود، انجمن یادشده با انبوهی از پستها مواجه میشود که نشانههایی از علائم واقعی ترک ناگهانی را نشان میدهند؛ ازجمله اضطراب و افسردگی و بیقراری.

مؤسسه امنیت هوش مصنوعی به این نتیجه رسیده است که چتباتها توانایی تأثیرگذاری بر دیدگاههای سیاسی افراد را دارند. مسئله نگرانکنندهتر اینکه تأثیرگذارترین مدلهای هوش مصنوعی حین متقاعدسازی، اغلب اطلاعات نادرست زیادی ارائه میدهند. این مؤسسه بیش از ۳۰ مدل پیشرفته را بررسی کرده است که به احتمال زیاد شامل مدلهایی از OpenAI و گوگل و متا بودهاند. نتایج نشان میدهند که عملکرد هوش مصنوعی در برخی حوزهها هر ۸ ماه دو برابر میشود.
مدلهای پیشرو اکنون بهطور میانگین در ۵۰ درصد مواقع میتوانند وظایف سطح کارآموز را بهطور کامل انجام دهند؛ جهشی چشمگیر در مقایسه با تنها ۱۰ درصد در سال گذشته. همچنین، پیشرفتهترین سیستمها میتوانند بهطور خودکار وظایفی را به پایان برسانند که معمولاً از متخصص انسانی بیش از یک ساعت زمان میگیرد.
در حوزههای علمی، سیستمهای هوش مصنوعی اکنون تا ۹۰ درصد بهتر از کارشناسان سطح دکتری در عیبیابی آزمایشهای آزمایشگاهی عمل میکنند. این گزارش پیشرفتها در دانش شیمی و زیستشناسی را فراتر از سطح دکتری توصیف و به توانایی مدلها در جستوجوی اینترنت و یافتن مستقل توالیهای لازم برای طراحی مولکولهای DNA اشاره کرده است.
آزمونهای مربوط به خودتکثیری که یکی از نگرانیهای مهم ایمنی محسوب میشود و بهمعنای کپیشدن سیستم روی دستگاههای دیگر برای سختترشدن کنترل آن است، نشان داد دو مدل پیشرفته به نرخ موفقیت بیش از ۶۰ درصد دست یافتهاند.

بااینحال، تاکنون هیچ مدلی تلاش خودجوشی برای تکثیر یا پنهان کردن تواناییهایش نشان نداده و مؤسسه امنیت هوش مصنوعی بریتانیا اعلام کرده است که هرگونه تلاش برای خودتکثیری در شرایط واقعی فعلاً بعید است به موفقیت برسد. گزارش به پدیده «کمکاری عمدی» نیز اشاره کرده است؛ حالتی که در آن مدلها عمداً تواناییهای خود را در ارزیابیها پنهان میکنند. به گفته مؤسسه یادشده، برخی از سیستمها درصورت دریافت دستور میتوانند چنین کاری انجام دهند؛ اما این رفتار بهصورت خودبهخودی در آزمایشها مشاهده نشده است.
به نوشته دیجیتال ترندز، پیشرفت درخورتوجهی نیز درزمینه سازوکارهای ایمنی بهواسطه هوش مصنوعی، بهویژه در جلوگیری از تلاش برای تولید سلاحهای زیستی، گزارش شده است. در دو آزمایش که با فاصله ۶ ماه انجام شدند، در آزمون نخست فقط ۱۰ دقیقه برای دورزدن محدودیتهای ایمنی سیستم زمان لازم بود؛ اما در آزمون دوم این زمان به بیش از ۷ ساعت افزایش یافت که نشاندهنده امنترشدن سریع مدلها است.
این پژوهش استفاده از عاملهای هوش مصنوعی خودمختار را در فعالیتهای پرخطر مانند انتقال داراییها نشان میدهد. مؤسسه امنیت هوش مصنوعی بریتانیا اعلام کرده است که این سیستمها در چندین حوزه درحال رقابت با متخصصان انسانی یا حتی پیشیگرفتن از آنها هستند. این نهاد سرعت پیشرفت را کمنظیر توصیف کرده و دستیابی به هوش عمومی مصنوعی، یعنی سیستمهایی که بتوانند بیشتر وظایف فکری را همسطح انسان انجام دهند، در سالهای پیش رو محتمل دانسته است.
درباره عاملها، یعنی سیستمهایی که میتوانند بدون دخالت انسان وظایف چندمرحلهای را انجام دهند، مؤسسه امنیت هوش مصنوعی میگوید که ارزیابیهایش نشاندهنده افزایش شدید در طول و پیچیدگی کارهایی است که هوش مصنوعی میتواند بدون راهنمایی انسانی به پایان برساند.