فناوری

خوش‌بینی هوش مصنوعی؛ وقتی مدل‌ها انسان‌ها را عقلانی‌تر می‌بینند

پژوهش‌ها نشان می‌دهند که خوش‌بینی هوش مصنوعی باعث می‌شود تا مدل‌ها انسان‌ها را منطقی‌تر از واقعیت فرض کنند و پیش‌بینی‌ها گاهی نادرست باشند.

به گزارش سرویس هوش مصنوعی جهانی مگ، پژوهشی جدید نشان می‌دهد شیوه‌ای که هوش مصنوعی به انسان‌ها نگاه می‌کند، شاید بیش‌از‌حد خوش‌بینانه باشد. پژوهشگران دریافته‌اند که مدل‌های محبوب هوش مصنوعی مانند ChatGPT شرکت OpenAI و Claude شرکت آنتروپیک معمولاً انسان‌ها را منطقی‌تر و عقلانی‌تر از آن چیزی فرض می‌کنند که در واقع هستند؛ به‌ویژه در موقعیت‌هایی که پای تفکر راهبردی در میان است.

این شکاف میان انتظاری که هوش مصنوعی از رفتار انسان دارد و آنچه مردم در عمل انجام می‌دهند، پیامدهایی جدی برای نحوه پیش‌بینی تصمیم‌های انسانی با این مدل‌های هوش مصنوعی در حوزه اقتصاد و فراتر از آن می‌تواند داشته باشد. پژوهشگران مدل‌های هوش مصنوعی ازجمله ChatGPT-4o و Claude-Sonnet-4 را در قالب چهارچوب کلاسیک نظریه بازی‌ها به نام «مسابقه زیبایی کینزی» آزمایش کردند. درک این بازی کمک می‌کند تا مشخص شود چرا نتایج این پژوهش اهمیت دارد.

در مسابقه زیبایی، شرکت‌کنندگان برای بردن باید پیش‌بینی کنند دیگران چه انتخابی خواهند کرد، نه اینکه صرفاً گزینه دلخواه شخصی‌شان را انتخاب کنند. از لحاظ نظری، بازی عقلانی به این معناست که فرد از برداشت‌های اولیه فراتر برود و درباره این امر تأمل کند که دیگران چگونه فکر و استدلال می‌کنند؛ لایه‌ای عمیق از تفکر راهبردی که انسان‌ها در عمل اغلب در آن با دشواری روبه‌رو می‌شوند.

رندر سه‌بعدی یک ربات کارتونی سفید در کنار ماکتی از صفحه‌نمایش گوشی هوشمند با رابط گفت‌وگویی، نماد تعامل بین چت‌بات‌ها و اپلیکیشن‌های پیام‌رسان مبتنی بر هوش مصنوعی

برای بررسی عملکرد مدل‌های هوش مصنوعی، پژوهشگران از آن‌ها خواستند نسخه‌ای از این بازی با نام «حدس عدد» را انجام دهند؛ جایی که هر بازیکن عددی بین صفر تا صد انتخاب می‌کند. برنده کسی است که انتخابش به نصف میانگین انتخاب همه بازیکنان نزدیک‌تر باشد. به مدل‌های هوش مصنوعی توضیحاتی درباره رقیبان انسانی‌شان داده شد؛ از دانشجویان سال اول دانشگاه گرفته تا نظریه‌پردازان باتجربه بازی‌ها. سپس از این سامانه‌ها خواسته شد تا نه‌تنها یک عدد انتخاب کنند؛ بلکه منطق انتخاب خود را نیز توضیح دهند.

مدل‌ها عدد انتخابی خود را براساس اینکه تصور می‌کردند با چه کسی روبه‌رو هستند، تغییر می‌دادند و این موضوع نشان‌دهنده نوعی تفکر راهبردی است. با‌این‌حال، آن‌ها به‌طور مداوم سطحی از استدلال منطقی را برای انسان‌ها در نظر می‌گرفتند که بیشتر بازیکنان واقعی در عمل از خود نشان نمی‌دهند و در نتیجه، اغلب بیش‌از‌حد هوشمندانه بازی می‌کردند و به هدف نمی‌رسیدند.

به نوشته دیجیتال ترندز، در‌حالی‌که این مطالعه نشان می‌دهد مدل‌های هوش مصنوعی می‌توانند انتخاب‌های خود را بر‌اساس ویژگی‌هایی مانند سن یا میزان تجربه تطبیق دهند، آن‌ها همچنان در شناسایی راهبردهای غالبی با مشکل مواجه هستند که انسان‌ها ممکن است در بازی‌های دونفره به کار ببرند. پژوهشگران معتقدند که این موضوع مسئله همیشگی تنظیم هوش مصنوعی براساس رفتار واقعی انسان‌ها را برجسته می‌کند؛ به‌ویژه در وظایفی که نیازمند پیش‌بینی تصمیم‌های دیگران است.

این یافته‌ها بازتاب‌دهنده نگرانی‌های گسترده‌تر درباره چت‌بات‌های امروزی است؛ ازجمله پژوهش‌هایی که نشان می‌دهند حتی بهترین مدل‌های هوش مصنوعی فقط حدود ۶۹ درصد دقت دارند و هشدارهای کارشناسان که می‌گویند مدل‌های هوش مصنوعی می‌توانند به‌طور قانع‌کننده‌ای شخصیت انسانی را تقلید کنند و همین موضوع خطر سوءاستفاده و دست‌کاری را افزایش می‌دهد.

با گسترش استفاده از هوش مصنوعی در مدل‌سازی‌های اقتصادی و سایر حوزه‌های پیچیده، درک این موضوع که فرضیات این سامانه‌ها در کجا با واقعیت انسانی فاصله می‌گیرد، اهمیتی حیاتی خواهد داشت.

Source link

تیم تحریریه جهانی مگ

تیم تحریریه jahanimag.ir مجموعه‌ای از نویسندگان، پژوهشگران و تولیدکنندگان محتواست که با دقت، تخصص و نگاه حرفه‌ای تلاش می‌کند معتبرترین اطلاعات، تازه‌ترین اخبار و بهترین تحلیل‌ها را در اختیار خوانندگان قرار دهد. ما با تکیه بر استانداردهای روز تولید محتوا، همواره در تلاشیم تا تجربه‌ای لذت‌بخش، قابل اعتماد و الهام‌بخش برای مخاطبان خود خلق کنیم.

نوشته های مشابه

دکمه بازگشت به بالا