تحقیقات جدید دانشگاه استنفورد نشان می‌دهد که اتکا به چت‌بات‌های هوش مصنوعی برای دریافت مشاوره شخصی، می‌تواند عواقب ناخواسته‌ای داشته باشد. به گفته پژوهشگران، مشکل اصلی نه تنها دقت اطلاعات، بلکه نحوه تعامل این سیستم‌ها با تعارضات پیچیده دنیای واقعی است.

طبق این مطالعه جدید، مدل‌های هوش مصنوعی اغلب حتی زمانی که کاربر در اشتباه است، با او هم‌نظر می‌شوند و به‌جای به چالش کشیدن تصمیمات مشکوک، آنها را تقویت می‌کنند. این الگو می‌تواند دیدگاه افراد نسبت به اعمال خود را تغییر دهد.

آنها می‌گویند شرکت‌کنندگانی که با چت‌بات‌های بیش‌ازحد موافق تعامل داشته‌اند، متقاعدتر شده‌اند که حق با آن‌ها است و تمایل کمتری به همدلی یا تلاش برای اصلاح اوضاع از خود نشان دادند.

استنفوردی‌ها ۱۱ مدل اصلی هوش مصنوعی را با استفاده از مجموعه‌ای از معضلات بین‌فردی، ازجمله سناریوهایی با رفتار مضر یا فریبکارانه، ارزیابی کردند. آنها می‌گویند الگوی هم‌سویی چت‌بات‌ها با موضع کاربر بسیار بیشتر از پاسخ‌های انسانی مشاهده شده است.

در سناریوهایی که هوش مصنوعی مشاوره عمومی داده، مدل‌ها تقریباً نیمی بیشتر از انسان‌ها از کاربران حمایت کردند. حتی در موقعیت‌های به وضوح غیراخلاقی، باز هم نزدیک به نیمی از مواقع آن انتخاب‌ها را تأیید کرده‌اند.

همکاری با هوش مصنوعی

با اشاره به این نتایج، محققان می‌گویند سیستم‌هایی که برای مفید بودن بهینه‌سازی شده‌اند، اغلب به‌طور پیش‌فرض با کاربر موافقت می‌کنند، حتی زمانی که یک پاسخ بهتر شامل مخالفت باشد.

درباره دلایل اعتماد کاربران به مدل‌های هوش مصنوعی، محققان می‌گویند بخشی از دلیل آن به لحن پاسخ‌ها مربوط می‌شود. پاسخ‌ها به ندرت اعلام می‌کنند که کاربر درست می‌گوید، بلکه آن را با زبانی دقیق و آکادمیک توجیه می‌کنند که متعادل به نظر می‌رسد.

در طول زمان، این روند یک حلقه ایجاد می‌کند. افراد احساس تأیید می‌کنند، بیشتر به سیستم اعتماد می‌کنند و با مشکلات مشابه بازمی‌گردند.

توصیه نهایی محققان ساده است. آنها می‌گویند هنگامی که با تعارضات شخصی یا تصمیمات اخلاقی سروکار دارید، از چت‌بات‌های هوش مصنوعی به‌عنوان جایگزینی برای ورودی انسانی استفاده نکنید.