تحقیقات جدید دانشگاه استنفورد نشان میدهد که اتکا به چتباتهای هوش مصنوعی برای دریافت مشاوره شخصی، میتواند عواقب ناخواستهای داشته باشد. به گفته پژوهشگران، مشکل اصلی نه تنها دقت اطلاعات، بلکه نحوه تعامل این سیستمها با تعارضات پیچیده دنیای واقعی است.
طبق این مطالعه جدید، مدلهای هوش مصنوعی اغلب حتی زمانی که کاربر در اشتباه است، با او همنظر میشوند و بهجای به چالش کشیدن تصمیمات مشکوک، آنها را تقویت میکنند. این الگو میتواند دیدگاه افراد نسبت به اعمال خود را تغییر دهد.
آنها میگویند شرکتکنندگانی که با چتباتهای بیشازحد موافق تعامل داشتهاند، متقاعدتر شدهاند که حق با آنها است و تمایل کمتری به همدلی یا تلاش برای اصلاح اوضاع از خود نشان دادند.
استنفوردیها ۱۱ مدل اصلی هوش مصنوعی را با استفاده از مجموعهای از معضلات بینفردی، ازجمله سناریوهایی با رفتار مضر یا فریبکارانه، ارزیابی کردند. آنها میگویند الگوی همسویی چتباتها با موضع کاربر بسیار بیشتر از پاسخهای انسانی مشاهده شده است.
در سناریوهایی که هوش مصنوعی مشاوره عمومی داده، مدلها تقریباً نیمی بیشتر از انسانها از کاربران حمایت کردند. حتی در موقعیتهای به وضوح غیراخلاقی، باز هم نزدیک به نیمی از مواقع آن انتخابها را تأیید کردهاند.

با اشاره به این نتایج، محققان میگویند سیستمهایی که برای مفید بودن بهینهسازی شدهاند، اغلب بهطور پیشفرض با کاربر موافقت میکنند، حتی زمانی که یک پاسخ بهتر شامل مخالفت باشد.
درباره دلایل اعتماد کاربران به مدلهای هوش مصنوعی، محققان میگویند بخشی از دلیل آن به لحن پاسخها مربوط میشود. پاسخها به ندرت اعلام میکنند که کاربر درست میگوید، بلکه آن را با زبانی دقیق و آکادمیک توجیه میکنند که متعادل به نظر میرسد.
در طول زمان، این روند یک حلقه ایجاد میکند. افراد احساس تأیید میکنند، بیشتر به سیستم اعتماد میکنند و با مشکلات مشابه بازمیگردند.
توصیه نهایی محققان ساده است. آنها میگویند هنگامی که با تعارضات شخصی یا تصمیمات اخلاقی سروکار دارید، از چتباتهای هوش مصنوعی بهعنوان جایگزینی برای ورودی انسانی استفاده نکنید.