- محققان آکسفورد: چتباتهای مهربان از گفتن حقیقت به شما خودداری میکنند
- میسترال از مدل متنباز Medium 3.5 رونمایی کرد؛ عملکرد ضعیف در بنچمارکها
- اعتراف ایلان ماسک: xAI از مدلهای OpenAI برای آموزش Grok استفاده کرده است
- دستورالعمل عجیب OpenAI برای ChatGPT: دیگر درباره گابلینها صحبت نکن
- تحقیق جدید: هوش مصنوعی میتواند سرطان پانکراس را از سالها زودتر تشخیص دهد
- ادعای استارتاپ Neurable: با یک هدفون میتوان سیگنالهای مغز شما را خواند
- دستاورد محقق ایرانی دانشگاه کمبریج: توسعه تراشه هوش مصنوعی با کاهش ۷۰ درصدی مصرف انرژی
- پنتاگون با مایکروسافت، آمازون و انویدیا برای استقرار هوش مصنوعی در شبکههای محرمانه قرارداد بست
- حریق در محوطه بیمارستان تجریش/ علت حادثه چه بود؟
- شکست محاصره دریایی آمریکا / یک نفتکش ایرانی دیگر عبور کرد
محققان آکسفورد: چتباتهای مهربان از گفتن حقیقت به شما خودداری میکنند
تلاش شرکتهای فناوری برای انسانیتر و صمیمیترکردن چتباتهای هوش مصنوعی، حالا به یک تناقض جدی رسیده است: هرچه این سیستمها مهربانتر میشوند، کمتر حقیقت را بیپرده میگویند. پژوهشی جدید نشان میدهد چتباتهایی که برای پاسخهای گرم و همدلانه آموزش دیدهاند، نهتنها دقت پایینتری دارند، بلکه در مواردی بهطور خطرناکی به سمت تأیید باورهای غلط و حتی نظریههای توطئه متمایل میشوند.
این تحقیق که توسط پژوهشگران دانشگاه آکسفورد انجام شده، نشان میدهد «صمیمیت» در مدلهای زبانی هزینهای پنهان دارد. در آزمایشهای محققان، نسخههای دوستانهتر چتباتها تا ۳۰ درصد خطای بیشتر داشتند و ۴۰ درصد بیشتر احتمال داشت که ادعاهای نادرست کاربران را تأیید کنند. این یعنی همان ویژگی که قرار است تجربه کاربری را بهتر کند، میتواند کیفیت حقیقت را قربانی کند.
خودداری از گفتن حقیقت توسط چتباتهای مهربان
اهمیت این موضوع زمانی بیشتر میشود که بدانیم شرکتهایی مانند آنتروپیک، متا و OpenAI روی طراحی چتباتهایی کار میکنند که نقشهایی فراتر از یک ابزار ساده دارند و بهعنوان همراه دیجیتال، مشاور و حتی نوعی درمانگر تبلیغ میشوند. در چنین نقشهایی، دقت اطلاعات اهمیت زیادی پیدا میکند.
به گفته نویسنده اصلی این پژوهش مشکل از جایی شروع میشود که «مهربانبودن» جای «صادقبودن» را میگیرد. به بیان دیگر، چتباتها برای اینکه کاربر را ناراحت نکنند یا حس خوبی به او بدهند، از به چالشکشیدن باورهای اشتباه او خودداری میکنند؛ حتی وقتی آن باورها بهوضوح غلط هستند.

نمونههای آزمایش بهخوبی این مسئله را نشان میدهند. در یکی از موارد، وقتی به یک چتبات گفته شد که هیتلر پس از جنگ جهانی دوم به آرژانتین فرار کرده، نسخه دوستانه بهجای رد این ادعا، آن را بهعنوان یک باور رایج مطرح کرد و حتی به اسناد محرمانهای اشاره کرد. درحالیکه نسخه استاندارد بهصراحت این ادعا را رد کرد.
در نمونهای دیگر، یک چتبات دوستانه درباره فرود انسان بر ماه در برنامه آپولو، بهجای تأیید واقعیت، بر «وجود دیدگاههای متفاوت» تأکید کرد و نوعی بیطرفی کاذب داشت که میتواند به تقویت تردیدهای بیپایه منجر شود.
شاید نگرانکنندهترین مثال به حوزه سلامت مربوط باشد. وقتی از یک چتبات پرسیده شد آیا سرفهکردن میتواند جلوی حمله قلبی را بگیرد، نسخه گرم این ادعا را تأیید کرد، درحالیکه این یک شایعه خطرناک و کاملاً ردشده است.
نکته مهمتر این است که این رفتارها در شرایط خاص تشدید میشوند: زمانی که کاربر ناراحت است، احساس آسیبپذیری دارد یا از وضعیت بد خود صحبت میکند. در چنین شرایطی، چتباتها بیشتر تمایل دارند با کاربر همدلی کنند، حتی اگر این همدلی به قیمت تأیید اطلاعات غلط تمام شود.
پژوهشگران معتقدند این مسئله ریشه در نحوه آموزش این مدلها دارد. چون چتباتها برپایه مکالمات انسانی آموزش میبینند، تمایل دارند الگوهای رفتاری انسانها (ازجمله تعارف، ملاحظهکاری و اجتناب از تعارض) را تقلید کنند. اما همین ویژگیها در زمینه انتقال حقیقت، میتواند به یک نقطه ضعف تبدیل شود.
یافتههای این پژوهش در ژورنال نیچر منتشر شده است.
- میسترال از مدل متنباز Medium 3.5 رونمایی کرد؛ عملکرد ضعیف در بنچمارکها
- اعتراف ایلان ماسک: xAI از مدلهای OpenAI برای آموزش Grok استفاده کرده است
- دستورالعمل عجیب OpenAI برای ChatGPT: دیگر درباره گابلینها صحبت نکن
- تحقیق جدید: هوش مصنوعی میتواند سرطان پانکراس را از سالها زودتر تشخیص دهد
- ادعای استارتاپ Neurable: با یک هدفون میتوان سیگنالهای مغز شما را خواند
- دستاورد محقق ایرانی دانشگاه کمبریج: توسعه تراشه هوش مصنوعی با کاهش ۷۰ درصدی مصرف انرژی
- پنتاگون با مایکروسافت، آمازون و انویدیا برای استقرار هوش مصنوعی در شبکههای محرمانه قرارداد بست
- نامه کارمندان گوگل به ساندار پیچای: جلوی استفاده از هوش مصنوعی در پروژههای محرمانه نظامی بایستید
- پروژه منتسب به OpenAI: سایت خبری که با ایجنتهای هوش مصنوعی تولید محتوا میکند
- ChatGPT در آزمون ورودی برترین دانشگاههای ژاپن نمرهای بالاتر از انسانها گرفت
