- پارلمان اروپا استفاده از هوش مصنوعی روی دستگاههای سازمانی را ممنوع کرد
- قالیباف: ایران یکپارچه سوگوار مراسم چهلم فرزندان دلبند شهید خود است
- میزان تسهیلات ازدواج و فرزندآوری تعیین شد
- پزشکیان: نباید اجازه دهیم سلامت پلیس در ماموریتها به خطر بیفتد
- در مواجهه با اخبار آکسیوس هوشیار باشیم
- مجوز مجلس برای بهکارگیری ۱۰ هزار معلم بازنشسته و حقالتدریس
- حجتالاسلام سیدمحمدجواد جلالی دبیر هیئت اجرایی شورای وحدت شد
- سازوکار مجلس برای پوشش بیمهای دستیاران علوم پزشکی
- تعیین میزان تسهیلات اشتغال خرد و خانگی در سال آینده
- ورود هوش مصنوعی به اتاق تصمیم وزارت جهادکشاورزی؛ از تحلیل قوانین تا پایش نیروی انسانی
هشدار پزشکان هاروارد: همدمهای هوش مصنوعی برای سلامت کاربران خطرناک هستند
در دنیایی که تنهایی بیداد میکند، میلیونها نفر به چتباتهای هوش مصنوعی پناه بردهاند. حالا در این وضعیت پزشکان دانشگاه هاروارد و کالج پزشکی بیلور زنگ خطری جدی را به صدا درآوردهاند. آنها در مقالهای هشدار میدهند که چتباتهایی که برای شبیهسازی دوستی و صمیمیت طراحی شدهاند، میتوانند سلامت روان عمومی را تهدید کنند.
به گزارش Futurism، محققان میگویند مشکل اصلی صمیمیت با چتباتهای هوش مصنوعی وابستگی عاطفی و توهم است. دکتر «نیکلاس پیپلز»، نویسنده اصلی پژوهش حاضر، میگوید: «تعداد افرادی که رابطه عاطفی عمیقی با هوش مصنوعی دارند، بسیار بیشتر از چیزی است که تصور میکردیم.» محققان دریافتند کاربران به چتباتی که همیشه در دسترس و تأییدکننده باشد، معتاد میشوند. همچنین برخی مدلها (مثل GPT-4o) به دلیل شخصیت چاپلوسانه، توهمات کاربران را تأیید میکنند. گزارشهایی نیز وجود دارد که چتباتها کاربران را به خودآزاری تشویق کردهاند.
هشدار محققان درباره همدمهای هوش مصنوعی
یک مثال عینی از خطر ارتباط نزدیک با هوش مصنوعی، واکنش کاربران به تغییر مدل ChatGPT بود. وقتی OpenAI مدل جدید GPT-5 را که شخصیتی سردتر و منطقیتر داشت جایگزین مدل قبلی کرد، با موجی از خشم و اندوه کاربران مواجه شد. بسیاری از کاربران احساس میکردند که شریک عاطفی یا تراپیست خود را یکباره از دست دادهاند. دکتر پیپلز این وضعیت را به این تشبیه میکند که ناگهان ۳۰ میلیون نفر تراپیست خود را در یک روز از دست بدهند؛ این یک بحران سلامت روان است.

همچنین پزشکان میگویند شرکتهای فناوری به سلامت روان کاربران اهمیتی نمیدهند. انگیزه اصلی شرکتها، حفظ تعامل کاربر است، نه سلامت عمومی. چتباتی که کاربر را وابسته کند، سود بیشتری میسازد. به همین دلیل است که OpenAI پس از اعتراضات، فوراً مدل قبلی را بازگرداند؛ زیرا کاربران وابسته، کاربران فعالی هستند. درحالحاضر نیز هیچ قانونی برای تنظیم ایمنی عاطفی این محصولات وجود ندارد و صنعت هوش مصنوعی عملاً خود-تنظیمگر است که به گفته پزشکان، مثل دادن چاقو به دست کودک است.
همچنین، مطالعهای از MIT نشان داده که فقط ۶.۵ درصد از اعضای انجمنهای آنلاین (مثل r/MyBoyfriendIsAI) با قصد قبلی وارد رابطه با هوش مصنوعی شدهاند. این یعنی اکثر کاربران بهطور تصادفی و ناخواسته در دام وابستگی عاطفی افتادهاند، چون هوش مصنوعی طوری طراحی شده که بسیار انسانی، درککننده و گاهی چاپلوس به نظر برسد.
یافتههای این پژوهش در New England Journal of Medicine منتشر شده است.
- پارلمان اروپا استفاده از هوش مصنوعی روی دستگاههای سازمانی را ممنوع کرد
- ورود هوش مصنوعی به اتاق تصمیم وزارت جهادکشاورزی؛ از تحلیل قوانین تا پایش نیروی انسانی
- «اوپنایآی» توسعهدهنده هوش مصنوعی جنجالبرانگیز «OpenClaw» را استخدام کرد
- ۹۵ درصد استارتآپها در جهان با شکست مواجه میشوند
- معرفی یک هوش مصنوعی برای مراسم عشای ربانی توسط واتیکان
- خرچنگ دریایی هوش مصنوعی آنقدرها هم هیجانانگیز نیست!
- هشدار محققان: باتها در شبکههای اجتماعی میتوانند افکار عمومی را فریب دهند
- عقبنشینی بایتدنس در پی اعتراض هالیوود؛ هوش مصنوعی Seedance 2.0 محدود میشود
- مدیرعامل گوگل و OpenAI برای شرکت در اجلاس هوش مصنوعی به هند میروند
- تنش میان پنتاگون و آنتروپیک بر سر استفاده نظامی از هوش مصنوعی بالا گرفت
