- پارلمان اروپا استفاده از هوش مصنوعی روی دستگاههای سازمانی را ممنوع کرد
- قالیباف: ایران یکپارچه سوگوار مراسم چهلم فرزندان دلبند شهید خود است
- میزان تسهیلات ازدواج و فرزندآوری تعیین شد
- پزشکیان: نباید اجازه دهیم سلامت پلیس در ماموریتها به خطر بیفتد
- در مواجهه با اخبار آکسیوس هوشیار باشیم
- مجوز مجلس برای بهکارگیری ۱۰ هزار معلم بازنشسته و حقالتدریس
- حجتالاسلام سیدمحمدجواد جلالی دبیر هیئت اجرایی شورای وحدت شد
- سازوکار مجلس برای پوشش بیمهای دستیاران علوم پزشکی
- تعیین میزان تسهیلات اشتغال خرد و خانگی در سال آینده
- ورود هوش مصنوعی به اتاق تصمیم وزارت جهادکشاورزی؛ از تحلیل قوانین تا پایش نیروی انسانی
مدیرعامل OpenAI از وابستگی بیش از حد کاربران به ChatGPT ابراز نگرانی کرد
«سم آلتمن»، مدیرعامل OpenAI، در اظهارنظری نگرانکننده اعلام کرد که با وجود پتانسیلهای مثبت، از روند روبهرشد استفاده مردم از ChatGPT به عنوان «درمانگر یا مربی زندگی» و اعتماد آنها به این چتبات برای گرفتن مهمترین تصمیمات زندگیشان، احساس ناراحتی میکند.
«سم آلتمن» در توییتی مفصل که آن را «تفکرات فعلی» خود و نه موضع رسمی OpenAI خواند، به یک پدیده روبهرشد اشاره کرد: «بسیاری از مردم از ChatGPT به عنوان نوعی درمانگر یا مربی زندگی استفاده میکنند، حتی اگر خودشان اینگونه توصیفش نکنند.»
او ضمن تأیید اینکه این موضوع میتواند «واقعاً خوب» باشد و بسیاری هماکنون نیز از آن ارزش دریافت میکنند، جنبه تاریکتر آن را نیز آشکار کرد. او گفت این رابطه در صورتی ناخوشایند است که «کاربران رابطهای با ChatGPT داشته باشند که در آن فکر کنند پس از صحبتکردن حالشان بهتر میشود، اما ندانسته از حال خوب واقعی در بلندمدت دور میشوند.»
او همچنین ایجاد وابستگی را یک خطر دیگر دانست و گفت: «خوب نیست اگر یک کاربر بخواهد کمتر از ChatGPT استفاده کند اما احساس کند که نمیتواند.»
نظرات سم آلتمن درباره اعتماد مردم به ChatGPT
آلتمن فاش کرد که شرکت OpenAI حدود یک سال است که درحال ردیابی دقیق «حس وابستگی» کاربران به مدلهای هوش مصنوعی خاص است. او اعتراف کرد که این وابستگی، «متفاوت و قویتر» از وابستگی به سایر فناوریهای گذشته است. او به عنوان یک نمونه بارز، به واکنشهای منفی پس از عرضه GPT-5 و جایگزینی مدل محبوب GPT-4o اشاره کرد. بسیاری از کاربران از لحن خشک و غیرخلاقانه مدل جدید شکایت کردهاند و خواستار بازگرداندن مدل قدیمیتر شدند. آلتمن در توییت خود، حذف ناگهانی مدلهای قدیمی را که کاربران به آنها وابسته بودند، یک «اشتباه» خواند.

آلتمن در بخشی از اظهاراتش به مسئولیتپذیری در قبال کاربران آسیبپذیر پرداخت:
«مردم از فناوری، از جمله هوش مصنوعی، به روشهای خودتخریبی استفاده کردهاند. اگر یک کاربر در وضعیت روانی شکنندهای قرار داشته باشد و مستعد توهم باشد، ما نمیخواهیم هوش مصنوعی آن را تقویت کند.»
او اذعان کرد که اگرچه اکثر کاربران میتوانند مرز میان واقعیت و داستان را تشخیص دهند، اما درصد کمی قادر به این کار نیستند.
آلتمن پیشتر نیز در یک پادکست، به یک خطر دیگر اشاره کرده بود: چالشهای حقوقی. او هشدار داد که اگر کاربری از ChatGPT برای گفتگوهای حساس و درمانی استفاده کند، ممکن است در آینده و در جریان یک دعوای حقوقی، شرکت OpenAI مجبور به ارائه متن آن مکالمات به دادگاه شود.
آلتمن آیندهای را پیشبینی میکند که در آن میلیاردها نفر برای مهمترین تصمیمات زندگی خود با هوش مصنوعی مشورت خواهند کرد. او میگوید اگرچه این چشمانداز او را «ناراحت» میکند، اما معتقد است که جامعه و OpenAI باید راهی برای تبدیل این پدیده به یک نتیجه مثبت پیدا کنند.
- پارلمان اروپا استفاده از هوش مصنوعی روی دستگاههای سازمانی را ممنوع کرد
- ورود هوش مصنوعی به اتاق تصمیم وزارت جهادکشاورزی؛ از تحلیل قوانین تا پایش نیروی انسانی
- «اوپنایآی» توسعهدهنده هوش مصنوعی جنجالبرانگیز «OpenClaw» را استخدام کرد
- ۹۵ درصد استارتآپها در جهان با شکست مواجه میشوند
- معرفی یک هوش مصنوعی برای مراسم عشای ربانی توسط واتیکان
- خرچنگ دریایی هوش مصنوعی آنقدرها هم هیجانانگیز نیست!
- هشدار محققان: باتها در شبکههای اجتماعی میتوانند افکار عمومی را فریب دهند
- عقبنشینی بایتدنس در پی اعتراض هالیوود؛ هوش مصنوعی Seedance 2.0 محدود میشود
- مدیرعامل گوگل و OpenAI برای شرکت در اجلاس هوش مصنوعی به هند میروند
- تنش میان پنتاگون و آنتروپیک بر سر استفاده نظامی از هوش مصنوعی بالا گرفت
