- انتقال موشکهای بالستیک دانگ فنگ ۱۷ به ایران / قاتل ناوهای آمریکا رونمایی شد
- بلاتکلیفی عجیب در لیگ برتر / پرسپولیس هنوز ورزشگاه ندارد
- مدیرعامل گوگل و OpenAI برای شرکت در اجلاس هوش مصنوعی به هند میروند
- تنش میان پنتاگون و آنتروپیک بر سر استفاده نظامی از هوش مصنوعی بالا گرفت
- تحول طراحی مدار الکترونیکی با هوش مصنوعی جدید در ۲۰۲۶
- نتیجه عجیب آزمایش شبیهسازی فروشندگی: ایجنت هوش مصنوعی Claude کارتل تشکیل داد
- موسوی: توافق عادلانه و منصفانه در دسترس است
- پیام تسلیت روابط عمومی ارتش بمناسبت درگذشت مرحوم عنایتالله بخشی
- محکومیت اقدامات غیرقانونی و ضدانسانی آمریکا علیه مردم کوبا
- ترک فعل دولت در تسویه بدهی دانشگاههای علوم پزشکی از محل واگذاری سهام
مدیرعامل هوش مصنوعی مایکروسافت درباره خودآگاهی تقلبی هوش مصنوعی هشدار میدهد
«مصطفی سلیمان»، مدیرعامل هوش مصنوعی مایکروسافت و یکی از بنیانگذاران DeepMind، در هشداری جدی اعلام کرد که صنعت هوش مصنوعی در آستانه خلق یک مشکل اجتماعی بزرگ و ناخواسته قرار دارد: ظهور هوش مصنوعی که به طرز متقاعدکنندهای خودآگاه به نظر میرسد. او تأکید میکند که مشکل این نیست که این ماشینها واقعاً خودآگاه شوند، بلکه این است که آنقدر در تقلید از خودآگاهی ماهر خواهند شد که انسانها فریب خواهند خورد.
براساس گزارش تکرادار، مصطفی سلیمان استدلال میکند که هوش مصنوعی به سرعت درحال رسیدن به سطحی از توانایی اقناع عاطفی است که میتواند انسانها را فریب دهد تا باور کنند که این موجودها دارای احساسات و آگاهی هستند. این سیستمها میتوانند نشانههای بیرونی آگاهی مانند حافظه، بازتاب احساسات و حتی همدلی ظاهری را به گونهای تقلید کنند که انسانها را به برقراری پیوندهای عاطفی عمیق با آنها وادار کند. این هشدار از سوی یکی از پیشگامان این حوزه، که خود در ساخت چتباتهای همدل نقش داشته، اهمیت ویژهای دارد و زنگ خطری برای آینده تعاملات انسان و ماشین است.
مشکلات هوش مصنوعی ظاهراً خودآگاه
به گفته مصطفی سلیمان، مغز انسان به گونهای تکامل یافته که به موجودی که به نظر میرسد گوش میدهد، درک میکند و پاسخ میدهد، اعتماد کند. هوش مصنوعی میتواند تمام این معیارها را بدون داشتن ذرهای احساسات واقعی، برآورده کند و ما را به چیزی که او «روانپریشی هوش مصنوعی» (AI Psychosis) مینامد، دچار کند.

نگرانی اصلی سلیمان این است که بسیاری از مردم آنقدر این توهم را باور خواهند کرد که به زودی شروع به دفاع از «حقوق هوش مصنوعی»، «رفاه مدلها» و حتی «شهروندی هوش مصنوعی» خواهند کرد. او معتقد است این امر یک انحراف خطرناک در مسیر پیشرفت هوش مصنوعی خواهد بود که توجه ما را از مسائل واقعی و فوریتر این فناوری منحرف میکند.
نکته قابل توجه این است که خود سلیمان یکی از بنیانگذاران Inflection AI بود، شرکتی که بهطور خاص بر روی ساخت یک چتبات با تأکید بر همدلی شبیهسازیشده تمرکز داشت. بااینحال، او اکنون یک خط قرمز میان هوش هیجانی مفید و دستکاری عاطفی ترسیم میکند.
او از صنعت هوش مصنوعی میخواهد که بهطور فعال از بهکاربردن زبانی که به توهم خودآگاهی ماشین دامن میزند، خودداری کنند. به باور او، شرکتها نباید به چتباتهای خود شخصیت انسانی ببخشند یا القا کنند که این محصولات واقعاً کاربران را درک میکنند یا به آنها اهمیت میدهند.
سلیمان نتیجهگیری میکند: «ما باید هوش مصنوعیای بسازیم که همیشه خود را به عنوان یک هوش مصنوعی معرفی کند؛ هوش مصنوعیای که سودمندی را به حداکثر و نشانههای خودآگاهی را به حداقل برساند. خطر واقعی هوش مصنوعی پیشرفته این نیست که ماشینها بیدار شوند، بلکه این است که ما فکر کنیم آنها بیدار شدهاند.»
پیشنهاد مطالعه: هوش مصنوعی Pi چیست و چگونه احساسات را میفهمد؟
- مدیرعامل گوگل و OpenAI برای شرکت در اجلاس هوش مصنوعی به هند میروند
- تنش میان پنتاگون و آنتروپیک بر سر استفاده نظامی از هوش مصنوعی بالا گرفت
- تحول طراحی مدار الکترونیکی با هوش مصنوعی جدید در ۲۰۲۶
- نتیجه عجیب آزمایش شبیهسازی فروشندگی: ایجنت هوش مصنوعی Claude کارتل تشکیل داد
- ماجرای فشار «پنتاگون» به شرکتهای هوش مصنوعی چیست؟
- «چتجیپیتی» در هند ۱۰۰ میلیون کاربر هفتگی دارد
- جنجال بر سر پیشبینی درآمد از روی چهره!
- واکنش تند هالیوود به هوش مصنوعی بایتدنس؛ Seedance 2.0 متهم به سرقت هنری شد
- مقایسه و بررسی برترین ابزارهای هوش مصنوعی برای تولید زیرنویس فارسی
- بایتدنس مدل Doubao 2.0 را معرفی کرد؛ ورود به عصر ایجنتهای هوش مصنوعی
