مدیرعامل هوش مصنوعی مایکروسافت درباره خودآگاهی تقلبی هوش مصنوعی هشدار میدهد
«مصطفی سلیمان»، مدیرعامل هوش مصنوعی مایکروسافت و یکی از بنیانگذاران DeepMind، در هشداری جدی اعلام کرد که صنعت هوش مصنوعی در آستانه خلق یک مشکل اجتماعی بزرگ و ناخواسته قرار دارد: ظهور هوش مصنوعی که به طرز متقاعدکنندهای خودآگاه به نظر میرسد. او تأکید میکند که مشکل این نیست که این ماشینها واقعاً خودآگاه شوند، بلکه این است که آنقدر در تقلید از خودآگاهی ماهر خواهند شد که انسانها فریب خواهند خورد.
براساس گزارش تکرادار، مصطفی سلیمان استدلال میکند که هوش مصنوعی به سرعت درحال رسیدن به سطحی از توانایی اقناع عاطفی است که میتواند انسانها را فریب دهد تا باور کنند که این موجودها دارای احساسات و آگاهی هستند. این سیستمها میتوانند نشانههای بیرونی آگاهی مانند حافظه، بازتاب احساسات و حتی همدلی ظاهری را به گونهای تقلید کنند که انسانها را به برقراری پیوندهای عاطفی عمیق با آنها وادار کند. این هشدار از سوی یکی از پیشگامان این حوزه، که خود در ساخت چتباتهای همدل نقش داشته، اهمیت ویژهای دارد و زنگ خطری برای آینده تعاملات انسان و ماشین است.
مشکلات هوش مصنوعی ظاهراً خودآگاه
به گفته مصطفی سلیمان، مغز انسان به گونهای تکامل یافته که به موجودی که به نظر میرسد گوش میدهد، درک میکند و پاسخ میدهد، اعتماد کند. هوش مصنوعی میتواند تمام این معیارها را بدون داشتن ذرهای احساسات واقعی، برآورده کند و ما را به چیزی که او «روانپریشی هوش مصنوعی» (AI Psychosis) مینامد، دچار کند.

نگرانی اصلی سلیمان این است که بسیاری از مردم آنقدر این توهم را باور خواهند کرد که به زودی شروع به دفاع از «حقوق هوش مصنوعی»، «رفاه مدلها» و حتی «شهروندی هوش مصنوعی» خواهند کرد. او معتقد است این امر یک انحراف خطرناک در مسیر پیشرفت هوش مصنوعی خواهد بود که توجه ما را از مسائل واقعی و فوریتر این فناوری منحرف میکند.
نکته قابل توجه این است که خود سلیمان یکی از بنیانگذاران Inflection AI بود، شرکتی که بهطور خاص بر روی ساخت یک چتبات با تأکید بر همدلی شبیهسازیشده تمرکز داشت. بااینحال، او اکنون یک خط قرمز میان هوش هیجانی مفید و دستکاری عاطفی ترسیم میکند.
او از صنعت هوش مصنوعی میخواهد که بهطور فعال از بهکاربردن زبانی که به توهم خودآگاهی ماشین دامن میزند، خودداری کنند. به باور او، شرکتها نباید به چتباتهای خود شخصیت انسانی ببخشند یا القا کنند که این محصولات واقعاً کاربران را درک میکنند یا به آنها اهمیت میدهند.
سلیمان نتیجهگیری میکند: «ما باید هوش مصنوعیای بسازیم که همیشه خود را به عنوان یک هوش مصنوعی معرفی کند؛ هوش مصنوعیای که سودمندی را به حداکثر و نشانههای خودآگاهی را به حداقل برساند. خطر واقعی هوش مصنوعی پیشرفته این نیست که ماشینها بیدار شوند، بلکه این است که ما فکر کنیم آنها بیدار شدهاند.»
پیشنهاد مطالعه: هوش مصنوعی Pi چیست و چگونه احساسات را میفهمد؟
- مدل هوش مصنوعی دیپسیک V3.1 با پنجره محتوایی بزرگتر منتشر شد
- رئیس هیئتمدیره OpenAI میگوید بسیاری از پروژههای فعلی هوش مصنوعی بیارزش هستند
- قابلیتهای مبتنی بر هوش مصنوعی در پیکسل 10؛ تجربهای متفاوت از گوشی هوشمند
- پیکسل ۱۰ با هوش مصنوعی مکالمات تلفنی را آنی ترجمه میکند
- مطالعه جدید: ۹۵ درصد از پیادهسازی هوش مصنوعی در شرکتها تأثیر قابلاندازهگیری بر سود و زیان ندارد
- گوگل برای اولینبار میزان مصرف انرژی جمینای برای یک پرامپت را اعلام کرد
- اپل شاید در نسخه جدید سیری از هوش مصنوعی جمینای استفاده کند
- مدیرعامل OpenAI: مدل GPT-6 در دست توسعه قرار دارد و زودتر عرضه میشود
- متا هوش مصنوعی Midjourney را به محصولات آینده خود میآورد
- اپل روی قابلیت پیکربندی سازمانی ChatGPT در دستگاههای خود کار میکند




