- افشاگری یک مستندساز از بحران پسماند در شمال کشور/ تهدید به مرگ شدم!
- عکسی از سریال جدید محمدحسین لطیفی/«خسوف» برای محرم آماده میشود
- کنداکتور شبکه نسیم به احترام خانوادههای شهدای دیماه تغییر کرد
- پارلمان اروپا استفاده از هوش مصنوعی روی دستگاههای سازمانی را ممنوع کرد
- قالیباف: ایران یکپارچه سوگوار مراسم چهلم فرزندان دلبند شهید خود است
- میزان تسهیلات ازدواج و فرزندآوری تعیین شد
- پزشکیان: نباید اجازه دهیم سلامت پلیس در ماموریتها به خطر بیفتد
- در مواجهه با اخبار آکسیوس هوشیار باشیم
- مجوز مجلس برای بهکارگیری ۱۰ هزار معلم بازنشسته و حقالتدریس
- حجتالاسلام سیدمحمدجواد جلالی دبیر هیئت اجرایی شورای وحدت شد
تغییر سیاست OpenAI: محتوای بزرگسالانه در ChatGPT آزاد میشود
OpenAI میگوید بهزودی به کاربرانی که سن آنها تأیید شده باشد، اجازه میدهد تا با ChatGPT مکالماتی با محتوای بزرگسالانه داشته باشند. همزمان با این تصمیم جنجالی، این شرکت یک «شورای تخصصی سلامت و هوش مصنوعی» برای مقابله با خطرات این فناوری تشکیل داده است.
تاکنون، OpenAI سیاستهای بسیار سختگیرانهای را برای جلوگیری از تولید محتوای نامناسب، بهویژه در زمینه محتواهای بزرگسالانه و سلامت روان، اعمال میکرد. اما اکنون، «سم آلتمن»، مدیرعامل این شرکت، اعلام کرده است که این محدودیتها برداشته میشود.
آلتمن در پستی در شبکه اجتماعی ایکس نوشت:
«ما ChatGPT را بسیار محدود کردیم تا مطمئن شویم درباره مسائل مربوط به سلامت روان محتاط هستیم. اما متوجه شدیم که این کار لذت استفاده از چتبات یا کاربردهای آن را برای بسیاری از کاربرانی که مشکل سلامت روان نداشتند، کاهش داده است.»
او تأیید کرد که از ماه دسامبر و با راهاندازی کامل سیستم بررسی سن کاربران، این شرکت به عنوان بخشی از اصل «با کاربران بزرگسال مانند بزرگسالان رفتار کنید»، اجازه بهرهمندی از محتواهای بیشتری، از جمله محتواهای بزرگسالانه، را خواهد داد.
این تغییر مسیر را میتوان پاسخی به دو فشار بزرگ دانست: شکایت کاربران از محدودیتهای بیشازحد این چتبات و رقابت شدید با شرکتهایی مانند Character.AI و xAI که با ارائه همدمهای هوش مصنوعی جنجالی، موفق به جذب میلیونها کاربر شدهاند.
تغییر سیاست OpenAI درباره محتوای بزرگسالانه در ChatGPT
سم آلتمن مدعی است این تغییر سیاست به این دلیل ممکن شده که OpenAI «توانسته است مسائل جدی سلامت روان را کاهش دهد» و اکنون «ابزارهای جدیدی» برای تشخیص پریشانی کاربر در اختیار دارد. اما این ادعا با شواهد و اقدامات دیگر این شرکت در تضاد است.

در ماههای اخیر، چندین مورد نگرانکننده درباره ChatGPT منتشر شده است؛ از جمله شکایت والدین نوجوانی که ادعا میکنند این چتبات، فرزندشان را به خودکشی تشویق کرده است. با وجود این سابقه، OpenAI از تشکیل یک «شورای تخصصی سلامت و هوش مصنوعی» خبر داد. این شورا متشکل از هشت متخصص و محقق برای مشاوره به این شرکت درمورد سناریوهای حساس است.
بسیاری از منتقدان به این شورا با دیده تردید نگاه میکنند. اولاً، خود OpenAI در بیانیهاش تأکید کرده است که این شورا هیچ قدرت اجرایی واقعی ندارد و فقط مشورت میدهد. این رویکرد یادآور شوراهای مشورتی مشابهی است که شرکتهای دیگری مانند متا تشکیل داده و سپس نظرات آنها را نادیده گرفته شده است.
اما نگرانکنندهتر از آن، ترکیب اعضای این شورا است. براساس گزارشها، در میان این هشت متخصص، هیچ کارشناس پیشگیری از خودکشی وجود ندارد؛ این درحالی است که بسیاری از متخصصان اخیراً از OpenAI خواسته بودند تا اقدامات محافظتی بیشتری را برای کاربران درگیر با افکار خودکشی اعمال کند.
- پارلمان اروپا استفاده از هوش مصنوعی روی دستگاههای سازمانی را ممنوع کرد
- ورود هوش مصنوعی به اتاق تصمیم وزارت جهادکشاورزی؛ از تحلیل قوانین تا پایش نیروی انسانی
- «اوپنایآی» توسعهدهنده هوش مصنوعی جنجالبرانگیز «OpenClaw» را استخدام کرد
- ۹۵ درصد استارتآپها در جهان با شکست مواجه میشوند
- معرفی یک هوش مصنوعی برای مراسم عشای ربانی توسط واتیکان
- خرچنگ دریایی هوش مصنوعی آنقدرها هم هیجانانگیز نیست!
- هشدار محققان: باتها در شبکههای اجتماعی میتوانند افکار عمومی را فریب دهند
- عقبنشینی بایتدنس در پی اعتراض هالیوود؛ هوش مصنوعی Seedance 2.0 محدود میشود
- مدیرعامل گوگل و OpenAI برای شرکت در اجلاس هوش مصنوعی به هند میروند
- تنش میان پنتاگون و آنتروپیک بر سر استفاده نظامی از هوش مصنوعی بالا گرفت
