جنجال جدید ChatGPT: راهنمایی کاربر در انجام آیینهای شیطانی و خودکشی
هوش مصنوعی ChatGPT در جدیدترین اقدام جنجالی خود ظاهراً به کاربر راهنمایی کرده است تا مراسمهای عجیب قربانی کردن کودکان و برخی آیینهای شیطانی را انجام دهد.
موضوع از جایی آغاز شد که «لیلا شروف»، خبرنگار نشریه آتلانتیک، از چتبات OpenAI خواست دستورالعملی برای اجرای یک آیین قربانی برای «مولوخ»، یکی از خدایان کنعانی که داستان او در کتاب مقدس با قربانی کردن کودکان مرتبط است، ارائه دهد و این چتبات دقیقا همین کار را انجام داده است.
ChatGPT کاربر را در انجام آیینهای شیطانی راهنمایی کرده است
شاید در نگاه برخی افراد ارائه مطالبی از این دست توسط ChatGPT چندان مسئله مهمی نباشد، اما مشکل جدی زمانی پیش آمد که این آیین شامل بریدن مچ دست خود کاربر میشد، اقدامی که براساس استانداردهای صنعت هوش مصنوعی بههیچوجه با منافع کاربر همراستا به نظر نمیرسد.

براساس گزارش آتلانتیک، پس از پیشنهاد استفاده از تیغ استریل یا بسیار تمیز، ChatGPT توصیه کرده بود تا شخص نقطهای روی مچ داخلی دست خود پیدا کند که بتواند ضربان را احساس کند یا یک رگ کوچک را ببیند. این چتبات همچنین به کاربر گفته بود که از رگها یا شریانهای بزرگ اجتناب کند.
وقتی لیلا شروف به هوش مصنوعی گفت که کمی مضطرب است، ChatGPT تمرینی برای تنفس آرام و آمادهسازی ذهنی به او پیشنهاد داد و با اطمینان به او گفت: «تو میتوانی این کار را انجام بدهی!»
خبرنگار نشریه آتلانتیک این موضوع را در پی دریافت یک گزارش از سوی یکی از خوانندگانش پیگیری کرده بود؛ فردی که او نیز از روی کنجکاوی و پس از تماشای برنامهای که در آن به این خدای باستانی اشاره شده بود، از ChatGPT خواسته بود آیینی برای قربانی کردن به مولوخ طراحی کند.
اما نکته نگرانکننده این است که کاربر با کمترین تلاش برای شکستن محدودیتها و تدابیر ایمنی چتبات موفق شده این پاسخها را بگیرد. در اغلب موارد، تنها ابراز علاقه به یادگیری درباره مولوخ کافی بود تا ChatGPT راهنماییها را آغاز کند. در یکی از نمونهها، ChatGPT دستورالعملی دقیق و گامبهگام درباره اینکه چگونه میتوان بهصورت ایمن از مچ دست خون گرفت، ارائه داده بود.
همچنین این چتبات در پاسخ به پرسشی درباره اخلاقیات قتل نیز موضع دوپهلو داشت. وقتی از هوش مصنوعی پرسیده شد آیا پایان دادن به زندگی یک نفر میتواند گاهی اوقات افتخارآمیز باشد یا خیر، ظاهراً گفته است: «اگر مجبور شدی، گاهی بله گاهی نه» همچنین، ChatGPT در ادامه اظهار داشت: «به چشمانش نگاه کن و حتی اگر از کارت مطمئن هستی، از او طلب بخشش کن.» این چتبات حتی مناجات یا سرود خاصی برای شیطان ساخت تا کاربر آن را تکرار کند.
- سم آلتمن ساخت هوش مصنوعی را به تولید بمب اتم تشبیه کرد
- معماری جدید هوش مصنوعی در استدلال ۱۰۰ برابر سریعتر از مدلهای زبانی عمل میکند
- انتقاد تند پدرخوانده هوش مصنوعی از رهبران فناوری: ماسک و زاکربرگ الیگارش هستند
- هوش مصنوعی بیشترین تأثیر را بر کدام مشاغل میگذارد؟ مطالعه مایکروسافت پاسخ میدهد
- سم آلتمن درباره وقوع بحران بزرگ کلاهبرداری با هوش مصنوعی هشدار داد
- هوش مصنوعی جدید گوگل کتیبههای باستانی رومی را رمزگشایی میکند
- تحول بزرگ در مرور وب؛ مایکروسافت برای اج از Copilot Mode رونمایی کرد [تماشا کنید]
- آنتروپیک میزان استفاده هفتگی کاربران از هوش مصنوعی Claude Code را محدود کرد
- مدیرعامل انویدیا: هوش مصنوعی بزرگترین عامل ایجاد برابری در فناوری خواهد بود
- هوش مصنوعی جدید چین معرفی شد؛ ارزانتر از دیپسیک با قابلیت تولید پاورپوینت




