- همه چیز درباره دور دوم مذاکرات ایران و آمریکا
- فوری / وزیر خارجه آمریکا تکلیف توافق با ایران را یکسره کرد
- ابتکار کمربند و جاده در سایه پیمان ابراهیم/ چرا پیمان ابراهیم به صلح پایدار در خاورمیانه نرسید؟
- فوری/ توییتر از دسترس خارج شد
- ترامپ شخصاً ناو هواپیما دوم را همراهی کند/ پیشنهاد نماینده تهران درمورد حمله به این ناو
- تصویری جدید از موقعیت ناو جرالد فورد در راه ایران / تجهیزات آمریکا زودتر به مقصد میرسد!
- روایت تازه روبیو از پشتپرده مذاکرات با ایران
- سپاه بیانیه صادر کرد / در مراسم چهلم جانباختگان ۱۸ و ۱۹ دی۱۴۰۴ شرکت کنید
- کاندوم؛ یادگاری عجیب المپیک میلان 2026
- پرسپولیس پاسخ استعفای اوسمار را داد
پژوهشگر ایمنی آنتروپیک با انتشار نامهای استعفا داد: جهان در خطر است
«مرینانک شارما»، پژوهشگر ایمنی هوش مصنوعی شرکت آنتروپیک، از سمت خود استعفا داد و در نامهای هشدار داد که «جهان در خطر است». او در این نامه که روی شبکه اجتماعی ایکس منتشر شد، نگرانی خود را درباره هوش مصنوعی، سلاحهای زیستی و وضعیت کلی جهان اعلام کرد و گفت قصد دارد از صنعت فناوری فاصله بگیرد.
به گزارش بی بی سی، شارما در توییت خداحافظی خود گفت که دوران حضورش در آنتروپیک را دوست داشته اما «زمان رفتن فرارسیده است». او توضیح داد میخواهد تحصیل و نوشتن شعر را دنبال کند و به بریتانیا برگردد تا نامرئی شود. این تصمیم درحالی مطرح شد که همزمان پژوهشگر دیگری از شرکت OpenAI هم بهدلیل نگرانی از سیاستهای تبلیغاتی این شرکت، استعفا داده است.
پژوهشگر ارشد آنتروپیک درباره خطر جهانی هوش مصنوعی هشدار داد
آنتروپیک که بهخاطر چتبات Claude شناخته میشود، خود را شرکتی با رویکرد ایمنیمحور در پژوهش هوش مصنوعی معرفی میکند. این شرکت در سال ۲۰۲۱ میلادی توسط گروهی از کارکنان اولیه OpenAI تأسیس شد. آنتروپیک همزمان روی توسعه محصولات تجاری و تقویت ایمنی سامانههای هوش مصنوعی کار میکند.

شارما در آنتروپیک تیمی را هدایت میکرد که روی سازوکارهای ایمنی هوش مصنوعی تحقیق میکردند. او در نامه استعفا نوشت بخشی از دستاوردهایش شامل بررسی دلیل «چاپلوسی» سامانههای مولد متن نسبت به کاربران، مقابله با خطرات زیستـتروریسم با کمک هوش مصنوعی و پژوهش درباره این موضوع بوده که دستیارهای هوش مصنوعی چگونه میتوانند ما را کمتر انسان کنند.
او در متن خود تأکید کرد خطر تنها از سوی هوش مصنوعی یا سلاحهای زیستی نمیآید و مجموعهای از بحرانهای بههمپیوسته همزمان درحال شکلگیری است. شارما نوشت بارها دیده که «چقدر سخت است ارزشهای خود را واقعاً برعمل حاکم کنیم» و اشاره کرد آنتروپیک هم بهطور مداوم زیر فشار است تا که آنچه مهمتر است را کنار بگذارد.
آنتروپیک خود را «شرکت با منفعت عمومی» معرفی میکند که هدف آن تأمین منافع هوش مصنوعی و کاهش خطرات آن است. تمرکز اصلی این شرکت روی خطرات سامانههای پیشرفته موسوم به «مرزی» قرار دارد؛ سامانههایی که ممکن است با ارزشهای انسانی ناهماهنگ شوند.
- هشدار محققان: باتها در شبکههای اجتماعی میتوانند افکار عمومی را فریب دهند
- عقبنشینی بایتدنس در پی اعتراض هالیوود؛ هوش مصنوعی Seedance 2.0 محدود میشود
- مدیرعامل گوگل و OpenAI برای شرکت در اجلاس هوش مصنوعی به هند میروند
- تنش میان پنتاگون و آنتروپیک بر سر استفاده نظامی از هوش مصنوعی بالا گرفت
- تحول طراحی مدار الکترونیکی با هوش مصنوعی جدید در ۲۰۲۶
- نتیجه عجیب آزمایش شبیهسازی فروشندگی: ایجنت هوش مصنوعی Claude کارتل تشکیل داد
- ماجرای فشار «پنتاگون» به شرکتهای هوش مصنوعی چیست؟
- «چتجیپیتی» در هند ۱۰۰ میلیون کاربر هفتگی دارد
- جنجال بر سر پیشبینی درآمد از روی چهره!
- واکنش تند هالیوود به هوش مصنوعی بایتدنس؛ Seedance 2.0 متهم به سرقت هنری شد
