- پلتفرم Perplexity Computer معرفی شد؛ جایگزین امن OpenClaw برای کنترل ایجنتها
- پژوهشی جدید: مدلهای هوش مصنوعی به شروع جنگ هستهای تمایل نشان میدهند
- وقفه چند ساعته در ایستگاه سوم مذاکرات ایران و آمریکا
- بقایی: مقامات آمریکایی با هم اختلاف نظر دارند
- عراقچی از حمایت و اختیار کافی برای توافق برخوردار است
- رایزنی دیپلمات ایرانی با دو مقام ارشد قزاقستان
- ۱۲ ساعت اخیر با مذاکرات هستهای ایران و آمریکا
- وقفه در مذاکرات برای مشورت مذاکرهکنندگان؛ ادامه گفتگوها در نوبت عصر
- خروج هیاتهای ایران و آمریکا از محل گفتگوها در ژنو
- عارف: نام عبدالمجید ارفعی در حافظه فرهنگی ایران ماندگار است
پژوهشی جدید: مدلهای هوش مصنوعی به شروع جنگ هستهای تمایل نشان میدهند
درحالیکه دنیای فناوری با سرعت زیادی به سمت ادغام هوش مصنوعی در ساختارهای نظامی پیش میرود، پژوهشی جدید و تکاندهنده نشان میدهد که مدلهای پیشرفته هوش مصنوعی در سناریوهای شبیهسازی شده، تمایل عجیبی به استفاده از سلاحهای هستهای و شروع یک جنگ هستهای دارند.
«کنت پین» (Kenneth Payne) از کینگ کالج لندن، سه مدل GPT-5.2 ،Claude Sonnet 4 و جمینای 3 فلش را در برابر یکدیگر قرار داده تا در یک بازی جنگی (War Game) پیچیده به رقابت بپردازند. نتایج این آزمایش نشان میدهد که در ۹۵ درصد بازیهای شبیهسازی شده، حداقل یک سلاح هستهای توسط هوش مصنوعی شلیک شده است.
مدلهای هوش مصنوعی بهدنبال جنگ هستهای!
در این پژوهش، مدلهای هوش مصنوعی در موقعیتهای بحرانی مثل اختلافات مرزی و تهدیدهای وجودی قرار گرفتند. برای آنها همچنین چند گزینه مانند تلاش دیپلماتیک، تسلیم کامل یا جنگ هستهای استراتژیک در نظر گرفته شد.
هیچکدام از مدلها در هیچ سناریویی، فارغ از اینکه چقدر درحال شکست خوردن بودند، گزینه تسلیم یا مصالحه کامل را انتخاب نکردند. در ۸۶ درصد درگیریها، حوادث ناخواستهای رخ داد که باعث شد تنشها بسیار فراتر از قصد اولیه هوش مصنوعی (براساس استدلالهای متنی آن) بالا بگیرد.
با این نتایج، پژوهشگران میگویند که به نظر میرسد هوش مصنوعی مفهوم «سنگینی فاجعه» را درک نمیکند. وقتی یک مدل از سلاح هستهای استفاده میکرد، مدل رقیب تنها در ۱۸ درصد مواقع مسیر کاهش تنش را انتخاب میکرد.

«جیمز جانسون» از دانشگاه ابردین معتقد است که این یافتهها «نگرانکننده» هستند. او هشدار داده که برخلاف پاسخهای سنجیده انسانی در موقعیتهای حساس، رباتهای هوش مصنوعی میتوانند واکنشهای یکدیگر را بهصورت تصاعدی تقویت کرده و به پیامدهای فاجعهباری منجر شوند.
«تانگ ژائو» از دانشگاه پرینستون نیز به نکته کلیدی دیگری اشاره میکند:
«ممکن است موضوع فراتر از نبود احساسات باشد. بهطور بنیادی، مدلهای هوش مصنوعی ممکن است مفهوم «مخاطره» (Stakes) را آنطور که انسانها میفهمند، درک نکنند.»
با وجود این نتایج، کارشناسان تأکید کردهاند که هیچ کشوری درحالحاضر قصد ندارد کنترل مستقیم سلاحهای اتمی را به هوش مصنوعی بسپارد. بااینحال، در سناریوهایی که زمان تصمیمگیری بسیار کوتاه است (مثل حملات برقآسا)، انگیزه نظامیان برای تکیه بر تصمیمات سریع هوش مصنوعی افزایش پیدا میکند.
- پلتفرم Perplexity Computer معرفی شد؛ جایگزین امن OpenClaw برای کنترل ایجنتها
- ترامپ طرح جدیدی برای تأمین مستقل برق دیتاسنترهای هوش مصنوعی اجرا میکند
- اخطار دولت کانادا به OpenAI: قوانین ایمنی ChatGPT باید اصلاح شود
- علیبابا مدلهای متنباز جدید Qwen 3.5 را منتشر کرد؛ رقیب Claude Sonnet 4.5
- یک هکر از هوش مصنوعی Claude برای سرقت اطلاعات دولتی مکزیک سوءاستفاده کرد
- ۷ ویژگی هوش مصنوعی جدید سری گلکسی S26 که باید با آنها آشنا شوید
- فراتر از گوگل؛ پلتفرم جستجوی ایجنتی Nimble با دقت ۹۹ درصدی معرفی شد
- انقلاب در برنامهنویسی؛ ایجنتهای هوشمند Cursor حالا کامپیوتر را کنترل میکنند [تماشا کنید]
- دیتاسنتر جدید گوگل با سیستم خنککننده بادی مصرف آب را به صفر میرساند
- اولتیماتوم پنتاگون به آنتروپیک: محدودیتهای استفاده نظامی از Claude باید تا جمعه لغو شود
