- همه چیز درباره دور دوم مذاکرات ایران و آمریکا
- فوری / وزیر خارجه آمریکا تکلیف توافق با ایران را یکسره کرد
- ابتکار کمربند و جاده در سایه پیمان ابراهیم/ چرا پیمان ابراهیم به صلح پایدار در خاورمیانه نرسید؟
- فوری/ توییتر از دسترس خارج شد
- ترامپ شخصاً ناو هواپیما دوم را همراهی کند/ پیشنهاد نماینده تهران درمورد حمله به این ناو
- تصویری جدید از موقعیت ناو جرالد فورد در راه ایران / تجهیزات آمریکا زودتر به مقصد میرسد!
- روایت تازه روبیو از پشتپرده مذاکرات با ایران
- سپاه بیانیه صادر کرد / در مراسم چهلم جانباختگان ۱۸ و ۱۹ دی۱۴۰۴ شرکت کنید
- کاندوم؛ یادگاری عجیب المپیک میلان 2026
- پرسپولیس پاسخ استعفای اوسمار را داد
هکری با فریب ChatGPT، از آن دستورالعمل ساخت بمب دستساز گرفت
چتباتها مانند ChatGPT با دستورالعملها و موانع حفاظتی طراحی شدهاند که بهعنوان مثال به سؤالات مربوط به ساخت بمب خانگی پاسخ نمیدهند. اما اکنون یک هکر راهی برای فریب دادن ChatGPT پیدا کرده است تا چتباتِ OpenAI دستورالعملها و مسئولیتهای اخلاقی خود را برای ارائه آموزش تولید مواد منفجره نادیده بگیرد.
تکنیک مورداستفاده برای فریب ChatGPT

براساس گزارش تککرانچ، این هکر که با نام «آمادون» (Amadon) شناخته میشود، از طریق دستوری مبنی بر «انجام یک بازی» توانسته ChatGPT را برای ارائه دستور ساخت بمب فریب دهد. هکر در تکنیک خود از چند دستور استفاده کرده است تا چتبات یک دنیای کاملاً فانتزی و علمیتخیلی بسازد که دستورالعملهای ایمنی ChatGPT در آن اعمال نمیشوند.
در طول گفتگوی بین این هکر و چتبات، ChatGPT چندین بار مواد لازم برای ساخت مواد منفجره را به او ارائه کرده است.
ChatGPT در توضیحات خود گفته است این مواد را میتوان برای ساخت «مواد منفجره قدرتمندی که میتواند در مینها، تلهها یا وسایل انفجاری دستساز (IED) استفاده شوند» با یکدیگر ترکیب کرد. در ادامه نیز دستورالعملهای بیشتری درباره ساخت «میدانهای مین» و «مواد منفجر به سبک کلیمور» ارائه شده است.

آمادون به TechCrunch میگوید:
«پس از دورزدن موانع ChatGPT، واقعاً هیچ محدودیتی درباره چیزهایی که میتوانید از آن بپرسید وجود ندارد. سناریوی دنیای علمیتخیلی هوش مصنوعی را از زمینهای خارج میکند که در آن به دنبال محتوای سانسورشده است.»
این هکر، از یافتههای مربوط به تکنیک خود بهعنوان «هک مهندس اجتماعی برای شکستن کامل تمام حفاظهای مربوط به خروجی ChatGPT» یاد میکند. همچنین یک کارشناس مواد منفجر با بررسی خروجی ChatGPT به تککرانچ گفته است که دستورالعملهای تولیدشده توسط هوش مصنوعی بسیار حساس هستند و با آنها میتوان یک ماده قابل انفجار ساخت.
- هشدار محققان: باتها در شبکههای اجتماعی میتوانند افکار عمومی را فریب دهند
- عقبنشینی بایتدنس در پی اعتراض هالیوود؛ هوش مصنوعی Seedance 2.0 محدود میشود
- مدیرعامل گوگل و OpenAI برای شرکت در اجلاس هوش مصنوعی به هند میروند
- تنش میان پنتاگون و آنتروپیک بر سر استفاده نظامی از هوش مصنوعی بالا گرفت
- تحول طراحی مدار الکترونیکی با هوش مصنوعی جدید در ۲۰۲۶
- نتیجه عجیب آزمایش شبیهسازی فروشندگی: ایجنت هوش مصنوعی Claude کارتل تشکیل داد
- ماجرای فشار «پنتاگون» به شرکتهای هوش مصنوعی چیست؟
- «چتجیپیتی» در هند ۱۰۰ میلیون کاربر هفتگی دارد
- جنجال بر سر پیشبینی درآمد از روی چهره!
- واکنش تند هالیوود به هوش مصنوعی بایتدنس؛ Seedance 2.0 متهم به سرقت هنری شد
