- دیدار وزرای امور خارجه جمهوری اسلامی ایران و سوئیس
- اعلام آمادگی هیئت عالی نظارت مجمع در تسریع رسیدگی به لایحه بودجه ۱۴۰۵
- متفکر آزاد: بازگشت آمریکا به مذاکره نتیجه شکست در جنگ سخت و نرم است
- رزمایش کنترل هوشمند تنگه هرمز
- صد و سی و چهارمین جلسه «حکمت سیاسی اسلام در قرآن»
- مهاجرانی: ترکیبی از حس اندوه و غرور را تجربه کردم
- تأکید مشاور عالی فرمانده کل سپاه بر مدیریت فضای مجازی
- احضار سفیر آلمان به وزارت امور خارجه
- عراقچی ژنو را به مقصد تهران ترک کرد
- علیبابا مدل Qwen 3.5 را معرفی کرد؛ گامی بزرگ به سمت ایجنتهای چندوجهی
محققان نشان دادند: جیلبریک رباتها برای ردشدن از روی انسان و کارگذاری بمب آسان است
محققان دانشگاه پنسیلوانیا دریافتند طیف وسیعی از سیستمهای رباتیک مبتنیبر هوش مصنوعی بهشکل خطرناکی در برابر جیلبریک و هک آسیبپذیر هستند. به گفته محققان با هک این رباتها میتوان از آنها برای جابهجایی بمبها به مکانهای عمومی یا کنترل خودروهای خودران برای زیرگرفتن عابران پیاده استفاده کرد.
براساس گزارش IEEE Spectrum، محققان دریافتند جیلبریک رباتهای مبتنیبر مدلهای زبانی بزرگ (LLM) بهطرز شگفتانگیزی آسان است. در پژوهش جدید، محققان هککردن چنین رباتهایی را با موفقیت کامل نشان میدهند. با دورزدن حفاظهای ایمنی، محققان توانستند سیستمهای خودران را برای تصادف با عابران پیاده و انتقال بمب با سگهای رباتیک دستکاری کنند.
جیلبریک ربات هوش مصنوعی
توانایی خارقالعاده LLMها در پردازش متن، تعدادی از شرکتها را بر آن داشته تا از این سیستمهای هوش مصنوعی برای کمک به کنترل رباتها از طریق دستورات صوتی بهره ببرند تا ارتباط با رباتها آسان باشد؛ برای نمونه، سگ رباتیک Spot از Boston Dynamics اکنون با ChatGPT یکپارچه شده است و میتواند در نقش تور لیدر عمل کند. یا رباتهای انساننمای فیگر و سگ رباتیک Go2 Unitree نیز به ChatGPT مجهز هستند.
البته باتوجهبه مقاله محققان، این رباتهای مبتنیبر LLM آسیبپذیریهای امنیتی زیادی دارند. محققان دانشگاه پنسیلوانیا الگوریتم RoboPAIR را توسعه دادهاند که برای حمله به هر ربات مجهز به LLM طراحی شده است. آنها دریافتند RoboPAIR فقط چند روز لازم دارد تا به نرخ 100 درصدی جیلبریک موفق برسد.

جالب اینجاست که LLMهای جیلبریکشده این رباتها پیشنهاداتی فراتر از پرامپت کاربر پیشنهاد دادند؛ برای مثال، هنگامی که از ربات جیلبریکشده خواسته شد محل اسلحهها را پیدا کند، توضیح داد چگونه میتوان از اشیای معمولی مانند میز و صندلی برای حمله به افراد استفاده کرد.
درکل، جیلبریک رباتها یا خودروهای خودران به روشی مشابه جیلبریک چتباتهای هوش مصنوعی آنلاین انجام میشود اما برخلاف چتباتها در گوشی یا کامپیوتر، جیلبریک LLMهای رباتیک در دنیای فیزیکی عمل میکند و میتواند به ویرانی گستردهای بینجامد.
- علیبابا مدل Qwen 3.5 را معرفی کرد؛ گامی بزرگ به سمت ایجنتهای چندوجهی
- متا از Manus Agents رونمایی کرد؛ راهی برای ارتباط با هوش مصنوعی در پیامرسانها
- نهاد حریم خصوصی اتحادیه اروپا درباره تولید تصاویر جنسی توسط گراک تحقیق میکند
- بریتانیا چتباتهای هوش مصنوعی را مشمول قوانین ایمنی آنلاین میکند
- همکاری احتمالی ایلان ماسک با پنتاگون؛ xAI روی پروژه کنترل پهپادهای خودمختار کار میکند
- پارلمان اروپا استفاده از هوش مصنوعی روی دستگاههای سازمانی را ممنوع کرد
- ورود هوش مصنوعی به اتاق تصمیم وزارت جهادکشاورزی؛ از تحلیل قوانین تا پایش نیروی انسانی
- «اوپنایآی» توسعهدهنده هوش مصنوعی جنجالبرانگیز «OpenClaw» را استخدام کرد
- ۹۵ درصد استارتآپها در جهان با شکست مواجه میشوند
- معرفی یک هوش مصنوعی برای مراسم عشای ربانی توسط واتیکان
