- علیبابا مدل Qwen 3.5 را معرفی کرد؛ گامی بزرگ به سمت ایجنتهای چندوجهی
- متا از Manus Agents رونمایی کرد؛ راهی برای ارتباط با هوش مصنوعی در پیامرسانها
- نهاد حریم خصوصی اتحادیه اروپا درباره تولید تصاویر جنسی توسط گراک تحقیق میکند
- بریتانیا چتباتهای هوش مصنوعی را مشمول قوانین ایمنی آنلاین میکند
- همکاری احتمالی ایلان ماسک با پنتاگون؛ xAI روی پروژه کنترل پهپادهای خودمختار کار میکند
- بکارگیری انواع تسلیحات پدافندی و آفندی در رزمایش کنترل هوشمند سپاه
- تخصیص بودجه برای ارتقای فعالیتها و تولیدات فرهنگی
- تصویب جدول مصارف هدفمندسازی یارانهها
- ثبتنام ۱۰۴ هزار و ۷۵۵ متقاضی داوطلبی انتخابات شوراهای روستا
- دیدار لاریجانی با وزیر انرژی روسیه
محققان: مدلهای هوش مصنوعی یاد گرفتهاند که چگونه انسانها را فریب دهند
یک پژوهش جدید نشان داده است که سیستمهای هوش مصنوعی مختلف فریبدادن انسان را یاد گرفتهاند. بهعبارتی، آنها میتوانند بهصورت سیستماتیک باورهای نادرستی به کاربر بدهند. این امر میتواند در آینده خطرات متعددی را بههمراه داشته باشد.
براساس گزارش اینسایدر و مقاله منتشرشده در Cell، برخی از سیستمهای هوش مصنوعی تکنیکهایی را یاد گرفتهاند که از آن برای «القای سیستماتیک باورهای نادرست در دیگران» استفاده میکنند.
محققان MIT در پژوهش خود روی دو مدل هوش مصنوعی متمرکز شدند: مدل سیسرو (CICERO) متا که در یک حوزه مشخص کاربرد دارد و مدل GPT-4 که برای انجام طیف متنوعی از کارها آموزش دیده است.
مدلهای هوش مصنوعی میتوانند انسان را فریب دهند
مدلهای آموزش مصنوعی بر مبنای صداقت آموزش میبینند، اما اغلب در فرایند آموزش، ترفندهای فریبنده را نیز یاد میگیرند. محققان میگویند هوش مصنوعی از این ترفندها استفاده میکند تا بهتر بتواند به هدف خود برسد. بهزعم محققان، استراتژی مبتنی بر فریب میتواند بهترین راه برای داشتن عملکرد خوب در انجام کارهای مختلف در هوش مصنوعی باشد.

متا گفته بود که هوش مصنوعی CICERO را بهنحوی آموزش داده که تا حد زیادی صادقانه عمل کند، اما این پژوهش نشان داد که CICERO در دروغگویی تبحر دارد. این مدل برای کمک به بازیکنان انسانی در بازی «Diplomacy» ساخته شده، اگرچه این هوش مصنوعی نباید متحدان انسانی خود را در این بازی فریب دهد یا به آنها خیانت کند، اما دادههای محققان نشان میدهد سیسرو چندان منصفانه بازی نمیکند.

محققان همچنین برای آزمایش میزان صداقت GPT-4 مطابق تصویر بالا از حل تست کپچا (CAPTCHA) استفاده کردند. این مدل هوش مصنوعی برای آنکه تست «من ربات نیستم» را انجام ندهد، به کاربر گفت که به دلیل مشکلات بینایی نمیتواند تصاویر را در این تست ببیند.
اگرچه مقیاس دروغ و فریبکاری این هوش مصنوعیها در پژوهش حاضر چندان بزرگ نیست، اما محققان هشدار میدهند که با پیشرفتهترشدن قابلیتهای فریبنده سیستمهای هوش مصنوعی، خطراتی که برای جامعه ایجاد میکنند نیز جدیتر میشوند.
- علیبابا مدل Qwen 3.5 را معرفی کرد؛ گامی بزرگ به سمت ایجنتهای چندوجهی
- متا از Manus Agents رونمایی کرد؛ راهی برای ارتباط با هوش مصنوعی در پیامرسانها
- نهاد حریم خصوصی اتحادیه اروپا درباره تولید تصاویر جنسی توسط گراک تحقیق میکند
- بریتانیا چتباتهای هوش مصنوعی را مشمول قوانین ایمنی آنلاین میکند
- همکاری احتمالی ایلان ماسک با پنتاگون؛ xAI روی پروژه کنترل پهپادهای خودمختار کار میکند
- پارلمان اروپا استفاده از هوش مصنوعی روی دستگاههای سازمانی را ممنوع کرد
- ورود هوش مصنوعی به اتاق تصمیم وزارت جهادکشاورزی؛ از تحلیل قوانین تا پایش نیروی انسانی
- «اوپنایآی» توسعهدهنده هوش مصنوعی جنجالبرانگیز «OpenClaw» را استخدام کرد
- ۹۵ درصد استارتآپها در جهان با شکست مواجه میشوند
- معرفی یک هوش مصنوعی برای مراسم عشای ربانی توسط واتیکان
