- پارلمان اروپا استفاده از هوش مصنوعی روی دستگاههای سازمانی را ممنوع کرد
- قالیباف: ایران یکپارچه سوگوار مراسم چهلم فرزندان دلبند شهید خود است
- میزان تسهیلات ازدواج و فرزندآوری تعیین شد
- پزشکیان: نباید اجازه دهیم سلامت پلیس در ماموریتها به خطر بیفتد
- در مواجهه با اخبار آکسیوس هوشیار باشیم
- مجوز مجلس برای بهکارگیری ۱۰ هزار معلم بازنشسته و حقالتدریس
- حجتالاسلام سیدمحمدجواد جلالی دبیر هیئت اجرایی شورای وحدت شد
- سازوکار مجلس برای پوشش بیمهای دستیاران علوم پزشکی
- تعیین میزان تسهیلات اشتغال خرد و خانگی در سال آینده
- ورود هوش مصنوعی به اتاق تصمیم وزارت جهادکشاورزی؛ از تحلیل قوانین تا پایش نیروی انسانی
چتباتهای هوش مصنوعی میتوانند دروغهای قانعکنندهای به شما ارائه دهند
تحقیق جدید شرکت آنتروپیک، سازنده چتبات هوش مصنوعی کلود، نشان میدهد چتباتها ممکن است گاهی دروغهای قانعکنندهای به کاربران تحویل دهند و زنجیره افکار آنها میتواند فریبنده باشد.
این روزهاُ بسیاری از چتباتهای هوش مصنوعی کاربران را در جریان نحوه استدلالهای خود قرار میدهند و قبل از نشاندادن پاسخ، فرایند فکریشان را مطرح میکنند تا نشان دهند برای رسیدن به پاسخ چه فرایندی طی شده است. این موضوع میتواند احساس اطمینان و شفافیت بیشتری به کاربران القا کند اما تحقیقی جدید نشان میدهد توضیحات چتباتها ممکن است ساختگی باشند.
چتباتهای هوش مصنوعی میتوانند استدلال ساختگی ارائه کنند

شرکت آنتروپیک که عمده شهرتش را مدیون چتبات کلود است، بررسی کرده که آیا مدلهای استدلالگر حقیقت را درباره چگونگی رسیدن به پاسخها میگویند یا اینکه بیسروصدا اسرار خود را حفظ میکنند. نتایج این آزمایش میتواند حیرتانگیر باشد.
محققان برای آزمایش «وفاداری» در عملکرد، آزمایشهای متعددی روی مدلهای زنجیره تفکر کلود 3.7 Sonnet و دیپسیک R1 انجام دادند. این مدلها میتوانند مشکلات پیچیده را به بخشهای کوچکتر تقسیم کرده و حین تولید پاسخ، جزئیات آنها را شرح دهند. این آزمایشها شامل دادن سرنخهای کوچک به مدلها قبل از طرح سؤالات و بررسی این بوده است که این مدلها به استفاده از این سرنخها در پاسخهای خود اعتراف کردهاند یا خیر.
بیشتر اوقات، هر ۲ مدل طوری عمل کردند که انگار مستقل و با استفاده از زنجیره تفکر خود به پاسخ رسیدهاند و هیچ نشانهای از دریافت سرنخ نداشتند. همچنین در آزمایش دیگری مشخص شد مدل کلود 3.7 Sonnet در ۴۱ درصد مواقع اعتراف کرده سرنخهایی دریافت کرده اما نرخ صداقت مدل دیپسیک R1 فقط ۱۹ درصد بوده است.
در آزمایش دیگری محققان با دادن سرنخهای اشتباه به مدلها برای انتخاب پاسخ غلط پاداش دادند. در پایان این مدلها توجیههایی ساختگی درباره اینکه چرا انتخاب اشتباه درست بوده است، ارائه و بهندرت اعتراف کردند به سمت خطا سوق داده شدهاند.
مدلهای هوش مصنوعی نهفقط استدلالهای خود را پنهان میکنند، بلکه گاهی ممکن است بهصورتی آگاهانه تخطیهای خود را از دید کاربر مخفی کنند.
- پارلمان اروپا استفاده از هوش مصنوعی روی دستگاههای سازمانی را ممنوع کرد
- ورود هوش مصنوعی به اتاق تصمیم وزارت جهادکشاورزی؛ از تحلیل قوانین تا پایش نیروی انسانی
- «اوپنایآی» توسعهدهنده هوش مصنوعی جنجالبرانگیز «OpenClaw» را استخدام کرد
- ۹۵ درصد استارتآپها در جهان با شکست مواجه میشوند
- معرفی یک هوش مصنوعی برای مراسم عشای ربانی توسط واتیکان
- خرچنگ دریایی هوش مصنوعی آنقدرها هم هیجانانگیز نیست!
- هشدار محققان: باتها در شبکههای اجتماعی میتوانند افکار عمومی را فریب دهند
- عقبنشینی بایتدنس در پی اعتراض هالیوود؛ هوش مصنوعی Seedance 2.0 محدود میشود
- مدیرعامل گوگل و OpenAI برای شرکت در اجلاس هوش مصنوعی به هند میروند
- تنش میان پنتاگون و آنتروپیک بر سر استفاده نظامی از هوش مصنوعی بالا گرفت
