- افشاگری یک مستندساز از بحران پسماند در شمال کشور/ تهدید به مرگ شدم!
- عکسی از سریال جدید محمدحسین لطیفی/«خسوف» برای محرم آماده میشود
- کنداکتور شبکه نسیم به احترام خانوادههای شهدای دیماه تغییر کرد
- پارلمان اروپا استفاده از هوش مصنوعی روی دستگاههای سازمانی را ممنوع کرد
- قالیباف: ایران یکپارچه سوگوار مراسم چهلم فرزندان دلبند شهید خود است
- میزان تسهیلات ازدواج و فرزندآوری تعیین شد
- پزشکیان: نباید اجازه دهیم سلامت پلیس در ماموریتها به خطر بیفتد
- در مواجهه با اخبار آکسیوس هوشیار باشیم
- مجوز مجلس برای بهکارگیری ۱۰ هزار معلم بازنشسته و حقالتدریس
- حجتالاسلام سیدمحمدجواد جلالی دبیر هیئت اجرایی شورای وحدت شد
تحقیق جدید: مدلهای زبانی بزرگ میتوانند اشتباهاتشان را شناسایی کنند
یکی از مشکلات رایج در مدلهای زبان بزرگ (LLM) تمایل آنها به تولید اطلاعات نادرست و بهاصطلاح «هذیان» گفتن است. درحالیکه تحقیقات زیادی بر روی تجزیهوتحلیل این خطاها از دیدگاه کاربر انجام شده است، اما یک تحقیق جدید نشان میدهد که این مدلها درک بسیار عمیقتری از صداقت نسبت به آنچه قبلاً تصور میشد دارند.
این تحقیق توسط محققانی از Technion، مرکز گوگل ریسرچ و اپل انجام شده است و به بررسی عملکرد درونی مدلهای زبانی بزرگ میپردازد. هذیان گفتن یک تعریف واحد جهانی ندارد و عموماً به طیف وسیعی از خطاهای LLM گفته میشود. برای انجام این تحقیق، محققان یک تعریف مشخص از هذیان گفتن ارائه دادند که شامل خطاهایی مانند عدم دقت، سوگیریها، شکستهای استدلال عقل سلیم و سایر خطاهای دنیای واقعی میشود.
مدلهای زبانی بزرگ در سنجش عملکرد خود بسیار باهوش هستند

بیشتر تحقیقات قبلی در مورد توهمات بر تجزیهوتحلیل رفتار خارجی LLM و بررسی نحوه درک کاربران از این خطاها متمرکز شده است. اما چنین روشی بینش محدودی در مورد نحوه کدگذاری و پردازش خطاها در خود مدلها ارائه میدهد.
مطالعه جدید اما رویکرد متفاوتی دارد. محققان بهجای نگاهکردن به خروجی نهایی، «نشانههای پاسخ دقیق» را تجزیهوتحلیل میکنند. یعنی نشانههای پاسخی که اگر اصلاح شوند میتوانند صحت پاسخ را تغییر دهند. محققان آزمایش خود را روی چهار مدل Mistral 7B و Llama 2 و در ۱۰ مجموعه داده انجام دادند که وظایف مختلفی مانند پاسخ به سؤال، استنتاج زبان طبیعی، حل مسئله ریاضی و تجزیهوتحلیل احساسات را در بر میگرفت.
محققان همچنین به مدلها اجازه دادند تا پاسخهای نامحدودی را برای شبیهسازی استفاده در دنیای واقعی ایجاد کنند. یافتههای آنها نشان میدهد که صحت اطلاعات در نشانههای پاسخ دقیق متمرکز است.
برای پیشبینی هذیانها، محققان مدلهای طبقهبندیکننده را آموزش دادند که آنها را «طبقهبندیکنندههای کاوشگر» مینامند تا ویژگیهای مربوط به صحت خروجیهای تولید شده بر اساس فعالسازیهای داخلی LLM را پیشبینی کنند. محققان دریافتند که آموزش طبقهبندیکنندهها بر روی نشانههای پاسخ دقیق میتواند به میزان قابلتوجهی تشخیص خطا را بهبود میبخشد.
در نهایت، آنها نتیجهگیری کردند که مدلهای زبانی بزرگ میتوانند اطلاعات مربوط به حقیقت خود را رمزگذاری کنند.
- پارلمان اروپا استفاده از هوش مصنوعی روی دستگاههای سازمانی را ممنوع کرد
- ورود هوش مصنوعی به اتاق تصمیم وزارت جهادکشاورزی؛ از تحلیل قوانین تا پایش نیروی انسانی
- «اوپنایآی» توسعهدهنده هوش مصنوعی جنجالبرانگیز «OpenClaw» را استخدام کرد
- ۹۵ درصد استارتآپها در جهان با شکست مواجه میشوند
- معرفی یک هوش مصنوعی برای مراسم عشای ربانی توسط واتیکان
- خرچنگ دریایی هوش مصنوعی آنقدرها هم هیجانانگیز نیست!
- هشدار محققان: باتها در شبکههای اجتماعی میتوانند افکار عمومی را فریب دهند
- عقبنشینی بایتدنس در پی اعتراض هالیوود؛ هوش مصنوعی Seedance 2.0 محدود میشود
- مدیرعامل گوگل و OpenAI برای شرکت در اجلاس هوش مصنوعی به هند میروند
- تنش میان پنتاگون و آنتروپیک بر سر استفاده نظامی از هوش مصنوعی بالا گرفت
