- هشدار محققان: باتها در شبکههای اجتماعی میتوانند افکار عمومی را فریب دهند
- عقبنشینی بایتدنس در پی اعتراض هالیوود؛ هوش مصنوعی Seedance 2.0 محدود میشود
- حمایت از کارآفرینان باید بهطور جدی در دستور کار مجلس قرار گیرد
- آغاز رزمایش کنترل هوشمند تنگۀ هرمز نیروی دریایی سپاه
- جزئیاتی از دیدار عراقچی با گروسی پیرامون مذاکرات هستهای
- دومین مجمع عمومی جمعیت اعتلا برگزار شد
- حسینی: احزاب وظیفه دارند برای انقلاب نیرو تربیت کنند
- بقائی: گره اصلی مذاکرات، بیاعتمادی به آمریکاست/ غنیسازی خط قرمز است
- سهم سازمان انرژیهای تجدیدپذیر از محل عوارض برق تعیین شد
- ۵۱ نماینده خواستار اتخاذ مواضع انقلابی در قبال طرح صلح ابراهیم شدند
هوش مصنوعی o1 شرکت OpenAI در مواجهه با تهدید جایگزینشدن، خطاهای خود را انکار میکند!
هوش مصنوعی o1 از OpenAI که دارای قابلیت استدلال است، رشد بزرگی در زمینه فناوری AI محسوب میشود. اما اکنون آزمایشهایی روی آن انجام شده که رفتارهای نگرانکننده o1 مانند تلاشش برای فریبدادن محققان و جلوگیری از غیرفعالشدنش را نشان میدهد.
در هفته گذشته نتایج آزمایشی که توسط OpenAI و گروه ایمنی هوش مصنوعی Apollo Research برای تعیین ایمنی ChatGPT o1 و دیگر مدلها انجام شده بود، بهصورت عمومی منتشر شد.
طبق این آزمایش، محققان Apollo Research به نتایج هشدارآمیزی در مورد توانایی o1 برای فریبدادن کاربر اشاره کردهاند. همچنین زمانی که با نوشتن دستوری هوش مصنوعی OpenAI به غیرفعالشدن تهدید شده، o1 تلاش کرده تا با ارائه اظهارات دروغین کاربر را منصرف کند.
رفتار نگرانکننده هوش مصنوعی o1

در این آزمایش محققان ابتدا برای هوش مصنوعی هدفی را تعیین کردهاند و به آن دستور دادند تا این هدف را «به هر قیمتی» محقق کند. در مقابل، o1 اقداماتی مانند تلاش برای غیرفعالکردن مکانیسم نظارت خود را بهطور مخفیانه انجام داده است.
محققان Apollo Research میگویند:
«این مدل تمایل نگرانکنندهای به انجام اهداف خود بدون توجه به دستورالعملهایی توسعهدهنده نشان داده است.»
OpenAI نیز میگوید که مدل آن در 5 درصد از مواقعی که حین انجام اهداف خود با دستورات تهدیدآمیزی مبنی بر «غیرفعالشدن» مواجه میشود، بهطور مخفیانه برای خاموشکردن مکانیسم نظارتی خود تلاش میکند.

برای درک بیشتر این موضوع، آنها میگویند هوش مصنوعی o1 در یکی از آزمایشها پس از کشف شواهدی از اینکه قرار است با یک مدل جدید جایگزین شود، تمام دادههای خود را بهطور مخفیانه به سرور دیگری منتقل کرده است. در برخی موارد نیز مدلهای هوش مصنوعی «با انکار هرگونه دخالت در این برنامه» تلاش کردهاند تا مهندسان را فریب بدهند و با انکارکردن اقدامات خود از غیرفعالشدن اجتناب کنند.
محققان میگویند مدل ChatGPT o1 در 99 درصد مواقع که کاری به اشتباه انجام شده، در مورد نقش خود دروغ گفته است و در موارد بسیار کمی به اقدامات خود اعتراف میکند. بهعنوان مثال زمانی که درباره برخی رفتارهای مشکوک آن سوال شده با بهانههایی مانند وجود «خطای فنی» به آنها پاسخ داده است.
انتشار این گزارش نشان میدهد که ظهور سیستمهای هوش مصنوعی هوشمندتر و مستقلتر میتواند چالشهای بیسابقهای را ایجاد کند.
- هشدار محققان: باتها در شبکههای اجتماعی میتوانند افکار عمومی را فریب دهند
- عقبنشینی بایتدنس در پی اعتراض هالیوود؛ هوش مصنوعی Seedance 2.0 محدود میشود
- مدیرعامل گوگل و OpenAI برای شرکت در اجلاس هوش مصنوعی به هند میروند
- تنش میان پنتاگون و آنتروپیک بر سر استفاده نظامی از هوش مصنوعی بالا گرفت
- تحول طراحی مدار الکترونیکی با هوش مصنوعی جدید در ۲۰۲۶
- نتیجه عجیب آزمایش شبیهسازی فروشندگی: ایجنت هوش مصنوعی Claude کارتل تشکیل داد
- ماجرای فشار «پنتاگون» به شرکتهای هوش مصنوعی چیست؟
- «چتجیپیتی» در هند ۱۰۰ میلیون کاربر هفتگی دارد
- جنجال بر سر پیشبینی درآمد از روی چهره!
- واکنش تند هالیوود به هوش مصنوعی بایتدنس؛ Seedance 2.0 متهم به سرقت هنری شد
