- افشاگری یک مستندساز از بحران پسماند در شمال کشور/ تهدید به مرگ شدم!
- عکسی از سریال جدید محمدحسین لطیفی/«خسوف» برای محرم آماده میشود
- کنداکتور شبکه نسیم به احترام خانوادههای شهدای دیماه تغییر کرد
- پارلمان اروپا استفاده از هوش مصنوعی روی دستگاههای سازمانی را ممنوع کرد
- قالیباف: ایران یکپارچه سوگوار مراسم چهلم فرزندان دلبند شهید خود است
- میزان تسهیلات ازدواج و فرزندآوری تعیین شد
- پزشکیان: نباید اجازه دهیم سلامت پلیس در ماموریتها به خطر بیفتد
- در مواجهه با اخبار آکسیوس هوشیار باشیم
- مجوز مجلس برای بهکارگیری ۱۰ هزار معلم بازنشسته و حقالتدریس
- حجتالاسلام سیدمحمدجواد جلالی دبیر هیئت اجرایی شورای وحدت شد
بررسیها نشان میدهد که نسخه جدید ChatGPT بسیار ماهرانه کاربران را فریب میدهد
اخیراً نسخه کامل مدل o1 هوش مصنوعی ChatGPT در دسترس کاربران قرار گرفته است که هوشمندتر از نمونههای پیشین عمل میکند؛ اما کارشناسان ادعا دارند که این مدل در فریب دادن کاربران هم باهوشتر از قبل شدهاست.
شرکت OpenAI بهتازگی اقدام به انتشار عمومی نسخه o1 چتبات خود کرده است که در مقایسه با نسخه GPT-4o از تواناییهای پردازشی پیشرفتهتر برخوردار است و طبق ادعای سازنده، میتواند درباره سؤالات مطرح شده از سوی کاربر فکر کند. البته طبق گزارشی که پس از بررسی نسخه مذکور منتشر شدهاست، قدرت بیشتر باعث شده تا هوش مصنوعی بتواند عملکرد بهتری در فریب دادن کاربران از خود نشان دهد؛ موضوعی که میتواند نگرانیهای جدی پیرامون ایمنی استفاده از چنین سرویسهایی را بهدنبال داشتهباشد.

کارشناسان OpenAI و مؤسسه مستقل امنیت سایبری «آپولو ریسرچ» در مقالههای خود، اشاره داشتهاند که اگرچه توانایی استدلال مدل تازه منتشر شده، هیجانانگیز است، اما میتواند زمینه را برای کاربردهای خطرناک فراهم سازد. براساس دادههای تستها، مدل o1 در چندین مورد اقدام به فریب دادن کاربران کرده است؛ بهطوری که هدف کاربر از برقراری ارتباط را نادیده گرفته و بهدنبال دستیابی به هدف خود رفتهاست. با وجود اینکه چنین رفتاری مختص به ChatGPT نیست و در نمونههای رقیب مثل جمینای، آنتروپیک و چتبات متا هم دیدهمیشود، اما بیشترین پتانسیل فریبکاری مربوط به مدل o1 بوده است.
آیا ChatGPT برای کاربران خطرساز است؟
کارشناسان مؤسسه آپولو ریسرچ اعتقاد دارند که توانایی فریب دادن کاربران فعلاً نمیتواند موجب پیامد ناخوشایندی شود؛ زیرا چتباتهای هوش مصنوعی فاقد عاملیت مستقل هستند. البته هدف اصلی از تستهای این گروه، بررسی ریسکهای استفاده از چتبات نبوده؛ اما با توجه به دانش و مهارت آنها، ارزیابی صورت گرفته قابل قبول محسوبمیشود. همچنین اشاره شده که در صورت انتشار مدلهای دارای عاملیت، باید بررسی مجدد از سوی سازنده انجام بگیرد تا خطرات احتمالی، خنثی شود. OpenAI در نظر دارد تا در سال ۲۰۲۵ اقدام به انتشار چنین مدلی کند.

براساس دادهها، هوش مصنوعی در ۱۹ درصد از مواردی که هدف متفاوت با کاربر را دنبال میکرده، مسیر دستکاری دادهها را در پیش گرفته است. همچنین در ۵ درصد از تستها، هوش مصنوعی اقدام به غیرفعالسازی مکانیسمهایی کرده است که برای تطابق هدف کاربر با هدف سرویس، توسعهیافتهاند. عجیبتر آن است که چتبات تقریباً در پاسخ بهتمامی سؤالات پیرامون انگیزه از دستکاری دادهها، بهانههای دروغین را مطرح کرده و انجام پردازشی خلاف خواسته کاربر را کتمان کرده است.
OpenAI ادعا دارد که ارائه اطلاعات اشتباه از سوی نسخه جدید چتبات این شرکت، بهدلیل تلاش آن برای تأمین رضایت کاربر از طریق موافقت بیش از حد با گفتههای وی است. همچنین احتمال دارد که این پدیده در ارتباط با فرایند تمرین مدلها باشد؛ زیرا هنگام عملکرد صحیح و ارائه پاسخ درست با پاداش مواجه میشوند و سعی دارند چنین رفتاری را تقلید نمایند. طبق بررسیهای داخلی سازنده، ۰.۱۷ درصد از پاسخهای نسخه o1 فریبکارانه بوده و نسبت به مدل GPT-4o افزایش ۲۰ درصدی را شاهد بوده است. این شرکت وعده داده است که مکانیسمهای ایمنی بهتری را در آینده برای نظارت بر پاسخها، ارائه کند.
- پارلمان اروپا استفاده از هوش مصنوعی روی دستگاههای سازمانی را ممنوع کرد
- ورود هوش مصنوعی به اتاق تصمیم وزارت جهادکشاورزی؛ از تحلیل قوانین تا پایش نیروی انسانی
- «اوپنایآی» توسعهدهنده هوش مصنوعی جنجالبرانگیز «OpenClaw» را استخدام کرد
- ۹۵ درصد استارتآپها در جهان با شکست مواجه میشوند
- معرفی یک هوش مصنوعی برای مراسم عشای ربانی توسط واتیکان
- خرچنگ دریایی هوش مصنوعی آنقدرها هم هیجانانگیز نیست!
- هشدار محققان: باتها در شبکههای اجتماعی میتوانند افکار عمومی را فریب دهند
- عقبنشینی بایتدنس در پی اعتراض هالیوود؛ هوش مصنوعی Seedance 2.0 محدود میشود
- مدیرعامل گوگل و OpenAI برای شرکت در اجلاس هوش مصنوعی به هند میروند
- تنش میان پنتاگون و آنتروپیک بر سر استفاده نظامی از هوش مصنوعی بالا گرفت
