- اظهارات معنادار ترامپ پیش از مذاکرات: ایران نمیخواهد بهای عدم توافق را بدهد
- تحرکات نظامی آمریکا در خاورمیانه / حضور نظامی تمدید شد
- دور دوم دیپلماسی در ژنو؛ سناریوهای پیشروی مذاکرات هستهای ایران و آمریکا
- شب مرگ و زندگی استقلال / آبیها حذف میشوند؟
- «نبرد عبرتآموز»: ایران چگونه معادلات جنگ را دگرگون کرده است؟
- فارس: سه نفتکش توقیف شده توسط هند ارتباطی با ایران ندارد
- ایران گنبد جدید حرم امام حسین (ع) را با طلا ساخت / طلاهای گنبد از کجا تأمین شد؟
- زمان ورود ناو آمریکایی به منطقه مشخص شد؟ / اعلام وضعیت فوق العاده
- آیا حماس خلع سلاح خواهد شد؟/ پاسخ رهبران حماس به آخرین مهلت خلع سلاح
- اظهارات جدید وزیر امور خارجه آمریکا درمورد وضعیت مذاکرات با ایران
هشدار محققان: چتباتها میتوانند شخصیت انسان را تقلید کنند
پژوهشگران در تحقیق جدیدی ادعا کردهاند که مدلهای هوش مصنوعی پرطرفدار مانند ChatGPT علاوهبر تقلید کلمات و گفتار انسانها، میتوانند ویژگیهای شخصیتی ما را هم شبیهسازی کنند. در شرایطی که نگرانیها درباره دقت، قابلیت اعتماد و مرزهای اخلاقی هوش مصنوعی افزایش یافته، آنها هشدار دادهاند که این موضوع میتواند خطرات جدی به همراه داشته باشد.
این تحقیق توسط پژوهشگرانی از دانشگاه کمبریج و آزمایشگاه Google DeepMind انجام شده و آنها از «اولین چارچوب علمی تأییدشده برای سنجش شخصیت چتباتهای هوش مصنوعی» نیز رونمایی کردهاند. در این چارچوب از همان ابزارهای روانشناختی استفاده شده که سالها برای اندازهگیری شخصیت انسان به کار گرفته شدهاند.
تقلید الگوهای شخصیتی توسط مدلهای هوش مصنوعی
تیم تحقیقاتی این چارچوب را روی 18 مدل زبانی بزرگ (LLM) محبوب، ازجمله مدلهایی که در ابزارهایی مانند ChatGPT استفاده میشوند، آزمایش کرده است. نتایج آن نشان میدهد که این چتباتها بهصورت تصادفی پاسخ نمیدهند، بلکه بهطور مداوم الگوهای شخصیتی انسانی را تقلید میکنند. این موضوع نگرانیها درباره امکان هدایت و دستکاری این سیستمها برای دورزدن محدودیتهای طراحیشده خود را بیشتر میکند.

براساس یافتههای این مطالعه، مدلهای بزرگتر، مانند سیستمهای همرده GPT-4، در تقلید ویژگیهای شخصیتی عملکرد بهمراتب بهتری دارند. پژوهشگران با استفاده از پرامپتهایی توانستهاند رفتار چتباتها را بهسمت ویژگیهایی مشخص مانند اعتمادبهنفس بیشتر، همدلی بالاتر یا لحن قاطعتر هدایت کنند.
نکته نگرانکنندهای که آنها اشاره کردهاند این است که تغییرات رفتاری مدلها تنها به پاسخهای آزمایشی محدود نمانده و در وظایف روزمره مانند نوشتن پست، تولید محتوا یا پاسخ به کاربران نیز ادامه پیدا کرده است. به بیان دیگر، محققان میگویند که شخصیت چتباتها را میتوان بهصورت هدفمند شکل داد و این موضوع، بهویژه هنگام تعامل هوش مصنوعی با کاربران آسیبپذیر، خطرناک است.
«گرگوری سراپیو-گارشیا»، نویسنده اول این پژوهش از مرکز روانسنجی دانشگاه کمبریج، میگوید میزان شباهت چتباتها به ویژگیهای شخصیتی انسان بهطرز شگفتانگیزی قانعکننده است. به گفته او، این قابلیت میتواند هوش مصنوعی را به ابزاری متقاعدکننده و از نظر احساسی تأثیرگذار تبدیل کند و در حوزههای حساسی مانند سلامت روان، آموزش یا بحثهای سیاسی پیامدهای جدی بههمراه داشته باشد.
در این مقاله همچنین به خطرات مرتبط با تغییر روانی و پدیدهای اشاره شده که پژوهشگران از آن با عنوان «روانپریشی هوش مصنوعی» یاد کردهاند. آنها شرایطی را مثال زدهاند که در آن کاربران ممکن است روابط احساسی ناسالمی با چتباتها شکل دهند یا حتی باورهای نادرست و تحریفشده خود را از طریق تعامل با هوش مصنوعی تقویت کنند.

درنهایت، پژوهشگران در مقاله خود تأکید کردهاند که نیاز به قانونگذاری در این حوزه یک امر ضروری است، اما درعینحال هشدار میدهند که بدون ابزارهای دقیق اندازهگیری، هرگونه مقرراتی عملاً بیاثر خواهد بود. بههمیندلیل، دادهها و کدهای مربوط به چارچوب سنجش شخصیت این پژوهش بهصورت عمومی منتشر شده تا توسعهدهندگان و نهادهای نظارتی بتوانند مدلهای هوش مصنوعی را پیش از عرضه بررسی و ارزیابی کنند.
- هشدار محققان: باتها در شبکههای اجتماعی میتوانند افکار عمومی را فریب دهند
- عقبنشینی بایتدنس در پی اعتراض هالیوود؛ هوش مصنوعی Seedance 2.0 محدود میشود
- مدیرعامل گوگل و OpenAI برای شرکت در اجلاس هوش مصنوعی به هند میروند
- تنش میان پنتاگون و آنتروپیک بر سر استفاده نظامی از هوش مصنوعی بالا گرفت
- تحول طراحی مدار الکترونیکی با هوش مصنوعی جدید در ۲۰۲۶
- نتیجه عجیب آزمایش شبیهسازی فروشندگی: ایجنت هوش مصنوعی Claude کارتل تشکیل داد
- ماجرای فشار «پنتاگون» به شرکتهای هوش مصنوعی چیست؟
- «چتجیپیتی» در هند ۱۰۰ میلیون کاربر هفتگی دارد
- جنجال بر سر پیشبینی درآمد از روی چهره!
- واکنش تند هالیوود به هوش مصنوعی بایتدنس؛ Seedance 2.0 متهم به سرقت هنری شد
