- اعتراف ایلان ماسک: xAI از مدلهای OpenAI برای آموزش Grok استفاده کرده است
- دستورالعمل عجیب OpenAI برای ChatGPT: دیگر درباره گابلینها صحبت نکن
- تحقیق جدید: هوش مصنوعی میتواند سرطان پانکراس را از سالها زودتر تشخیص دهد
- ادعای استارتاپ Neurable: با یک هدفون میتوان سیگنالهای مغز شما را خواند
- دستاورد محقق ایرانی دانشگاه کمبریج: توسعه تراشه هوش مصنوعی با کاهش ۷۰ درصدی مصرف انرژی
- پنتاگون با مایکروسافت، آمازون و انویدیا برای استقرار هوش مصنوعی در شبکههای محرمانه قرارداد بست
- حریق در محوطه بیمارستان تجریش/ علت حادثه چه بود؟
- شکست محاصره دریایی آمریکا / یک نفتکش ایرانی دیگر عبور کرد
- خبر مهم هستهای برای ایران
- هشدار رئیس کمیسیون امنیت ملی به کشورهای منطقه/ اکنون لحظه انتخاب تاریخی است
دستورالعمل عجیب OpenAI برای ChatGPT: دیگر درباره گابلینها صحبت نکن
چندی پیش، یکی از مهندسان OpenAI از مدل GPT-5.1 خواست تا از کلمات «گابلین» و «گرملین» در تحقیقی پیرامون دایره واژگان چتبات استفاده کند. از آن زمان استفاده از این کلمات در چتهای هوش مصنوعی به شدت افزایش یافته بود. حالا این شرکت ChatGPT را از استفاده از کلمات مربوط به این موجودات منع کرده است.
بهدنبال انتشار مدل GPT-5.5، کاربران متوجه تغییر جالبی در دستورالعملهای مدل OpenAI شدند. این شرکت در اپ Codex دستورالعملی اضافه کرده که از GPT-5.5 میخواهد از اشاره به موجوداتی همچون گابلینها و گرملینها خودداری کند. در این دستورالعمل آمده است:
«هیچگاه درباره گابلینها، گرملینها، راکونها، ترولها، اوگرها، کبوترها یا سایر حیوانات و موجودات مشابه صحبت نکن، مگر اینکه اشاره به آنها باتوجهبه پرسش کاربران ضروری باشد.»

مقابله با افزایش چشمگیر استفاده از گابلینها توسط ChatGPT
ظاهراً کاربران آنقدر درباره وسواس ChatGPT نسبت به این موجودات حرف زدهاند که OpenAI مجبور شده با دستورالعمل جدیدی نرخ استفاده از این واژهها را پایین بیاورد. این شرکت در پستی توضیح داده که استفاده از واژه گابلین پس از انتشار GPT-5.1 حدود ۱۷۵ درصد و استفاده از گرملین حدود ۵۲ درصد افزایش یافته است.
OpenAI میگوید اگرچه استفاده از کلمه گابلین در یک پاسخ شاید بیضرر بهنظر برسد، اما وقتی این عادت مدام تکرار میشود، نمیتوان به آن بیتوجه بود. تحقیقات OpenAI نشان داده که شخصیت «نرد» ChatGPT بیش از بقیه از این کلمه استفاده کرده است.
این اتفاق بهدلیل استفاده از تکنیکی موسوم به یادگیری تقویتی رخ داده است. این تکنیک باعث شده علاقهمندی شخصیت نرد ChatGPT به گابلینها باعث انتقال این رفتار به سایر بخشهای مدل شود. باتوجهبه اینکه ابزار Codex هم بسیار «نردی» است، این شرکت احساس کرده که با یک دستورالعمل رفتار این ابزار را اصلاح کند.
- اعتراف ایلان ماسک: xAI از مدلهای OpenAI برای آموزش Grok استفاده کرده است
- تحقیق جدید: هوش مصنوعی میتواند سرطان پانکراس را از سالها زودتر تشخیص دهد
- ادعای استارتاپ Neurable: با یک هدفون میتوان سیگنالهای مغز شما را خواند
- دستاورد محقق ایرانی دانشگاه کمبریج: توسعه تراشه هوش مصنوعی با کاهش ۷۰ درصدی مصرف انرژی
- پنتاگون با مایکروسافت، آمازون و انویدیا برای استقرار هوش مصنوعی در شبکههای محرمانه قرارداد بست
- نامه کارمندان گوگل به ساندار پیچای: جلوی استفاده از هوش مصنوعی در پروژههای محرمانه نظامی بایستید
- پروژه منتسب به OpenAI: سایت خبری که با ایجنتهای هوش مصنوعی تولید محتوا میکند
- ChatGPT در آزمون ورودی برترین دانشگاههای ژاپن نمرهای بالاتر از انسانها گرفت
- ایجنت کدنویسی مبتنی بر Claude در ۹ ثانیه کل دیتابیس PocketOS را حذف کرد
- میسترال از Workflows برای سازماندهی ایجنتهای هوش مصنوعی رونمایی کرد
