- دیدار وزرای امور خارجه جمهوری اسلامی ایران و سوئیس
- اعلام آمادگی هیئت عالی نظارت مجمع در تسریع رسیدگی به لایحه بودجه ۱۴۰۵
- متفکر آزاد: بازگشت آمریکا به مذاکره نتیجه شکست در جنگ سخت و نرم است
- رزمایش کنترل هوشمند تنگه هرمز
- صد و سی و چهارمین جلسه «حکمت سیاسی اسلام در قرآن»
- مهاجرانی: ترکیبی از حس اندوه و غرور را تجربه کردم
- تأکید مشاور عالی فرمانده کل سپاه بر مدیریت فضای مجازی
- احضار سفیر آلمان به وزارت امور خارجه
- عراقچی ژنو را به مقصد تهران ترک کرد
- علیبابا مدل Qwen 3.5 را معرفی کرد؛ گامی بزرگ به سمت ایجنتهای چندوجهی
OpenAI کاربران کنجکاو در مورد مدل هوش مصنوعی o1 را به قطع دسترسی تهدید کرد
OpenAI تهدید کرده است کاربرانی که در مورد قابلیت استدلال مدل هوش مصنوعی Strawberry یا o1 این شرکت کنجکاوی کنند را مسدود میکند. هنوز دلیل این تصمیم عجیب OpenAI مشخص نشده است.
به گزارش نشریه Wired، خانواده مدل هوش مصنوعی o1 یکی از جدیدترین محصولات شرکت OpenAI است که از قابلیت استدلال برخوردار است. این مدل هفته گذشته در دسترس کاربران قرار گرفت. اما به نظر میرسد شرکت سازنده علاقهای ندارد که کاربران بدانند قابلیت استدلال این مدل هوش مصنوعی به چه صورت کار میکند. OpenAI با ارسال ایمیلهایی به کاربران از آنها خواسته است که در مورد این قابلیت و نحوه کار آن کنجکاوی نکنند.
کاربران ChatGPT نباید در مورد قابلیت استدلال مدل هوش مصنوعی o1 کنجکاوی کنند

برایناساس، کاربرانی که این خواسته OpenAI را رعایت نکنند از این سرویس مسدود خواهند شد. در ایمیل ارسالی به کاربران ذکر شده است که درخواست آنها از ChatGPT بهعنوان تلاشی برای دورزدن موارد حفاظتی علامتگذاری شده است. همچنین در ادامه این ایمیل آورده شده است که نقض مکرر این قانون ممکن است به قطع دسترسی به GPT-4o بینجامد.
استدلالکردن و بهرهبردن از زنجیره افکار مهمترین تفاوت مدل Strawberry با سایر مدلهای عرضه شده توسط OpenAI است. این قابلیت به مدل هوش مصنوعی اجازه میداد که نحوه رسیدن به این پاسخ را بهصورت گامبهگام برای کاربر شرح دهد. «میرا موراتی»، مدیر ارشد فناوری OpenAI، درباره مدل هوش مصنوعی o1 گفته بود که این مدل یک پارادایم جدید برای فناوری است.
کاربرانی که ایمیلهای تهدیدآمیز OpenAI را دریافت کردهاند در این باره میگویند که استفاده از اصطلاح «ردیابی استدلال» باعث شده است که این شرکت نسبت به آنها حساس شود. برخی دیگر از کاربران نیز میگویند که استفاده از کلمه «استدلال» باعث صدور اخطار به آنها شده است.
در واکنش به این موضوع، OpenAI در یک پست وبلاگی اعلام کرده است که دلیل مخفیکردن نحوه تفکر مدل هوش مصنوعی o1 این است که در صورت بیانکردن موضوعی مغایر با سیاستهای ایمنی توسط این چتبات نیازی نداشته باشد نحوه عملکرد آن را برای کاربران فیلتر کند.
- علیبابا مدل Qwen 3.5 را معرفی کرد؛ گامی بزرگ به سمت ایجنتهای چندوجهی
- متا از Manus Agents رونمایی کرد؛ راهی برای ارتباط با هوش مصنوعی در پیامرسانها
- نهاد حریم خصوصی اتحادیه اروپا درباره تولید تصاویر جنسی توسط گراک تحقیق میکند
- بریتانیا چتباتهای هوش مصنوعی را مشمول قوانین ایمنی آنلاین میکند
- همکاری احتمالی ایلان ماسک با پنتاگون؛ xAI روی پروژه کنترل پهپادهای خودمختار کار میکند
- پارلمان اروپا استفاده از هوش مصنوعی روی دستگاههای سازمانی را ممنوع کرد
- ورود هوش مصنوعی به اتاق تصمیم وزارت جهادکشاورزی؛ از تحلیل قوانین تا پایش نیروی انسانی
- «اوپنایآی» توسعهدهنده هوش مصنوعی جنجالبرانگیز «OpenClaw» را استخدام کرد
- ۹۵ درصد استارتآپها در جهان با شکست مواجه میشوند
- معرفی یک هوش مصنوعی برای مراسم عشای ربانی توسط واتیکان
