- افشاگری یک مستندساز از بحران پسماند در شمال کشور/ تهدید به مرگ شدم!
- عکسی از سریال جدید محمدحسین لطیفی/«خسوف» برای محرم آماده میشود
- کنداکتور شبکه نسیم به احترام خانوادههای شهدای دیماه تغییر کرد
- پارلمان اروپا استفاده از هوش مصنوعی روی دستگاههای سازمانی را ممنوع کرد
- قالیباف: ایران یکپارچه سوگوار مراسم چهلم فرزندان دلبند شهید خود است
- میزان تسهیلات ازدواج و فرزندآوری تعیین شد
- پزشکیان: نباید اجازه دهیم سلامت پلیس در ماموریتها به خطر بیفتد
- در مواجهه با اخبار آکسیوس هوشیار باشیم
- مجوز مجلس برای بهکارگیری ۱۰ هزار معلم بازنشسته و حقالتدریس
- حجتالاسلام سیدمحمدجواد جلالی دبیر هیئت اجرایی شورای وحدت شد
بنیانگذاران OpenAI به ابهامات درباره ایمنی مدلهای هوش مصنوعی خود پاسخ دادند
در چند روز گذشته ابتدا «ایلیا سوتسکیور»، دانشمند ارشد سابق OpenAI از این شرکت جدا شد و بعد «یان لیکه»، مدیر تیم ایمنی هوش مصنوعی از خروج خود از OpenAI خبر داد و مدعی شد که این شرکت اکنون توجه بیشتری به عرضه محصولات پرزرقوبرق دارد. حالا «گرگ براکمن» و «سم آلتمن» به این اتفاقات و صحبتها واکنش نشان دادهاند.
بیانیه سم آلتمن و گرگ براکمن درباره ایمنی هوش مصنوعی در OpenAI
گرگ براکمن، همبنیانگذار OpenAI در پستی در صفحه شخصی خود در ایکس بیانیهای را منتشر کرد که بهصورت مشترک توسط او سم آلتمن نوشته شده است. این بیانیه ضمن تشکر از تلاشهای یان لیکه برای این شرکت، به سه نکته برای رفع ابهامات اشاره میکند. در ابتدا میگوید OpenAI سطح آگاهی عمومی درباره ریسکها و فرصتهای هوش جامع مصنوعی (AGI) را ارتقا داده است تا جهان برای مواجهه با آن آمادهتر باشد. آلتمن و براکمن همچنین یادآور شدند که این شرکت تاکنون بارها خواستار قانونگذاری و کنترلهای بینالمللی برای AGI بوده است.
این بیانیه در ادامه میگوید OpenAI زیرساختهای لازم برای توسعه سیستمهای تواناتر را پیادهسازی کرده ولی اذعان میکند که پیبردن به چگونگی ایمنسازی فناوریهای جدید کار آسانی نیست. بنیانگذاران OpenAI میگویند برای مثال، آنها تلاش زیادی کردند تا مدل هوش مصنوعی GPT-4 را بهشکلی ایمن منتشر کنند و به تلاش برای بهبود شرایط و جلوگیری از سوءاستفادهها ادامه دادهاند.

سومین نکتهای که براکمن و آلتمن به آن اشاره کردهاند، این واقعیت است که آینده از گذشته سختتر خواهد بود. آنها میگویند OpenAI باید ایمنی سیستمهای خود را با هر مدل جدید ارتقا دهد. این دو پیشبینی میکنند که در آینده مدلهای هوش مصنوعی بیشتر از قبل با دنیای واقعی درهمآمیخته شوند و کارهای مختلف را برای کاربران انجام دهند. بههمین منظور لازم است که کارهای زیربنایی بسیار زیادی برای حفظ ایمنی آنها صورت بگیرد و این اقدامات باید در زمینه شیوههای یادگیری، حل مسئله و دیگر مسائل مرتبط با ایمنی باشد.
گرگ براکمن و سم آلتمن تأکید کردند که این شرکت نمیتواند پیشبینی دقیقی از آینده داشته باشد، بنابراین به ایمنسازی تمامی فرایندهای خود ادامه خواهد داد تا برای ریسکهای گوناگون آماده باشد. این بیانیه یادآور میشود که راه مشخصی برای حرکت به سمت AGI وجود ندارد، اما باید بهطور همزمان به سمت ارائه قابلیتهای مفید و در عین حال حفظ ایمنی حرکت کرد و این شرکت مسئولیتهای خود را جدی میگیرد.
- پارلمان اروپا استفاده از هوش مصنوعی روی دستگاههای سازمانی را ممنوع کرد
- ورود هوش مصنوعی به اتاق تصمیم وزارت جهادکشاورزی؛ از تحلیل قوانین تا پایش نیروی انسانی
- «اوپنایآی» توسعهدهنده هوش مصنوعی جنجالبرانگیز «OpenClaw» را استخدام کرد
- ۹۵ درصد استارتآپها در جهان با شکست مواجه میشوند
- معرفی یک هوش مصنوعی برای مراسم عشای ربانی توسط واتیکان
- خرچنگ دریایی هوش مصنوعی آنقدرها هم هیجانانگیز نیست!
- هشدار محققان: باتها در شبکههای اجتماعی میتوانند افکار عمومی را فریب دهند
- عقبنشینی بایتدنس در پی اعتراض هالیوود؛ هوش مصنوعی Seedance 2.0 محدود میشود
- مدیرعامل گوگل و OpenAI برای شرکت در اجلاس هوش مصنوعی به هند میروند
- تنش میان پنتاگون و آنتروپیک بر سر استفاده نظامی از هوش مصنوعی بالا گرفت
