- فارس: سه نفتکش توقیف شده توسط هند ارتباطی با ایران ندارد
- ایران گنبد جدید حرم امام حسین (ع) را با طلا ساخت / طلاهای گنبد از کجا تأمین شد؟
- زمان ورود ناو آمریکایی به منطقه مشخص شد؟ / اعلام وضعیت فوق العاده
- آیا حماس خلع سلاح خواهد شد؟/ پاسخ رهبران حماس به آخرین مهلت خلع سلاح
- اظهارات جدید وزیر امور خارجه آمریکا درمورد وضعیت مذاکرات با ایران
- تصمیم جدید دولت لبنان درمورد خلع سلاح حزب الله
- فوری/ جنگ اوکراین متوقف میشود؛ موافقت زلنسکی با پیشنهاد آتشبس
- واکنش سوئیس به نقش عمان در گفتوگو میان آمریکا و ایران
- رسوایی مالی تازه در استقلال/ پشتپرده پرداخت وام ۴۷ میلیاردی به رامین رضاییان چیست؟
- اینفانتینو لبنانی شد/ رئیس فیفا سومین تابعیتش را گرفت
OpenAI به افزایش خطر تولید سلاحهای بیولوژیکی با هوش مصنوعی o1 اذعان کرد
آخرین مدل هوش مصنوعی شرکت OpenAI با افزایش خطر سوءاستفاده برای ساخت سلاحهای بیولوژیکی مواجه است و محققان امنیتی زنگ خطر را برای ریسکهای این فناوری درحال پیشرفت به صدا درآوردهاند. جالب این است که خود OpenAI نیز از این خطرات آگاه است و به آن اذعان کرده.
به گزارش Financial Times، شرکت OpenAI مدل جدید خود را با نام o1 پنجشنبه معرفی کرد و از قابلیتهای جدیدی برای استدلال، حل مسائل سخت ریاضی و پاسخ به سؤالات تحقیقات علمی خبر داد. این تواناییها پیشرفتی حیاتی برای ایجاد هوش جامع مصنوعی یا ماشینهایی با شناخت سطح انسانی دیده میشود.
شرکت OpenAI در بخشی از ابزار توضیح نحوه عملکرد هوش مصنوعی خود میگوید مدلهای جدید خطر متوسطی برای مسائل مربوط به سلاحهای شیمیایی، بیولوژیکی، رادیولوژیکی و هستهای (CBRN) دارند.
سطح «متوسط» بالاترین ردهای است که شرکت OpenAI تابهحال به مدلهای خود داده؛ یعنی این فناوری «بهطرز معناداری کمکهایی ارائه میکند که توانایی متخصصان در زمینههای پیشرفته مرتبط با CBRN را افزایش میدهد تا بتوانند تهدید CBRN ایجاد کنند.»

به گفته کارشناسان، این نرمافزار هوش مصنوعی با قابلیتهای پیشرفتهتر، مانند توانایی اجرای استدلالهای گامبهگام، خطر سوءاستفاده بازیگران بد را افزایش میدهد.
این هشدارها درحالی مطرحشده که شرکتهای فناوری ازجمله گوگل، متا و انتروپیک برای ساخت و بهبود سیستمهای هوش مصنوعی پیشرفته رقابت میکنند؛ زیرا بهدنبال ایجاد نرمافزاری هستند که بتواند در جایگاه «عاملهایی» اقدام کند که به انسانها در تکمیل وظایف و هدایت زندگیشان کمک خواهد کرد.
لایحه SB 1047 کالیفرنیا و مخالفت شرکت OpenAI با آن
این موضوع به تلاشهایی برای قانونگذاری درباره شرکتهای هوش مصنوعی منجر شده است. در کالیفرنیا، بحثی پیرامون لایحهای به نام SB 1047 درگرفته است که از سازندگان مدلهای هوش مصنوعی میخواهد اقداماتی را برای بهحداقلرساندن خطر استفاده از مدلهایشان برای توسعه سلاحهای بیولوژیکی انجام دهند.
برخی سرمایهگذاران خطرپذیر و گروههای فناوری، ازجمله شرکت OpenAI، هشدار دادهاند این قانون پیشنهادی میتواند تأثیر وحشتناکی بر صنعت هوش مصنوعی داشته باشد. «گاوین نیوسام»، فرماندار کالیفرنیا، باید طی روزهای آینده تصمیم بگیرد این قانون را امضا کند یا وتو.
- هشدار محققان: باتها در شبکههای اجتماعی میتوانند افکار عمومی را فریب دهند
- عقبنشینی بایتدنس در پی اعتراض هالیوود؛ هوش مصنوعی Seedance 2.0 محدود میشود
- مدیرعامل گوگل و OpenAI برای شرکت در اجلاس هوش مصنوعی به هند میروند
- تنش میان پنتاگون و آنتروپیک بر سر استفاده نظامی از هوش مصنوعی بالا گرفت
- تحول طراحی مدار الکترونیکی با هوش مصنوعی جدید در ۲۰۲۶
- نتیجه عجیب آزمایش شبیهسازی فروشندگی: ایجنت هوش مصنوعی Claude کارتل تشکیل داد
- ماجرای فشار «پنتاگون» به شرکتهای هوش مصنوعی چیست؟
- «چتجیپیتی» در هند ۱۰۰ میلیون کاربر هفتگی دارد
- جنجال بر سر پیشبینی درآمد از روی چهره!
- واکنش تند هالیوود به هوش مصنوعی بایتدنس؛ Seedance 2.0 متهم به سرقت هنری شد
