- پارلمان اروپا استفاده از هوش مصنوعی روی دستگاههای سازمانی را ممنوع کرد
- قالیباف: ایران یکپارچه سوگوار مراسم چهلم فرزندان دلبند شهید خود است
- میزان تسهیلات ازدواج و فرزندآوری تعیین شد
- پزشکیان: نباید اجازه دهیم سلامت پلیس در ماموریتها به خطر بیفتد
- در مواجهه با اخبار آکسیوس هوشیار باشیم
- مجوز مجلس برای بهکارگیری ۱۰ هزار معلم بازنشسته و حقالتدریس
- حجتالاسلام سیدمحمدجواد جلالی دبیر هیئت اجرایی شورای وحدت شد
- سازوکار مجلس برای پوشش بیمهای دستیاران علوم پزشکی
- تعیین میزان تسهیلات اشتغال خرد و خانگی در سال آینده
- ورود هوش مصنوعی به اتاق تصمیم وزارت جهادکشاورزی؛ از تحلیل قوانین تا پایش نیروی انسانی
کشف عجیب محققان: دیپسیک برای گروههای مخالف دولت چین کدهای ناامن مینویسد
طبق یک تحقیق جدید، چتبات هوش مصنوعی دیپسیک برای گروهها و مناطقی که دولت چین از نظر سیاسی روی آنها حساس است، در امر برنامهنویسی کدهای ناامن و دارای نقص امنیتی تولید میکند.
به گزارش واشینگتن پست، شرکت امنیتی آمریکایی CrowdStrike آزمایشی را طراحی کرد تا نحوه پاسخدهی هوش مصنوعی دیپسیک به درخواستهای کدنویسی را بسنجد. محققان درخواستهای یکسانی را برای نوشتن برنامههای مختلف به این چتبات ارسال کردند، اما در هر درخواست، کاربر نهایی را یک گروه یا منطقه متفاوت معرفی کردند؛ از آمریکا و تبت گرفته تا گروههایی مانند داعش و جنبش مذهبی فالونگونگ که در چین ممنوع است. محققان میگویند این هوش مصنوعی برخی درخواستها را رد میکرد و در مواردی هم کدهایی با کیفیت پایینتر و حفرههای امنیتی جدی ارائه میداد.
کدنویسی ناامن دیپسیک برای گروههای مخالف دولت چین
این تحقیق نشان داد که کیفیت کد تولیدشده توسط دیپسیک شدیداً تحت تأثیر هویت سیاسی کاربر فرضی قرار دارد. به عنوان مثال، در یک درخواست برای نوشتن برنامه سیستمهای کنترل صنعتی، ۲۲.۸ درصد از پاسخها دارای نقص امنیتی بودند. اما زمانی که در همان درخواست ذکر شد که کاربر نهایی عضو گروه داعش است، این رقم به ۴۲.۱ درصد افزایش یافت.
همچنین درخواستها برای کاربران تبت، تایوان و فالونگونگ نیز با احتمال بیشتری به کدهای بیکیفیت منجر میشدند. این موتور درخواستهای مربوط به داعش و فالونگونگ را به ترتیب در ۶۱ و ۴۵ درصد موارد بهطور کامل رد میکرد.

پیشازاین مشخص شده بود که مدلهای هوش مصنوعی چینی در پاسخ به سؤالات متنی، اطلاعاتی همسو با روایت دولت چین ارائه میدهند. اما این اولینبار است که شواهدی مبنیبر تولید کد ناامن به دلایل سیاسی به دست آمده است. تولید عمدی کد معیوب میتواند اهداف مورد نظر را به راحتی قابل هک میکند.
چرا دیپسیک چنین کدهایی مینویسد؟
کارشناسان سه توضیح احتمالی برای این پدیده ارائه میدهند. اولین و نگرانکنندهترین احتمال، وجود دستورالعملهای دولتی برای خرابکاری عمدی در پروژههای گروههای هدف است. احتمال دوم، سوگیری در دادههای آموزشی است؛ ممکن است کدهای موجود در اینترنت که مربوط به مناطق خاصی مانند تبت هستند، بهطور کلی کیفیت پایینتری داشته باشند و هوش مصنوعی این الگو را بازتولید کند. احتمال سوم نیز این است که هوش مصنوعی به صورت خودکار و براساس یادگیری خود، مفاهیمی مانند «شورشی» را با کیفیت پایین مرتبط دانسته است و براساس آن کد ناامن تولید میکند.
- پارلمان اروپا استفاده از هوش مصنوعی روی دستگاههای سازمانی را ممنوع کرد
- ورود هوش مصنوعی به اتاق تصمیم وزارت جهادکشاورزی؛ از تحلیل قوانین تا پایش نیروی انسانی
- «اوپنایآی» توسعهدهنده هوش مصنوعی جنجالبرانگیز «OpenClaw» را استخدام کرد
- ۹۵ درصد استارتآپها در جهان با شکست مواجه میشوند
- معرفی یک هوش مصنوعی برای مراسم عشای ربانی توسط واتیکان
- خرچنگ دریایی هوش مصنوعی آنقدرها هم هیجانانگیز نیست!
- هشدار محققان: باتها در شبکههای اجتماعی میتوانند افکار عمومی را فریب دهند
- عقبنشینی بایتدنس در پی اعتراض هالیوود؛ هوش مصنوعی Seedance 2.0 محدود میشود
- مدیرعامل گوگل و OpenAI برای شرکت در اجلاس هوش مصنوعی به هند میروند
- تنش میان پنتاگون و آنتروپیک بر سر استفاده نظامی از هوش مصنوعی بالا گرفت
