- افشاگری یک مستندساز از بحران پسماند در شمال کشور/ تهدید به مرگ شدم!
- عکسی از سریال جدید محمدحسین لطیفی/«خسوف» برای محرم آماده میشود
- کنداکتور شبکه نسیم به احترام خانوادههای شهدای دیماه تغییر کرد
- پارلمان اروپا استفاده از هوش مصنوعی روی دستگاههای سازمانی را ممنوع کرد
- قالیباف: ایران یکپارچه سوگوار مراسم چهلم فرزندان دلبند شهید خود است
- میزان تسهیلات ازدواج و فرزندآوری تعیین شد
- پزشکیان: نباید اجازه دهیم سلامت پلیس در ماموریتها به خطر بیفتد
- در مواجهه با اخبار آکسیوس هوشیار باشیم
- مجوز مجلس برای بهکارگیری ۱۰ هزار معلم بازنشسته و حقالتدریس
- حجتالاسلام سیدمحمدجواد جلالی دبیر هیئت اجرایی شورای وحدت شد
رگولاتوری ایتالیا: OpenAI با ChatGPT قوانین حریم خصوصی اروپا را نقض میکند
مقام حفاظت از دادههای ایتالیا اعلام کرده که OpenAI با چتبات هوش مصنوعی ChatGPT خود قوانین حفاظت از دادهها را نقض میکند. رگولاتور ایتالیا که یکی از فعالترین سازمانهای اتحادیه اروپا در زمینه هوش مصنوعی است، در فروردین ماه دسترسی به ChatGPT را به دلیل نقض قوانین حریم خصوصی اتحادیه اروپا برای مدت کوتاهی ممنوع کرد. این سازمان اکنون طی بیانیهای اعلام کرده که تحقیقات آنها یک یا چند مورد نقض احتمالی حریم خصوصی دادهها را در ابزارهای OpenAI نشان میدهد.
براساس گزارش TechCrunch، پس از بررسی چندماهه چتبات هوش مصنوعی ChatGPT توسط مقام حفاظت از دادههای ایتالیا، به OpenAI گفته شده است که مظنون به نقض قوانین حریم خصوصی اتحادیه اروپا است. حالا به این شرکت 30 روز مهلت داده شده است تا به این اتهامات پاسخ دهد. ایتالیا اولین کشور اروپای غربی بود که ChatGPT را محدود کرد؛ توسعه سریع این هوش مصنوعی توجه قانونگذاران و رگولاتورهای مختلف را به خود جلب کرده است.

رگولاتوری ایتالیا و نقض قوانین حریم خصوصی توسط OpenAI
براساس مقررات عمومی حفاظت از دادههای اتحادیه اروپا (GDPR) که در سال 2018 معرفی شد، هر شرکتی که این قوانین را نقض کند تا 4 درصد از گردش مالی جهانی خود را جریمه میشود. در دسامبر 2023 (آذرماه) نیز قانونگذاران اتحادیه اروپا با طرح اولیه قوانین سیستمهای هوش مصنوعی مانند ChatGPT موافقت کردند و یک گام به تنظیم قوانین حاکم بر این فناوری نزدیکتر شدند.
در فروردینماه رگولاتوری ایتالیا اتهامات زیادی به OpenAI وارد کرد؛ به گفته رگولاتوری، این شرکت از دادههای شخصی برای آموزش الگوریتمهای مدل ChatGPT استفاده میکند. همچنین این چتبات اطلاعات غلط بسیاری دارد که برای افراد کمسنوسال مناسب نیست.
بهرغم شناسایی این لیست از تخلفات مشکوک، OpenAI در آن زمان توانست ChatGPT را دوباره در ایتالیا راهاندازی کند. اکنون مقامات ایتالیایی هنوز نگفتهاند که کدام یک از موارد این لیست، در این بررسیهای جدید تأیید شده است؛ بااینحال پردازش دادههای شخصی برای آموزش مدلهای هوش مصنوعی، میتواند یک اتهام اساسی باشد.
- پارلمان اروپا استفاده از هوش مصنوعی روی دستگاههای سازمانی را ممنوع کرد
- ورود هوش مصنوعی به اتاق تصمیم وزارت جهادکشاورزی؛ از تحلیل قوانین تا پایش نیروی انسانی
- «اوپنایآی» توسعهدهنده هوش مصنوعی جنجالبرانگیز «OpenClaw» را استخدام کرد
- ۹۵ درصد استارتآپها در جهان با شکست مواجه میشوند
- معرفی یک هوش مصنوعی برای مراسم عشای ربانی توسط واتیکان
- خرچنگ دریایی هوش مصنوعی آنقدرها هم هیجانانگیز نیست!
- هشدار محققان: باتها در شبکههای اجتماعی میتوانند افکار عمومی را فریب دهند
- عقبنشینی بایتدنس در پی اعتراض هالیوود؛ هوش مصنوعی Seedance 2.0 محدود میشود
- مدیرعامل گوگل و OpenAI برای شرکت در اجلاس هوش مصنوعی به هند میروند
- تنش میان پنتاگون و آنتروپیک بر سر استفاده نظامی از هوش مصنوعی بالا گرفت
