- تبریک سخنگوی وزارت خارجه به مناسبت انتخابات پارلمانی در بنگلادش
- دیدار وزیر کشور با سفیر امارات
- پاسخ رئیسجمهور به پرسشهای شمسالواعظین، عبدالکریمی و جلائیپور
- سردار تنگسیری: اشراف ۲۴ ساعته بر تنگه هرمز داریم
- سقف تسهیلات ازدواج و فرزندآوری در بودجه ۱۴۰۵ به ۴۷۵ همت رسید
- دعوت ستادکل نیروهای مسلح ازمردم برای حضور در گرامیداشت شهدای فتنه اخیر
- جشن بهار یادآور پیوندهای دیرینه فرهنگی دو تمدن کهن ایران و چین است
- ماجرای مشکوک زمینلرزههای پی در پی در عسلویه چیست؟
- جزئیات آتشسوزی گسترده در حوالی پالایشگاه نیک گاز تبریز / ماجرا چیست؟
- ماجرای تیراندازی مرگبار دروازه غار چه بود؟ / مجرم ۱۸ ساله اعتراف کرد
آزمایش سیستم نظارت مبتنی بر هوش مصنوعی برای تشخیص جرم در متروی لندن
طبق اسناد جدیدی که توسط WIRED بهدست آمده است، در متروی لندن از سیستم هوش مصنوعی برای نظارت انسانها استفاده میشود که میتواند حرکت، رفتار و زبان بدن آنها را بررسی کند. با وجود این سیستم، میتوان تشخیص داد که آیا افراد مرتکب جنایت شدهاند یا در موقعیتهای ناامن قرار دارند.
WIRED در گزارش خود توضیح میدهد، از اکتبر 2022 تا پایان سپتامبر 2023، شرکت حمل و نقل لندن (TFL) که شبکه حمل و نقل در لندن و حومه شهر را مدیریت میکند، 11 الگوریتم را در ایستگاه متروی «ویلسدن گرین» که قبل از همهگیری کرونا روزانه 25 هزار بازدیدکننده داشت، آزمایش کردند.
در این آزمایش دانشمندان ادعا کردهاند که برای اولین بار از یک سیستم هوش مصنوعی همراه با ویدیو دوربینهای مدار بسته استفاده کردهاند تا بتوانند به کارکنان مترو هشدارهایی را ارسال کنند. به گفته آنها، سیستم بیش از 44 هزار هشدار توسط این سیستم صادر شده که 19 هزار مورد از آنها به کارکنان ایستگاه تحویل داده شده است.
استفاده از هوش مصنوعی برای نظارت در مترو

در این اسناد همچنین به این موضوع اشاره شده است که سیستم نظارت مبتنی بر هوش مصنوعی متروی لندن میتواند مواردی از جمله ویلچر، کالسکه، بخار، حضور افراد در مناطق غیرمجاز یا قرارگیری آنها در لبه سکو را تشخیص دهد. علاوه بر این، هوش مصنوعی در طول آزمایش خود مرتکب اشتباهاتی شده است. بهعنوان مثال کودکانی که همراه با والدین خود از گیت وارد میشوند را بهعنوان افرادی تشخیص داده که هزینه سفر خود را پرداخت نکردهاند.
کارشناسان حوزه حریم خصوصی نیز مانند همیشه نگرانیهای خود نسبت به این فناوری را بیان کردهاند. به گفته آنها، استفاده از چنین سیستمهای نظارتی میتواند در آینده پیشرفت کند و باعث تولید سیستمها یا نرمافزارهای تشخیص چهره پیچیدهتری شوند که افراد خاص را شناسایی میکنند.
«مندی مک گرگور»، رئیس سیاست و ایمنی جامعه TFL میگوید که نتایج این کارآزمابی همچنان در حال تجزیهوتحلیل است و هیچ مدرکی مبنی بر سوگیری در دادههای جمعآوریشده وجود ندارد. همچنین به گفته او هیچ نشانهای در ایستگاهها وجود نداشته که استفاده از سیستم نظارت هوش مصنوعی را به اطلاع افراد برساند.
- هشدار محققان: باتها در شبکههای اجتماعی میتوانند افکار عمومی را فریب دهند
- عقبنشینی بایتدنس در پی اعتراض هالیوود؛ هوش مصنوعی Seedance 2.0 محدود میشود
- مدیرعامل گوگل و OpenAI برای شرکت در اجلاس هوش مصنوعی به هند میروند
- تنش میان پنتاگون و آنتروپیک بر سر استفاده نظامی از هوش مصنوعی بالا گرفت
- تحول طراحی مدار الکترونیکی با هوش مصنوعی جدید در ۲۰۲۶
- نتیجه عجیب آزمایش شبیهسازی فروشندگی: ایجنت هوش مصنوعی Claude کارتل تشکیل داد
- ماجرای فشار «پنتاگون» به شرکتهای هوش مصنوعی چیست؟
- «چتجیپیتی» در هند ۱۰۰ میلیون کاربر هفتگی دارد
- جنجال بر سر پیشبینی درآمد از روی چهره!
- واکنش تند هالیوود به هوش مصنوعی بایتدنس؛ Seedance 2.0 متهم به سرقت هنری شد
