اپل در تحقیقی انتظارات کاربران از عاملهای هوش مصنوعی را بررسی کرد
تیمی از پژوهشگران اپل به بررسی انتظارات کاربران واقعی از عاملهای هوش مصنوعی و نحوه تعامل آنها با این سیستمها پرداختهاند.
در مطالعهای با عنوان Mapping the Design Space of User Experience for Computer Use Agents، آنها دریافتند که با وجود سرمایهگذاریهای گسترده در توسعه و ارزیابی عاملهای هوش مصنوعی، بسیاری از جنبههای تجربه کاربری، از جمله نحوه تعامل کاربران و طراحی رابطها، کمتر مورد توجه قرار گرفته است. این تحقیق در دو مرحله انجام شد: ابتدا پژوهشگران الگوها و ملاحظات اصلی UX عاملهای موجود را شناسایی کردند و سپس با روش عملی Wizard of Oz این الگوها را در تعامل واقعی با کاربران آزمایش و بهینهسازی کردند.
تعامل کاربران با عاملهای هوش مصنوعی
طبق گزارشها، در مرحله نخست، نه عامل دسکتاپ، موبایل و وب شامل Claude Computer Use Tool ،Adept ،OpenAI Operator ،AIlice ،Magentic-UI ،UI-TARS ،Project Mariner ،TaxyAI و AutoGLM بررسی شدند. سپس با همکاری هشت متخصص در حوزه UX و AI، یک طبقهبندی جامع ایجاد شد که شامل چهار دسته اصلی، 21 زیرمجموعه و 55 ویژگی نمونه بود. چهار دسته اصلی عبارت بودند از ورودی کاربران، شفافیت اقدامات عامل، کنترل کاربران و مدل ذهنی و انتظارات، که از نحوه ارائه برنامهها و توانمندیهای عامل تا مدیریت خطاها و امکان دخالت کاربران را پوشش میداد.

در مرحله دوم، 20 کاربر با تجربه قبلی در تعامل با عاملهای هوش مصنوعی، در آزمایش Wizard of Oz شرکت کردند. کاربران از طریق رابط گفتوگو وظایف رزرو تعطیلات یا خرید آنلاین را به عامل واگذار میکردند، در حالی که پژوهشگر در اتاقی دیگر نقش عامل را با کنترل صفحه و کیبورد شبیهسازی میکرد. کاربران میتوانستند دستورهای متنی وارد کرده و با دکمه توقف عملکرد عامل را متوقف کنند. برخی وظایف عمداً با خطا یا تداخل انجام شد تا واکنش کاربران بررسی شود و پژوهشگران رفتار و انتظارات آنها را تحلیل کنند.

نتایج نشان داد کاربران خواهان دیدن عملکرد عاملها هستند، اما نمیخواهند هر مرحله را کنترل کنند. رفتار عامل باید متناسب با نوع فعالیت و آشنایی کاربر با رابط تغییر کند؛ کاربران تازهکار به شفافیت، توضیح مراحل و تأییدیههای موقت نیاز بیشتری دارند، به ویژه زمانی که اقدامات پیامد واقعی دارند مانند خرید یا تغییر اطلاعات حساب. اعتماد کاربران سریعاً در مواجهه با خطاها یا فرضیات پنهان از بین میرود و آنها ترجیح میدهند عامل در شرایط مبهم یا انحراف از برنامه، توقف کرده و برای تأیید اقدام کند.
این مطالعه چارچوبی کاربردی برای توسعهدهندگان اپلیکیشن ارائه میدهد تا عاملهای هوش مصنوعی را به گونهای طراحی کنند که شفاف، قابل اعتماد و هماهنگ با نوع فعالیت و سطح تجربه کاربری کاربران باشد، و تعامل با آن برای کاربران طبیعی و مؤثر باشد.
- کارشناسان هشدار میدهند: استفاده طولانیمدت از هوش مصنوعی میتواند سلامت روان را تحت فشار قرار دهد
- تحقیقات MIT نشان میدهد AI بیش از هوشمندی به قدرت محاسباتی وابسته است
- گوگل قابلیت خلاصهسازی صوتی مبتنی بر جمینای را به Google Docs اضافه کرد
- مایکروسافت رسماً اعلام کرد که قصد دارد وابستگی خود به OpenAI را کاهش دهد
- حرکت مسئلهمحور اصفهان برای تبدیلشدن به قطب هوش مصنوعی کشور
- معاون علمی و فناوری رئیس جمهور: بروکراسی فرسایشی مانع پیشرفت هوش مصنوعی در اصفهان است
- پتانسیل اصفهان برای تبدیل شدن به شهر هوشمند کشور
- آموزش دادن تاکسیهای رباتیک با هوش مصنوعی امنیت دارد؟
- استفاده زیاد از «چتجیپیتی» میتواند به روانپریشی منجر شود!
- پژوهشگر ایمنی آنتروپیک با انتشار نامهای استعفا داد: جهان در خطر است




