- اسکوچیچ از تراکتور جدا شد
- تبریک سخنگوی وزارت خارجه به مناسبت انتخابات پارلمانی در بنگلادش
- دیدار وزیر کشور با سفیر امارات
- پاسخ رئیسجمهور به پرسشهای شمسالواعظین، عبدالکریمی و جلائیپور
- سردار تنگسیری: اشراف ۲۴ ساعته بر تنگه هرمز داریم
- سقف تسهیلات ازدواج و فرزندآوری در بودجه ۱۴۰۵ به ۴۷۵ همت رسید
- دعوت ستادکل نیروهای مسلح ازمردم برای حضور در گرامیداشت شهدای فتنه اخیر
- جشن بهار یادآور پیوندهای دیرینه فرهنگی دو تمدن کهن ایران و چین است
- ماجرای مشکوک زمینلرزههای پی در پی در عسلویه چیست؟
- جزئیات آتشسوزی گسترده در حوالی پالایشگاه نیک گاز تبریز / ماجرا چیست؟
هوش مصنوعی Eleven v3 معرفی شد؛ تولید طبیعیترین صدا برای انتقال احساسات [تماشا کنید]
شرکت Elevenlabs جدیدترین مدل تبدیل متن به گفتار خود را با نام Eleven v3 (Alpha) معرفی کرده است که تمرکز اصلی آن بر تولید صداهای مصنوعی با بیان احساسات طبیعیتر و واقعیتر است. این مدل از فارسی هم پشتیبانی میکند.
این مدل توانایی بازسازی طبیعیتر احساسات متنوعی مانند نجوا، خنده، آهکشیدن و واکنشهای هیجانی را نسبت به نسخههای قبلی دارد. هدف اصلی Elevenlabs در این نسخه برطرفکردن مشکل انتقال احساسات در صداهای مصنوعی بوده است؛ زیرا پیشتر فقط کیفیت صدا اهمیت داشت اما اکنون با بازطراحی کامل، این مدل میتواند صداهایی با احساسات واقعیتر و واکنشهای طبیعیتر تولید کند.
قابلیتهای مدل هوش مصنوعی Eleven v3
یکی از ویژگیهای برجسته Eleven v3 پشتیبانی از بیش از 70 زبان ازجمله فارسی همچنین امکان اجرای طبیعی و روان گفتگوهای چندنفره است. کاربران میتوانند از طریق API جدید متنهای ساختاریافته را که شامل نوبت هر گوینده میشود، به مدل ارسال کنند و مدل خودکار مدیریت تغییر نوبت گوینده، تحولات احساسی و حتی قطع کلامها را بر عهده میگیرد. این قابلیت برای تولید دیالوگهای چندصدایی بسیار کاربردی است و امکان تولید گفتگوهای پیچیده و طبیعی را فراهم میکند.
کنترل شیوه بیان صداها از طریق برچسبهای صوتی درون متن نیز از دیگر امکانات مهم Eleven v3 است. این برچسبها که در قالب کروشههای کوچک و حروف کوچک نوشته میشوند، مانند [sighs] (آه کشیدن)، [excited] (هیجانزده) یا [whispers] (نجواکردن)، به کاربران اجازه میدهند احساسات مختلف و لحن گفتار را مستقیم تنظیم کنند. حتی میتوان چندین برچسب را کنار هم قرار داد تا بیان دقیقتر و ظریفتری ایجاد شود؛ مثلاً We did it! [happily][shouts][laughs] («ما موفق شدیم! [شادی][فریاد][خنده]»).
به گفته شرکت Elevenlabs، این مدل بیشتر برای کاربردهای حرفهای مانند تولید فیلم، کتاب صوتی و رسانههای دیجیتال طراحی شده است و نسخه نهایی API عمومی آن بهزودی عرضه خواهد شد. هماکنون Eleven v3 روی وبسایت شرکت در دسترس است و تا پایان ژوئن (خرداد) 80 درصد تخفیف برای استفاده از اپلیکیشن ارائه میشود. بااینحال، برای کاربردهای بلادرنگ یا گفتگوهای زنده، مدلهای v2.5 Turbo یا Flash همچنان توصیه میشوند؛ زیرا نسخه فعلی v3 برای این موارد بهینه نشده و نسخه بلادرنگ آن در دست توسعه است.
همچنین کلونهای صوتی حرفهای (Professional Voice Clones) فعلاً با این نسخه سازگاری کامل ندارند و نسبت به نسخههای قبلی کیفیت کمتری ارائه میدهند؛ بنابراین برای پروژههایی که به ویژگیهای بیانی جدید نیاز دارند، استفاده از کلونهای صوتی آنی (Instant Voice Clones) یا صداهای ساختهشده پیشنهاد میشود.
- هشدار محققان: باتها در شبکههای اجتماعی میتوانند افکار عمومی را فریب دهند
- عقبنشینی بایتدنس در پی اعتراض هالیوود؛ هوش مصنوعی Seedance 2.0 محدود میشود
- مدیرعامل گوگل و OpenAI برای شرکت در اجلاس هوش مصنوعی به هند میروند
- تنش میان پنتاگون و آنتروپیک بر سر استفاده نظامی از هوش مصنوعی بالا گرفت
- تحول طراحی مدار الکترونیکی با هوش مصنوعی جدید در ۲۰۲۶
- نتیجه عجیب آزمایش شبیهسازی فروشندگی: ایجنت هوش مصنوعی Claude کارتل تشکیل داد
- ماجرای فشار «پنتاگون» به شرکتهای هوش مصنوعی چیست؟
- «چتجیپیتی» در هند ۱۰۰ میلیون کاربر هفتگی دارد
- جنجال بر سر پیشبینی درآمد از روی چهره!
- واکنش تند هالیوود به هوش مصنوعی بایتدنس؛ Seedance 2.0 متهم به سرقت هنری شد
