انقلابی در ارتباطات آیفون؛ iOS 26 با هوش اپل و ترجمه زنده

تاریخ ارسال : 1404/03/20

iOS 26 با هوش اپل و ترجمه زنده

به گزارش سپیدپندار دات کام اپل ابزارهای ترجمه زنده مبتنی بر هوش مصنوعی را در رویداد شب گذشته خود (WWDC 2025) معرفی کرد که مورد استقبال مخاطبان قرار گرفت.

به گزارش سپیدپندار دات کام به نقل از ایسنا، شرکت اپل در رویداد WWDC 2025 در مورد نسخه جدید سیستم عامل گوشیهای خود معروف به iOS 26 حرف های زیادی برای گفتن داشت که قابلیت ترجمه زنده، گل سرسبد خصوصیت های جدید «هوش اپل»(Apple Intelligence) خواهد بود که به نسخه بعدی سیستم عامل آیفون می آید.
به نقل از انگجت، اپل در طول این رویداد سالانه فاش کرد که ترجمه زنده تماس ها و متن ها را با ادغام در برنامه های پیام ها، تلفن و FaceTime اضافه می کند.
ترجمه های زنده توسط مدلهای هوش مصنوعی روی دستگاه عرضه می شوند. وقتی ترجمه ها در حین تماس انجام می شوند، با صدای هوش مصنوعی با صدای بلند صحبت می شوند و همینطور بعنوان زیرنویس ظاهر می شوند.
در متن ها هم پیام ها می توانند به صورت خودکار هنگام تایپ کردن کاربر ترجمه شوند.
لزلی ایکه موتو(Leslie Ikemoto)، مدیر تجربه ورودی اپل تصریح کرد که حتی هنگام برقراری ارتباط با تلفن هوشمند غیر اپل هم سرویس ترجمه زنده در دسترس خواهد بود.
با این وجود، او مشخص نکرد که کدام زبان ها در ترجمه زنده پشتیبانی می شوند، ازاین رو ما منتظر افشای این جزئیات خواهیم بود.
سیستم عامل iPadOS 26 هم ترجمه زنده را به همان سه برنامه اصلی Phone، FaceTime و Messages خواهد آورد.
اپل اشاره نمود که ترجمه خودکار در چت های گروهی در iPad و همینطور پیام های شخص به شخص در دسترس خواهد بود و اگر آیفونی دارید که از خصوصیت های Apple Intelligence پشتیبانی می کند، می توانید از ترجمه زنده با برنامه Messages در watchOS 26 در اپل واچ های سری 9، 10 و Ultra 2 بهره ببرید.
اپل در iOS 11 بعضی از خصوصیت های ترجمه را به «سیری» اضافه کرد، سپس برنامه ترجمه اختصاصی خویش را بعنوان بخشی از iOS 14 راه اندازی نمود. این توانایی ها حالا بعنوان بخشی از مجموعه Apple Intelligence به صورت کامل در سیستم عامل آیفون گنجانده می شوند.


در مورد امکان اضافه شدن ترجمه زنده به ایرپادها هم صحبت هایی مطرح گردیده است، اما دیشب هیچ کس روی صحنه در رابطه با آن صحبت نکرد.
گوگل چند سالی است که ترجمه را در ایربادهای Pixel Buds خود عرضه کرده است، ازاین رو این حوزه ای است که اپل در آن عقب مانده است. این امکان وجود دارد که در پاییز، زمانیکه صحبت های اصلی اپل بیشتر بر روی پیشرفت های سخت افزاری متمرکز است، در رابطه با این مورد بیشتر بشنویم.

این قابلیت که قرار است بخشی از مجموعه بزرگتر "هوش اپل" (Apple Intelligence) باشد، نشان‌دهنده تمرکز قوی اپل بر روی هوش مصنوعی و کاربردهای آن در زندگی روزمره کاربران است.
 

اهمیت «هوش اپل» (Apple Intelligence)

عبارت "هوش اپل" (Apple Intelligence) یک مفهوم جدید است که اپل برای مجموعه‌ای از قابلیت‌های هوش مصنوعی پیشرفته خود معرفی کرده است. این نام‌گذاری نشان می‌دهد که اپل قصد دارد هوش مصنوعی را به صورت عمیق و یکپارچه در تمامی اکوسیستم خود، از جمله سیستم عامل‌ها و برنامه‌ها، پیاده‌سازی کند.
این رویکرد با تمرکز بر پردازش روی دستگاه (on-device processing) انجام می‌شود که به معنای حفظ حریم خصوصی بیشتر و سرعت عمل بالاتر است، زیرا داده‌ها برای پردازش به سرورهای ابری ارسال نمی‌شوند.
 

قابلیت ترجمه زنده (Live Translation)

گستردگی کاربرد: ترجمه زنده نه تنها برای تماس‌های تلفنی و FaceTime بلکه برای پیام‌ها (Messages) نیز فعال خواهد شد. این قابلیت می‌تواند به طور چشمگیری ارتباطات بین‌المللی را تسهیل کند.
نحوه عملکرد: ترجمه صوتی با صدای هوش مصنوعی پخش می‌شود و همزمان زیرنویس آن نیز نمایش داده می‌شود. این رویکرد دوگانه به کاربران کمک می‌کند تا همزمان بشنوند و بخوانند، که درک مطلب را افزایش می‌دهد.
پشتیبانی از دستگاه‌های غیر اپل: تاکید بر در دسترس بودن این سرویس حتی هنگام برقراری ارتباط با تلفن‌های هوشمند غیر اپل، نشان‌دهنده رویکردی بازتر از سوی اپل برای قابلیت‌های ارتباطی خود است. این می‌تواند جذابیت "هوش اپل" را برای طیف وسیع‌تری از کاربران افزایش دهد.
پشتیبانی از زبان‌ها: عدم اعلام زبان‌های پشتیبانی شده در حال حاضر، نکته‌ای است که باید منتظر جزئیات بیشتر آن باشیم. گستردگی زبان‌های پشتیبانی شده نقش کلیدی در موفقیت جهانی این قابلیت خواهد داشت.
 

یکپارچگی با اکوسیستم اپل

iPadOS 26 و watchOS 26: خبر از ارائه ترجمه زنده در iPadOS 26 و watchOS 26 (برای اپل واچ‌های سری 9، 10 و Ultra 2) نشان‌دهنده یکپارچگی عمیق این قابلیت در سراسر اکوسیستم اپل است. این به کاربران اجازه می‌دهد تا تجربه ترجمه زنده را در تمامی دستگاه‌های خود به صورت یکپارچه داشته باشند.
ارتباط با قابلیت‌های قبلی: اشاره به اضافه شدن قابلیت‌های ترجمه به سیری در iOS 11 و سپس برنامه ترجمه اختصاصی در iOS 14، نشان می‌دهد که اپل به تدریج در حال توسعه قابلیت‌های ترجمه خود بوده و اکنون با "هوش اپل" به یکپارچگی کامل‌تر و پیشرفته‌تری رسیده است.
 

رقابت با گوگل و ایرپادها

صحبت در مورد احتمال اضافه شدن ترجمه زنده به ایرپادها و مقایسه آن با Pixel Buds گوگل، نشان می‌دهد که اپل در این زمینه ممکن است کمی از رقبا عقب باشد.
انتظار می‌رود که اپل در رویدادهای آتی، به ویژه آن‌هایی که بر سخت‌افزار تمرکز دارند (معمولاً در پاییز)، اطلاعات بیشتری در مورد قابلیت‌های ایرپادهای خود و احتمالاً افزودن ترجمه زنده به آن‌ها ارائه دهد. این یک حوزه رقابتی مهم برای اپل خواهد بود.
 
معرفی ترجمه زنده به عنوان بخشی از "هوش اپل" در iOS 26 یک گام بزرگ برای اپل در زمینه هوش مصنوعی و بهبود تجربه کاربری است. این قابلیت پتانسیل زیادی برای تغییر نحوه ارتباطات ما دارد و می‌تواند موانع زبانی را به طور چشمگیری کاهش دهد. با این حال، جزئیات بیشتر در مورد زبان‌های پشتیبانی شده و زمان عرضه دقیق این قابلیت‌ها هنوز مشخص نیست و باید منتظر اخبار بعدی از سوی اپل باشیم.

منبع:

موضوع خبر :
  • هوش اپل
  • گوگل
  • هوش مصنوعی
  • اپل
به این مطلب چه امتیازی می دهید؟ 1 2 3 4 5 (1)

نظر شما در مورد انقلابی در ارتباطات آیفون؛ iOS 26 با هوش اپل و ترجمه زنده چیست؟

سوال: