Google Traduction lance un outil de prononciation par IA pour son 20e anniversaire

Google a introduit une nouvelle fonctionnalité d'entraînement à la prononciation basée sur l'IA pour son application Traduction sur Android, afin de marquer le 20e anniversaire du service. L'outil fournit un retour en temps réel sur la parole pour les utilisateurs pratiquant l'anglais, l'espagnol et l'hindi aux États-Unis et en Inde. Il analyse la prononciation et propose des conseils sur les sons, l'accentuation et l'articulation.

Google Traduction, qui compte plus d'un milliard d'utilisateurs mensuels et traite des milliers de milliards de mots traduits chaque mois, a déployé cette fonctionnalité de prononciation lundi. Les utilisateurs peuvent y accéder via un bouton "Pratique" dans l'application, en choisissant de prononcer des phrases traduites ou d'écouter des locuteurs natifs. L'IA évalue ensuite la tentative et fournit des commentaires spécifiques, tels que des transcriptions phonétiques — par exemple, en corrigeant le mot espagnol "jugo" pour passer d'un son "j" anglais à "HU-go" avec la prononciation espagnole correcte. Google a précisé que cette fonctionnalité s'appuie sur des outils existants comme "demander" et "comprendre" pour l'apprentissage des langues, et qu'environ un tiers des utilisateurs mobiles utilisent déjà Traduction pour pratiquer leur expression orale, de nombreuses sessions dépassant les cinq minutes. Le service prend en charge plus de 250 langues, couvrant près de 95 % de la population mondiale, et reste populaire pour des paires de langues comme l'anglais vers l'espagnol, l'indonésien, le portugais, l'arabe et le turc. Les traductions courantes concernent des expressions de gratitude, de lien et d'affection. La fonctionnalité n'est actuellement disponible que sur Android aux États-Unis et en Inde, comme l'a d'abord rapporté CNET.

Articles connexes

Smartphone screen showing Spotify's new AI-powered prompted podcast playlists feature, with a custom user prompt and generated playlist.
Image générée par IA

Spotify launches AI-powered prompted playlists for podcasts

Rapporté par l'IA Image générée par IA

Spotify has rolled out an AI feature that generates personalized podcast playlists based on user prompts. The update, available now to premium subscribers in select countries, builds on a similar tool previously introduced for music. It aims to help listeners discover new shows and revisit older episodes.

Google has integrated its Lyria 3 AI model into the Gemini app, enabling users to create 30-second music tracks from simple prompts. The feature, which also generates lyrics and album art, is rolling out today with safeguards like watermarking to identify AI content. It expands Gemini's capabilities beyond text, images, and video.

Rapporté par l'IA

Amazon has updated its mobile app's 'Hear the Highlights' feature, allowing users to ask questions to AI-generated shopping experts. The enhancement builds on audio summaries introduced last year for millions of products. It is now available to US customers on iOS and Android.

YouTube is expanding its Gemini-powered 'Ask' feature to smart TVs, gaming consoles, and streaming devices as an experiment for a small group of users. The tool allows viewers to interact with video content through prompts or voice questions. Google announced the rollout via a support page spotted by 9to5Google.

Rapporté par l'IA

Google is overhauling its Workspace apps by integrating deeper Gemini AI capabilities to assist in document creation and editing. The updates allow Gemini to pull context from emails, files, and other sources to generate drafts and refine content. These features aim to streamline workflows for users across Docs, Sheets, Slides, and Drive.

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser