Google a annoncé jeudi que « Live Translate », sa fonctionnalité Google Translate basée sur l’IA qui vous permet d’entendre des traductions en temps réel dans vos écouteurs, s’étendait à iOS et à davantage de pays.
Avec cette extension, la fonctionnalité est désormais disponible sur iOS et Android aux États-Unis, en Inde, au Mexique, en Allemagne, en Espagne, en France, au Nigéria, en Italie, au Royaume-Uni, au Japon, au Bangladesh et en Thaïlande. Auparavant, il n’était disponible sur Android qu’aux États-Unis, en Inde et au Mexique.
Cette fonctionnalité transforme essentiellement n’importe quelle paire d’écouteurs en un appareil de traduction unidirectionnel en temps réel. L’expérience de traduction avec casque en temps réel, qui exploite l’IA Gemini de Google, préserve le ton, l’accent et la cadence de chaque locuteur. Cela permet de suivre plus facilement la conversation et de savoir qui dit quoi, explique Google.
Le géant de la technologie suggère que les gens peuvent utiliser cette fonctionnalité pour faire des choses comme suivre des conversations à l’heure du dîner avec des proches qui parlent une autre langue, ou comprendre les annonces de train lors d’un voyage dans un autre pays.
La fonctionnalité fonctionne avec n’importe quelle paire d’écouteurs et prend en charge plus de 70 langues.
Les utilisateurs peuvent y accéder en ouvrant l’application Google Translate, en appuyant sur l’option « Live Translate », puis en connectant leurs écouteurs.
L’extension Live Translate intervient le jour même où Google a annoncé qu’il étendait sa fonction de recherche conversationnelle basée sur l’IA, Search Live, à l’échelle mondiale à toutes les langues et à tous les emplacements où le mode AI est disponible. Avec cette extension, les utilisateurs de plus de 200 pays et territoires auront accès à cette fonctionnalité, qui n’était auparavant disponible qu’aux États-Unis et en Inde.
Événement Techcrunch
San Francisco, Californie
|
13-15 octobre 2026
Search Live, lancé en juillet 2025, permet aux utilisateurs de pointer la caméra de leur téléphone vers des objets pour obtenir une assistance en temps réel, permettant ainsi des conversations aller-retour qui s’appuient sur le contexte visuel du flux de la caméra. Pour utiliser cette fonctionnalité, les utilisateurs doivent ouvrir l’application Google sur Android ou iOS et appuyer sur l’icône En direct sous la barre de recherche.

