Apple dévoile " Personal Voice " sur iPhone : à quoi ça sert ?

May 16, 2023
415 views

Apple a annoncé de nouvelles fonctionnalités logicielles pour améliorer l'accessibilité cognitive, visuelle, auditive et motrice, destinées aux individus non parlants ou risquant de perdre leur capacité à parler. Parmi ces nouveautés, il y a Personal Voice.

Dans le monde de l’innovation technologique, Apple n’a jamais été en reste. Cette fois, la firme à la pomme a décidé de donner à l’iPhone une nouvelle dimension d’accessibilité et de personnalisation avec Personal Voice, une fonctionnalité étonnante qui permet à votre téléphone de « parler » avec votre propre voix. Oui, vous avez bien lu. Si vous avez toujours voulu savoir ce que ça fait d’entendre Siri vous répondre avec votre propre voix, vous allez être servis.

Qu’est-ce que Personal Voice ?

Personal Voice, c’est le nom de cette nouvelle fonctionnalité qui, grâce à la magie de la synthèse vocale, permet de créer une voix qui ressemble de manière troublante à la vôtre. Le processus est simple : après environ 15 minutes de formation où vous lirez une série de phrases sur votre iPhone ou iPad, la voix synthétisée sera prête à prendre le relais. Cette fonctionnalité permet aux utilisateurs, tels que ceux atteints de sclérose latérale amyotrophique (SLA), de créer une voix synthétisée qui leur ressemble.

Grâce à l’intégration de cette fonctionnalité avec Live Speech, votre appareil sera capable de lire n’importe quel texte avec la voix avec laquelle il a été formé. Cela permet aux utilisateurs de taper ce qu’ils souhaitent dire pour que cela soit prononcé à haute voix lors d’appels téléphoniques ou de conversations en personne.

De l’intelligence artificielle directement dans l’iPhone

Et Apple nous assure que le tout se fait avec un système d’apprentissage automatique (machine learning) sur l’appareil lui-même, sans connexion au cloud, assurant ainsi la confidentialité et la sécurité des utilisateurs. Toutefois, il convient de noter que la fonctionnalité Personal Voice d’Apple ne sera pour le moment disponible qu’en anglais.

Cela dit, il est probable qu’Apple travaille déjà à l’extension de cette fonctionnalité à d’autres langues. Après tout, le but ultime de ces avancées technologiques est d’améliorer l’accessibilité et l’expérience utilisateur pour tous, quelles que soient leur langue ou leur région du monde.

Apple n’est pas l’unique acteur sur le terrain

La capacité de synthétiser des voix s’est considérablement améliorée grâce aux avancées de l’intelligence artificielle. Il est désormais possible de créer des voix synthétiques qui imitent non seulement le ton et le timbre d’une voix humaine spécifique, mais aussi les inflexions et les nuances qui la rendent unique.

Cela est possible grâce à des algorithmes d’apprentissage profond, qui analysent des heures d’enregistrements vocaux pour comprendre les particularités de la voix d’une personne. Ils sont ensuite capables de générer du son qui imite ces particularités, créant une voix synthétique étonnamment réaliste.

L’accessibilité un peu partout

Et Apple n’est pas le seul acteur dans le domaine. Google, par exemple, a récemment présenté une technologie qui va encore plus loin. Non seulement cette technologie est capable de doubler une vidéo en traduisant le texte et en imitant le ton de la voix, mais elle peut aussi reproduire les mimiques faciales de la personne parlante, y compris la synchronisation labiale. Cela signifie que si vous regardez une vidéo doublée avec cette technologie, vous aurez l’impression que la personne à l’écran parle réellement dans la langue de doublage.

Mais attendez, ce n’est pas tout. En plus de Personal Voice, Apple a introduit une série de nouvelles fonctionnalités d’accessibilité. Par exemple, des expériences personnalisées sont proposées pour les principales applications de l’iPhone et de l’iPad, y compris des versions spéciales de Messages, Appareil photo, Photos et Musique. Cette nouveauté est Assistive Access, qui aide les utilisateurs ayant des troubles cognitifs à utiliser leur iPhone ou iPad plus facilement et de manière plus autonome. Elle simplifie l’interface des applications, réduisant la charge cognitive pour l’utilisateur.

Pour les utilisateurs ayant une vision réduite ou étant aveugles, Apple a introduit le mode Detection dans son application Magnifier. Cette fonctionnalité, appelée Point and Speak, identifie et lit à haute voix le texte vers lequel l’utilisateur pointe, facilitant ainsi l’interaction avec des objets physiques tels que les appareils ménagers.

Et pour les utilisateurs de Mac, une nouvelle fonctionnalité permet d’ajuster la taille de la police dans le Finder macOS et dans des applications comme Messages, Mail, Calendrier et Notes. Il est également possible de mettre en pause les animations GIF lors de la navigation avec Safari ou lors de l’utilisation de Messages, ainsi que de régler la vitesse à laquelle Siri parle.

La newsletter Watt Else est LE rendez-vous immanquable de Numerama dédié à la mobilité du futur. Inscrivez-vous par ici !

Source: Frandroid