Apple présente de nouveaux outils d’accessibilité, notamment Live Speech et Assistive Access

Apple présente de nouveaux outils d'accessibilité, notamment Live Speech et Assistive Access

Avant sa conférence mondiale des développeurs prévue en juin, Apple présente un certain nombre de nouveaux outils et fonctionnalités d’accessibilité.

La société ne dirait pas exactement quand ces nouveaux outils seront disponibles, sauf pour dire qu’ils seront disponibles plus tard cette année. Étant donné qu’Apple dévoile généralement de nouvelles versions de ses systèmes d’exploitation à la WWDC, il est raisonnable de supposer qu’au moins certaines de ces nouvelles fonctionnalités arriveront avec les prochains iOS 17 et iPadOS 17.

« Aujourd’hui, nous sommes ravis de partager de nouvelles fonctionnalités incroyables qui s’appuient sur notre longue histoire de rendre la technologie accessible afin que chacun ait la possibilité de créer, de se connecter et de faire ce qu’il aime », a déclaré le directeur général d’Apple, Tim Cook, dans un communiqué.

VOIR AUSSI : Apple a peut-être divulgué le nom de son système d’exploitation de réalité mixte

Les nouveaux outils incluent Assistive Access, qui prend certaines des applications essentielles d’Apple et simplifie leur expérience afin qu’elles soient plus accessibles aux personnes ayant des troubles cognitifs. Par exemple, Phone et FaceTime sont combinés dans une seule application d’appels, ainsi que des expériences personnalisées pour les messages, l’appareil photo, les photos et la musique.

L’accès assisté d’Apple distille certaines des applications et expériences d’Apple jusqu’à leurs fonctionnalités essentielles.Crédit : Pomme

Live Speech est une autre nouvelle fonctionnalité pour iPhone, iPad et Mac qui permet aux utilisateurs de saisir ce qu’ils veulent dire et de le faire livrer pendant les appels téléphoniques et FaceTime ainsi que les conversations en face à face.

Personal Voice permet aux personnes risquant de perdre la capacité de parler de créer des voix qui leur ressemblent.

La fonction Live Speech d’Apple est conçue pour aider les personnes qui ont du mal à parler.Crédit : Pomme

Le mode de détection est une nouvelle fonctionnalité de loupe qui permet aux utilisateurs aveugles ou malvoyants de pointer vers un objet physique avec plusieurs étiquettes de texte et de se faire lire chaque étiquette à voix haute lorsqu’ils déplacent leur doigt sur les différentes étiquettes.

Le contrôle vocal ajoute des suggestions vocales à l’édition de texte, ce qui permet aux utilisateurs utilisant la saisie vocale de choisir plus facilement le bon mot parmi plusieurs qui semblent similaires.

Vidéos recommandées pour vous

La technologie expérimentale peut traduire les mouvements de la langue en parole sans parler – Future Blink

Apple a également annoncé plusieurs autres fonctionnalités, notamment la possibilité de mettre automatiquement en pause les images avec des éléments en mouvement, et des améliorations de la voix de Siri, notamment la possibilité de personnaliser la vitesse à laquelle Siri parle. Pour une liste complète des nouvelles fonctionnalités, consultez l’annonce d’Apple (s’ouvre dans un nouvel onglet).