La firme de Cupertino a présenté plusieurs évolutions dans le domaine de l'accessibilité. Ces annonces arrivent quelques semaines avant la WWDC, prévue du 9 au 13 juin, où elles devraient être détaillées plus en détails. Déployées d’ici la fin de l’année, les fonctionnalités visent à renforcer l’inclusion numérique des personnes en situation de handicap, avec des outils adaptés aux besoins moteurs, visuels, auditifs ou cognitifs. « Chez Apple, l’accessibilité fait partie de notre ADN », souligne Tim Cook, CEO de l’entreprise. Parmi les solutions proposées figurent un lecteur d’écran amélioré, une loupe accessible sur Mac, des outils intégrés pour le braille, ou encore des commandes vocales adaptées à la programmation.
Des outils pour améliorer l'expérience utilisateur
Parmi les évolutions figure l’introduction des « Accessibility Nutrition Labels » sur l’App Store. Ces étiquettes afficheront, directement sur les fiches des applications, les fonctionnalités d’accessibilité proposées : VoiceOver (lecture d'écran), contrôle vocal, taille de texte, sous-titres, contraste suffisant, etc. L'objectif est de donner aux utilisateurs la possibilité de savoir si une application est accessible pour eux avant de la télécharger, tout en offrant aux développeurs une opportunité d'informer et de sensibiliser davantage leurs utilisateurs sur les fonctionnalités accessibles proposées. Ces étiquettes seront disponibles dans le monde entier sur l'App Store.
L'application Loupe, initialement disponible uniquement sur iPhone, est désormais accessible sur Mac. Elle utilise l'appareil photo de l’iPhone ou une caméra USB pour zoomer sur des documents et objets, avec des options pour ajuster la luminosité, le contraste et la perspective. De plus, un mode de lecture, baptisé Accessibility Reader, formate les textes de manière lisible pour les personnes malvoyantes ou dyslexiques. Par ailleurs, une expérience braille complète arrive sur iPhone, iPad, Mac et Vision Pro via l'application Braille Access. Elle favorise la prise de notes en braille, la lecture de fichiers BRF, des calculs en Nemeth, ainsi que l’accès aux applications par saisie braille. Elle intègre également des sous-titres en direct, affichés sur les afficheurs braille, renforçant l’autonomie de lecture en temps réel.
Avec Braille Access, les utilisateurs peuvent prendre des notes en braille et effectuer des calculs en Nemeth Braille, utilisé pour les mathématiques et les sciences.(Crédit photo: Apple)
Sous-titres en temps réel sur l'Apple Watch
La fonctionnalité Live Captions offre désormais la possibilité d’afficher sur l’Apple Watch les sous-titres en temps réel des conversations captées par l’iPhone. Basée sur Live Listen, elle offre la possibilité de suivre une discussion à distance, en plaçant par exemple l’iPhone près d’un interlocuteur. Les utilisateurs peuvent lancer, interrompre ou reprendre une session depuis leur montre. Cette fonction peut s’avérer utile pour les personnes malentendantes, ou celles qui retiennent mieux les informations écrites. Elle est compatible avec Assistive Touch, facilitant la navigation sans contact direct avec l’écran.
Évolutions d'accessibilité sur visionOS
Le casque Vision Pro bénéficiera de fonctionnalités d'accessibilité visuelle grâce à une mise à jour de visionOS. Avec de puissantes mises à jour de zoom, les utilisateurs peuvent agrandir tout ce qui est en vue, y compris leur environnement, à l'aide de la caméra principale. Pour les utilisateurs de VoiceOver, la reconnaissance en temps réel, alimentée par l'apprentissage automatique sur le terminal, pourra décrire l'environnement, identifier des objets, lire des documents, et plus encore. Une API, destinée aux développeurs d'accessibilité, proposera à des applications comme Be My Eyes d'utiliser la caméra principale pour fournir une assistance visuelle en mode mains libres.
Des améliorations sont par ailleurs apportées à des fonctions existantes. Personal Voice peut désormais générer une voix personnalisée en moins d’une minute à partir de dix phrases, là où il faut près de quinze minutes aujourd'hui pour obtenir une voix synthétisée ressemblante à sa propre voix. La reconnaissance sonore a également été améliorée, de sorte que les utilisateurs soient alertés lorsque leur nom est appelé.