Apple vient d'annoncer une série de nouvelles fonctionnalités d'accessibilité à venir sur iPhone, iPad, Mac, Apple Watch et même Apple Vision Pro d'ici la fin de 2025 . Il ne s’agit pas de simples ajustements mineurs, mais d’un véritable bond en avant conçu pour rendre l’ensemble de l’écosystème Apple plus inclusif , en tirant parti du potentiel de l’apprentissage automatique sur l’appareil et des puces Apple Silicon. Des étiquettes d'accessibilité sur l'App Store à un nouveau lecteur dédié à la dyslexie , en passant par les sous-titres en direct sur Apple Watch , les commandes vocales pour les développeurs et même la prise en charge des interfaces neuronales pour les utilisateurs souffrant de handicaps graves, le package est vaste et touche presque tous les aspects de l'expérience utilisateur. Et il le fait avec un niveau d’intégration que seul Apple, pour le meilleur ou pour le pire, peut atteindre. La première nouveauté qui attire l’attention est l’arrivée des étiquettes nutritionnelles d’accessibilité sur l’App Store. Il s'agit d'une nouvelle section dans les cartes d'application qui indique les fonctionnalités d'accessibilité prises en charge , telles que VoiceOver, le contrôle vocal, le contraste élevé, la réduction des mouvements ou le texte volumineux. Ces étiquettes vous permettent de comprendre immédiatement si une application est compatible avec vos besoins avant même de la télécharger. Il s’agit d’une étape importante non seulement pour les utilisateurs, mais aussi pour les développeurs, qui disposent désormais d’un moyen officiel de communiquer leur engagement en matière d’accessibilité .
Une autre nouveauté importante est l'arrivée de la nouvelle application Magnifier sur Mac , déjà connue sur iPhone. En connectant la caméra Mac, ou en utilisant la caméra Continuity de l'iPhone, nous pouvons agrandir du texte, des objets ou des documents papier , ajuster le contraste, les couleurs et même la perspective. Pensez à un cours universitaire où les diapositives du professeur sont reproduites en haute résolution sur votre écran, ou à la transcription d’un livre posé sur votre bureau. Le contenu peut être enregistré et regroupé pour référence ultérieure. La fonction est intégrée au nouveau Accessibility Reader , un système conçu pour aider à la lecture de textes, même en présence de déficiences visuelles ou de dyslexie . Il peut être lancé à partir de n'importe quelle application et est entièrement compatible avec l'ensemble de l'écosystème Apple. Parmi les nouvelles fonctionnalités les plus intéressantes, on trouve Braille Access , une nouvelle application qui transforme l'iPhone, l'iPad, le Mac et l'Apple Vision Pro en preneurs de notes braille complets , compatibles avec la saisie d'écran braille et les appareils externes. Vous pouvez ouvrir des fichiers BRF, prendre des notes ou effectuer des calculs en utilisant le code braille Nemeth , largement utilisé dans les contextes scolaires. La transcription en temps réel des dialogues est disponible directement sur les afficheurs braille , grâce à une forme intégrée de Live Captions. Tout cela rend le système beaucoup plus indépendant et immédiat pour ceux qui utilisent le braille dans la vie quotidienne.
Apple a également pensé aux développeurs à mobilité réduite , en introduisant un mode de programmation avec contrôle vocal dans Xcode . Écrivez du code en utilisant uniquement votre voix, avec l'avantage supplémentaire de pouvoir synchroniser votre vocabulaire personnalisé sur tous vos appareils . Pour les personnes souffrant de graves difficultés motrices, de nouvelles options de contrôle via les mouvements des yeux ou de la tête arrivent , ainsi que la prise en charge d'un nouveau protocole pour les interfaces neuronales (BCI) . Cela ouvre la porte à un avenir où vous pourrez utiliser un iPhone ou un iPad sans lever le petit doigt .
Apple a étendu et amélioré de nombreuses fonctionnalités existantes, avec des mises à jour qui améliorent la convivialité du son, la gestion des mouvements et la personnalisation de l'expérience . Sur Apple Watch , par exemple, les Live Captions arrivent en temps réel : si l'iPhone capture une conversation avec Live Listen actif, les sous-titres apparaissent directement sur la montre. Vous pouvez contrôler la session à distance , sans avoir à toucher votre iPhone, ce qui est utile dans des situations comme des cours ou des réunions. La fonction Voix personnelle , conçue pour les personnes risquant de perdre la capacité de parler, est désormais plus rapide et plus réaliste . Il suffit de 10 phrases enregistrées pour créer une voix synthétisée personnelle qui semble beaucoup plus naturelle que jamais. Apple a également amélioré Music Haptics sur iPhone, qui vous permet d'écouter de la musique avec des vibrations personnalisables , utiles pour les utilisateurs sourds. Vous pouvez choisir d'entendre uniquement la voix, la chanson entière et modifier l'intensité des impulsions.
D'autres nouvelles fonctionnalités incluent :
- Sons de fond avec de nouveaux préréglages et automatisations via des commandes rapides
- Indices de mouvement du véhicule pour réduire le mal des transports sur Mac
- Reconnaissance du nom pour savoir si quelqu'un nous appelle, utile pour les personnes sourdes ou malentendantes
- CarPlay avec reconnaissance de texte et de sons de grande taille comme les klaxons, les sirènes ou les pleurs de bébé
Enfin, vous pouvez désormais partager temporairement les paramètres d’accessibilité entre deux appareils Apple. Utile pour utiliser un iPhone emprunté ou un terminal public, en gardant vos préférences actives aussi longtemps que nécessaire. (
Lire la suite)