Apple détaille les nouvelles fonctionnalités de l’iPhone comme la détection de porte et les annotations en direct

La Journée mondiale de sensibilisation à l’accessibilité est jeudi, alors Apple l’a lancée Blog de la salle de presse Cette semaine pour annoncer plusieurs nouvelles fonctionnalités d’accessibilité majeures pour l’iPhone, l’Apple Watch, l’iPad et le Mac.

La fonctionnalité Live Captions sera probablement la plus utilisée, qui sera disponible sur iPhone, Mac et iPad. La fonctionnalité affiche les sous-titres AI qui sont mis à jour en direct pour la parole provenant de n’importe quelle source audio sur le téléphone, que l’utilisateur soit « sur un téléphone ou un appel FaceTime, utilise une vidéoconférence ou une application de médias sociaux, diffuse du contenu multimédia ou ait une conversation avec quelqu’un à côté d’eux.

READ  Editor's Desk : Est-il temps de louer des iPhones ?

Le texte (que les utilisateurs peuvent redimensionner à leur guise) apparaît en haut de l’écran et pointe pendant que le sujet parle. De plus, les utilisateurs de Mac pourront taper des réponses et les faire lire à haute voix à d’autres lors de l’appel. Live Captions entrera en version bêta publique sur les appareils pris en charge (« iPhone 11 et versions ultérieures, modèles d’iPad avec puce A12 Bionic et versions ultérieures, et Mac avec silicium Apple ») plus tard cette année.

Il y a aussi une fonction de détection de porte. Malheureusement, cela ne fonctionnera que sur les iPhones et iPads avec un capteur lidar (comme l’iPhone 12 Pro, l’iPhone 13 Pro ou les modèles récents d’iPad Pro), mais cela semble utile pour les personnes aveugles ou malvoyantes. Il utilise l’appareil photo et les capteurs de réalité augmentée de l’iPhone, ainsi que l’apprentissage automatique, pour localiser les portes et dire à haute voix aux utilisateurs où se trouve la porte, si elle est ouverte ou fermée, comment elle peut être ouverte et ce qu’elle pourrait être pour l’écriture ou les autocollants.

La détection de porte rejoindra la découverte de personnes et de descriptions de photos dans le nouveau « Mode de détection » pour les utilisateurs aveugles et malvoyants dans iOS et iPadOS. Cependant, le blog d’Apple n’a pas mentionné quand cette fonctionnalité sera lancée.

D’autres ajouts d’accessibilité qui, selon Apple, sont très proches incluent 20 nouvelles langues Voice Over, de nouveaux gestes de la main sur l’Apple Watch et une fonctionnalité qui permet aux joueurs de prendre l’aide d’un « ami » avec une autre console de jeu sans se déconnecter d’eux. De plus, il existe de nouvelles personnalisations Siri et Apple Books qui visent à étendre l’accessibilité pour les personnes handicapées, les personnalisations de la reconnaissance vocale et la mise en miroir de l’écran Apple Watch sur l’iPhone – ce qui permet aux utilisateurs de Watch d’accéder à de nombreuses fonctionnalités d’accessibilité disponibles sur le iPhone mais pas sur la montre. .

READ  Le remaster de Blade Runner, critiqué par la critique, inclut désormais une version remasterisée sur Steam

Les passionnés de technologie déplorent souvent que les smartphones (et la technologie personnelle en général) soient devenus stagnants, sans beaucoup de nouveaux développements passionnants. Mais c’est loin d’être vrai pour de nombreuses personnes handicapées. Google, Apple et de nombreux chercheurs et startups ont fait des percées majeures, apportant de nouvelles fonctionnalités d’accès puissantes aux appareils mobiles.

Liste d’images par Pomme

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *