Apple onthult eerste iOS 17 functies met betrekking tot toegankelijkheid
Apple heeft de eerste nieuwe functies voor iOS 17, iPadOS 17 en aankomende macOS-update onthuld. In een persbericht deelt Apple nieuwe softwarefeatures voor cognitieve toegankelijkheid en toegankelijkheid op het gebied van zien, horen en mobiliteit.
Ook zijn er nieuwe innovatieve tools voor mensen die niet kunnen praten of hun spraakvermogen dreigen te verliezen. Deze updates sluiten aan op het streven van Apple om producten te maken die geschikt zijn voor iedereen.
Toegankelijkheidsfunctie 2023
Later dit jaar verschijnt Assistive Access, een feature die zorgt dat gebruikers met cognitieve beperkingen iPhone en iPad makkelijker en zelfstandiger kunnen gebruiken. Mensen die niet kunnen praten, kunnen met Live Speech (telefoon)gesprekken voeren door te typen, en gebruikers die hun spraak dreigen te verliezen kunnen met Personal Voice een synthetische stem aanmaken die lijkt op hun eigen stem en daarmee gesprekken voeren met familie en vrienden.
Voor blinde en slechtziende gebruikers wordt in de detectiemodus in Vergrootglas de feature Point and Speak toegevoegd. Hiermee kunnen gebruikers tekst aanwijzen en laten voorlezen. Dat vereenvoudigt de interactie met fysieke voorwerpen, waaronder huishoudelijke apparaten.
Assistive Access
Assistive Access biedt een aangepaste gebruikerservaring voor Telefoon en FaceTime, die worden gecombineerd tot één Calls-app, en voor Berichten, Camera, Foto’s en Muziek. De feature heeft een duidelijke en vereenvoudigde interface, met prominente knoppen met een hoog contrast en grote tekstlabels.
De functie bevat tools waarmee zorgverleners de gebruikerservaring kunnen aanpassen aan de wensen van de gebruiker. Voor gebruikers die graag visueel communiceren, bevat Berichten bijvoorbeeld een toetsenbord met alleen emoji. Ook kan er een videobericht worden opgenomen dat naar familie en vrienden kan worden gestuurd.
Gebruikers en zorgverleners kunnen voor het beginscherm en apps een visueel raster instellen, of een indeling met rijen waarin de tekst meer opvalt. Zo kunnen de apps snel geraadpleegd worden.
Bij de ontwikkeling van deze feature is gebruikgemaakt van feedback van gebruikers met cognitieve beperkingen en hun zorgverleners. Daarbij werd gefocust op hun favoriete activiteiten, die ook centraal staan bij het gebruik van iPhone en iPad: communiceren met vrienden en familie, foto’s maken en bekijken en luisteren naar muziek.
Live Speech
Met Live Speech op iPhone, iPad en Mac kunnen gebruikers typen wat ze hardop willen laten uitspreken. Dat kan tijdens telefoon- en FaceTime-gesprekken, maar ook tijdens een persoonlijk gesprek.
Daarnaast biedt Apple de mogelijkheid om zinnen of zinsdelen te bewaren die je vaak gebruikt, zodat gebruikers eenvoudig gesprekken kunnen voeren met familie, vrienden en collega’s. Live Speech is ontwikkeld om miljoenen mensen wereldwijd te ondersteunen die niet (meer) of goed kunnen praten.
Personal Voice
Voor gebruikers die hun spraakvermogen dreigen te verliezen, bijvoorbeeld na de diagnose ALS (amyotrofe laterale sclerose) of bij andere aandoeningen die de spraak beïnvloeden, is Personal Voice een makkelijke en veilige manier om een stem aan te maken die bij ze past.
Gebruikers kunnen een Personal Voice aanmaken door een willekeurige serie teksten voor te lezen. Op die manier wordt 15 minuten aan geluid opgenomen op iPhone of iPad. Dankzij machinelearning op het device blijft de gebruikersinformatie privé en veilig, en de feature werkt naadloos samen met Live Speech, zodat gebruikers hun Personal Voice kunnen gebruiken bij gesprekken met vrienden en familie.
Personal Voice kan worden aangemaakt op iPhone, iPad en Mac met Apple silicon, en wordt voorlopig alleen beschikbaar gesteld in het Engels.
Detectiemodus in Vergrootglas
Met behulp van Point and Speak in Vergrootglas kunnen mensen met een visuele beperking makkelijker voorwerpen met meerdere tekstlabels gebruiken. Om bijvoorbeeld een huishoudelijk apparaat zoals een magnetron te bedienen, combineert Point and Speak input van de camera, de LiDAR-scanner en machinelearning op het device om de tekst bij elke knop voor te lezen, terwijl gebruikers daar met hun vingers langsgaan.
Point and Speak is ingebouwd in Vergrootglas op iPhone en iPad, en werkt samen met VoiceOver. In combinatie met andere features van Vergrootglas, zoals de detectie van personen, deurdetectie en beschrijvingen van afbeeldingen, kunnen gebruikers hiermee makkelijker door hun fysieke omgeving navigeren.
Point and Speak wordt beschikbaar gesteld in het Engels, Frans, Italiaans, Duits, Spaans, Portugees, Chinees, Kantonees, Koreaans, Japans en Oekraïens op iPhone en iPad met LiDAR-scanner.
Andere nieuwe features
- Dove of slechthorende gebruikers kunnen Made for iPhone-gehoorapparaten rechtstreeks koppelen met hun Mac en aanpassen voor meer hoorcomfort. (Bepaalde Mac-modellen met M1-chip en alle Mac-modellen met M2-chip.)
- Aan Stembediening worden fonetische suggesties voor tekstbewerking toegevoegd, zodat gebruikers die met hun stem typen de juiste optie kunnen kiezen uit woorden met dezelfde klank, zoals de Engelse woorden ‘do’, ‘due’ en ‘dew’. Bovendien kunnen gebruikers met Voice Control Guide tips en trucs ontdekken om spraakopdrachten te gebruiken als alternatief voor aanraken en typen op iPhone, iPad en Mac.
- Gebruikers met fysieke en motorische beperkingen die Schakelbediening gebruiken, kunnen van elke schakelaar een virtuele gamecontroller maken waarmee ze kunnen gamen op iPhone en iPad.
- Slechtzienden kunnen Tekstgrootte voortaan makkelijker aanpassen in Mac-apps zoals de Finder, Berichten, Mail, Agenda en Notities.
- Gebruikers die gevoelig zijn voor snelle animaties, kunnen automatisch beelden met bewegende elementen stopzetten, zoals gif-animaties in Berichten en Safari.
- Voor gebruikers van VoiceOver klinken de stemmen van Siri ook natuurlijk en expressief bij snel afspelen. Gebruikers kunnen de spreeksnelheid van Siri aanpassen van 0,8x tot 2x.
Auteur | Wesley Fabry | |
Bijgewerkt | 13/06/2023 10:04 | |
Bron | apple.com | |
Categorie | Handleiding, Nieuws | |
Reacties
Jazeker, de meeste functies zijn ook beschikbaar op de iPad Pro met iPadOS 17. Hierbij werken wel niet alle functie, zo is detectiemodus met wijzen alleen beschikbaar op iPhone en iPad modellen met LiDAR-scanner.
Zijn deze functies ook beschikbaar voor de iPad Pro?