Apple hat sich eine neue Funktion zur Unterstützung für die Menschen mit einer Behinderung einfallen lassen: Wenn das iPhone spricht, erklingt die Stimme seines Benutzers. Damit nicht genug, Apple will in den nächsten Monaten seine iPhones und iPads mit weiteren nützlichen Funktionen ausstatten. Damit soll das Leben der Menschen mit einer kognitiven oder körperlichen Beeinträchtigung erleichtert werden.
Ein gutes Beispiel
Bereits seit Jahren wollen die großen Technikunternehmen Geräte auf den Markt bringen, die auch Menschen mit körperlichen Einschränkungen einfach nutzen können. Apple geht seit einigen Jahren schon mit gutem Beispiel voran und zeigt das mit immer neuen Funktionen. Wie viel Know-how in diesen sogenannten Barrierefreiheitsfunktionen steckt, zeigen die zahlreichen Funktionen, die für die kommenden Monate angekündigt wurden. Das sprechende iPhone ist eine neue Funktion, gedacht für Menschen, deren kognitive Fähigkeiten eingeschränkt sind. Assistive Access nennt sich diese Funktion. Sie zeigt ein stark vereinfachtes Layout, was sich nur auf die einfachsten Funktionen beschränkt, wozu neben Telefon und Kamera noch Musik, Fotos und Nachrichten gehören.
Die optimale Sprachunterstützung
Die Apps sind einfach und auch leicht zu bedienen. In der Nachrichtenapp beispielsweise kann entweder per Text, durch besonders große Emojis oder durch kleine Selfie-Videos ohne Probleme kommuniziert werden. Besonders hilfreich ist es jedoch, wenn das iPhone spricht. Menschen, die in sprachlicher Hinsicht eine Beeinträchtigung haben, können per Live Speech oder per Personal Voice mit anderen eine Unterhaltung führen. Live Speech übersetzt dabei den eingegebenen Text in eine natürlich gesprochene Sprache. Diese neue Funktion, dass das iPhone spricht, ist direkt in die Telefon-App oder in FaceTime eingebaut. Das Audiotelefonat macht so etwas möglich, selbst wenn die Person, die telefoniert, nicht sprechen kann. Sätze und Phrasen, die oft gebraucht werden, lassen sich speichern, um sie nach Bedarf abspielen zu können.
Die Stimme trainieren
Menschen, die befürchten, ihre Sprache zu verlieren, können mit dem iPhone den Klang der eigenen Stimme trainieren. Für diese Personal-Voice-Funktion müssen die Nutzer für die Dauer von 15 Minuten vorgegebene Sätze in ihr Smartphone sprechen. Danach erklingt die Sprachausgabe von Live Speech mit der eigenen Stimme. Eine Demoversion, wie sich das Ganze anhört, klang bereits sehr vielversprechend, obwohl klar hörbar war, dass es sich dabei um eine künstlich generierte Stimme handelte. Um biometrische Sicherheitsfunktionen zu täuschen, reicht das Ganze sicher nicht aus. Der Klang der eigenen Stimme, wenn das iPhone spricht, bleibt auf dem Smartphone, auf dem auch trainiert wurde und landet nicht auf einem der Server aus dem Hause Apple. Erst wenn der Nutzer aktiv zustimmt, kann die Stimme via iCloud auch auf andere Geräte von Apple übertragen werden.
Fazit zu Das iPhone spricht
Mit Detection Mode bietet Apple seinem mobilen Betriebssystem iOS eine sehr hilfreiche Funktion, die Menschen mit einer fehlenden oder stark eingeschränkten Sehfähigkeit helfen kann. Es handelt sich dabei um eine Erweiterung der App Lupe, die schon heute in iOS fest eingebaut ist. Sie bietet den Nutzern eine Vielzahl von Möglichkeiten, ihre Umwelt zu vergrößern oder sie mit einem höheren Kontrast sowie bestimmten Farbfiltern anzuzeigen. Point und Speak sollen eine neue Funktion für den Alltag der Menschen mit Sehbehinderung sein. Die Bedienfelder selbst können dazu ertastet werden.
Bild: © Depositphotos.com / DragosCondreaW
Bist du ein guter Leser? 👍
Welcher Begriff kam im Artikel vor?
Bist du ein guter Leser? 👍
Welcher Begriff kam im Artikel vor?
Bist du ein guter Leser? 👍
Welcher Begriff kam im Artikel vor?
Häufige Fragen
Was ist die neue Funktion, die das iPhone mit der Stimme des Nutzers sprechen lässt?
Die neue Funktion heißt Personal Voice und ermöglicht es Nutzern, ihre eigene Stimme zu trainieren, die dann bei der Sprachausgabe verwendet wird.
Wie funktioniert die Personal Voice-Funktion?
Nutzer sprechen für 15 Minuten vorgegebene Sätze in ihr iPhone, woraufhin die Sprachausgabe mit ihrer eigenen Stimme erfolgt.
Welche Vorteile bietet die Assistive Access-Funktion?
Assistive Access bietet ein vereinfachtes Layout, das sich auf grundlegende Funktionen wie Telefon, Kamera und Nachrichten konzentriert, um die Bedienung zu erleichtern.
Kann das iPhone auch ohne gesprochene Sprache kommunizieren?
Ja, Nutzer können in der Nachrichten-App durch Text, große Emojis oder Selfie-Videos kommunizieren.
Wie hilft die Live Speech-Funktion Menschen mit Sprachbeeinträchtigungen?
Live Speech übersetzt eingegebenen Text in eine natürlich gesprochene Sprache, sodass Nutzer auch ohne eigene Stimme kommunizieren können.
Sind die Sprachdaten sicher auf dem iPhone gespeichert?
Ja, die Stimme bleibt auf dem Smartphone und wird nicht auf Apple-Servern gespeichert, es sei denn, der Nutzer stimmt aktiv zu.
Wie funktioniert der Detection Mode für sehbehinderte Nutzer?
Der Detection Mode erweitert die Lupe-App und hilft Nutzern, ihre Umgebung durch Vergrößerung, Kontrastanpassung und Farbfilter besser wahrzunehmen.
Welche Funktionen sind in der Assistive Access-App enthalten?
Die Assistive Access-App umfasst grundlegende Funktionen wie Telefon, Kamera, Musik, Fotos und Nachrichten, um die Nutzung zu vereinfachen.
Wie können Nutzer ihre Stimme auf andere Apple-Geräte übertragen?
Die Stimme kann via iCloud auf andere Apple-Geräte übertragen werden, jedoch nur mit aktiver Zustimmung des Nutzers.
Was ist das Ziel von Apples neuen Barrierefreiheitsfunktionen?
Das Ziel ist es, das Leben von Menschen mit kognitiven oder körperlichen Beeinträchtigungen durch benutzerfreundliche Technologien zu erleichtern.
- Die Xpress Drucker von Samsung – flexibel und effektiv - 24. Oktober 2025
- So gelingt es, Ordnung in Daten und Statistiken zu bringen - 10. September 2025
- WordPress – Website-Gestaltung einfach gemacht - 6. Februar 2025









