banner

Nachricht

Jul 12, 2023

Apple zeigt eine Vorschau von Live Speech, Personal Voice und weiteren neuen Barrierefreiheitsfunktionen

Text dieses Artikels

16. Mai 2023

PRESSEMITTEILUNG

Apple führt neue Funktionen für kognitive Barrierefreiheit ein, zusammen mit Live Speech, Personal Voice und Point and Speak in Magnifier

Neue Softwarefunktionen für kognitive, sprachliche und visuelle Zugänglichkeit werden später in diesem Jahr verfügbar sein

CUPERTINO, KALIFORNIEN Apple hat heute eine Vorschau auf Softwarefunktionen für kognitive, visuelle, Hör- und Mobilitätsbarrieren sowie innovative Tools für Personen gezeigt, die nicht sprechen oder Gefahr laufen, ihre Sprechfähigkeit zu verlieren. Diese Updates basieren auf Fortschritten in der Hardware und Software, umfassen maschinelles Lernen auf dem Gerät, um die Privatsphäre der Benutzer zu gewährleisten, und erweitern das langjährige Engagement von Apple, Produkte für alle zu entwickeln.

Apple arbeitet eng mit Community-Gruppen zusammen, die ein breites Spektrum von Benutzern mit Behinderungen repräsentieren, um Barrierefreiheitsfunktionen zu entwickeln, die einen echten Einfluss auf das Leben der Menschen haben. Später in diesem Jahr können Benutzer mit kognitiven Behinderungen mit Assistive Access iPhone und iPad einfacher und unabhängiger nutzen. Personen, die nicht sprechen, können während Anrufen und Gesprächen mit Live Speech tippen, um zu sprechen. Und diejenigen, die Gefahr laufen, ihre Sprachfähigkeit zu verlieren, können mit Personal Voice eine synthetische Stimme erstellen, die wie sie selbst klingt, um mit Familie und Freunden in Kontakt zu treten. Für Benutzer, die blind oder sehbehindert sind, bietet der Erkennungsmodus in der Lupe „Zeigen und Sprechen“, das Text erkennt, auf den Benutzer zeigen, und ihn laut vorliest, um ihnen die Interaktion mit physischen Objekten wie Haushaltsgeräten zu erleichtern.

„Wir bei Apple waren schon immer davon überzeugt, dass die beste Technologie die Technologie ist, die für alle entwickelt wurde“, sagte Tim Cook, CEO von Apple. „Heute freuen wir uns, unglaubliche neue Funktionen vorstellen zu können, die auf unserer langen Geschichte der Zugänglichkeit von Technologie aufbauen, sodass jeder die Möglichkeit hat, das zu schaffen, zu kommunizieren und zu tun, was er liebt.“

„Barrierefreiheit ist Teil von allem, was wir bei Apple tun“, sagte Sarah Herrlinger, Senior Director of Global Accessibility Policy and Initiatives bei Apple. „Diese bahnbrechenden Funktionen wurden mit dem Feedback von Mitgliedern von Behindertengemeinschaften bei jedem Schritt entwickelt, um eine vielfältige Gruppe von Benutzern zu unterstützen und Menschen dabei zu helfen, auf neue Weise Kontakte zu knüpfen.“

Assistive Access unterstützt Benutzer mit kognitiven Behinderungen

Assistive Access nutzt Designinnovationen, um Apps und Erlebnisse auf ihre wesentlichen Funktionen zu reduzieren und so die kognitive Belastung zu verringern. Die Funktion spiegelt das Feedback von Menschen mit kognitiven Behinderungen und ihren vertrauenswürdigen Unterstützern wider und konzentriert sich auf die Aktivitäten, die ihnen Spaß machen und die für iPhone und iPad von grundlegender Bedeutung sind: mit geliebten Menschen in Kontakt treten, Fotos aufnehmen und genießen und Musik hören.

Assistive Access umfasst ein individuelles Erlebnis für Telefon und FaceTime, die in einer einzigen Anruf-App kombiniert wurden, sowie für Nachrichten, Kamera, Fotos und Musik. Die Funktion bietet eine eindeutige Benutzeroberfläche mit kontrastreichen Schaltflächen und großen Textbeschriftungen sowie Tools, die vertrauenswürdigen Unterstützern dabei helfen, das Erlebnis auf die von ihnen unterstützte Person anzupassen. Für Benutzer, die beispielsweise lieber visuell kommunizieren, bietet Messages eine Tastatur nur für Emojis und die Möglichkeit, eine Videonachricht aufzuzeichnen, um sie mit ihren Lieben zu teilen. Benutzer und vertrauenswürdige Unterstützer können außerdem zwischen einem visuelleren, rasterbasierten Layout für ihren Startbildschirm und ihre Apps oder einem zeilenbasierten Layout für Benutzer wählen, die Text bevorzugen.

„Die Community mit geistigen und entwicklungsbedingten Behinderungen strotzt nur so vor Kreativität, aber die Technologie stellt für diese Menschen oft physische, visuelle oder Wissensbarrieren dar“, sagte Katy Schmid, Senior Director of National Program Initiatives bei The Arc of the United States. „Eine Funktion zu haben, die ein kognitiv zugängliches Erlebnis auf dem iPhone oder iPad bietet – das bedeutet mehr offene Türen zu Bildung, Beschäftigung, Sicherheit und Autonomie. Es bedeutet, die Welten zu erweitern und das Potenzial zu erweitern.“

Live Speech und Personal Voice verbessern die Zugänglichkeit von Sprache

Mit Live Speech auf iPhone, iPad und Mac können Benutzer eingeben, was sie sagen möchten, damit es bei Telefon- und FaceTime-Anrufen sowie bei persönlichen Gesprächen laut vorgelesen wird. Benutzer können auch häufig verwendete Phrasen speichern, um sich bei lebhaften Gesprächen mit Familie, Freunden und Kollegen schnell einzuschalten. Live Speech wurde entwickelt, um Millionen von Menschen auf der ganzen Welt zu unterstützen, die nicht sprechen können oder im Laufe der Zeit ihre Sprache verloren haben.

Für Benutzer, bei denen das Risiko besteht, dass sie ihre Sprechfähigkeit verlieren – beispielsweise solche mit einer kürzlich diagnostizierten ALS (Amyotrophe Lateralsklerose) oder anderen Erkrankungen, die sich zunehmend auf die Sprechfähigkeit auswirken können – ist Personal Voice eine einfache und sichere Möglichkeit, eine Stimme zu erzeugen, die so klingt ihnen.

Benutzer können eine persönliche Stimme erstellen, indem sie zusammen mit einer zufälligen Reihe von Textansagen vorlesen, um 15 Minuten Audio auf dem iPhone oder iPad aufzuzeichnen. Diese Sprachbarrierefreiheitsfunktion nutzt maschinelles Lernen auf dem Gerät, um die Informationen der Benutzer privat und sicher zu halten, und lässt sich nahtlos in Live Speech integrieren, sodass Benutzer mit ihrer persönlichen Stimme sprechen können, wenn sie sich mit ihren Lieben verbinden.1

„Letztendlich ist es das Wichtigste, mit Freunden und Familie kommunizieren zu können“, sagte Philip Green, Vorstandsmitglied und ALS-Befürworter der gemeinnützigen Organisation Team Gleason, der seit der ALS-Erkrankung erhebliche Veränderungen in seiner Stimme erlebt hat Diagnose im Jahr 2018. „Wenn Sie ihnen mit einer Stimme, die wie Sie selbst klingt, sagen können, dass Sie sie lieben, macht das den Unterschied in der Welt – und die Möglichkeit, Ihre synthetische Stimme in nur 15 Minuten auf Ihrem iPhone zu erstellen, ist außergewöhnlich.“

Der Erkennungsmodus in der Lupe führt das Zeigen und Sprechen für blinde oder sehbehinderte Benutzer ein

Zeigen und Sprechen in der Lupe erleichtert Benutzern mit Sehbehinderungen die Interaktion mit physischen Objekten, die über mehrere Textbeschriftungen verfügen. Bei der Verwendung eines Haushaltsgeräts – etwa einer Mikrowelle – kombiniert Point and Speak beispielsweise Eingaben von der Kamera, dem LiDAR-Scanner und maschinellem Lernen auf dem Gerät, um den Text auf jeder Taste anzusagen, wenn Benutzer ihren Finger über die Tastatur bewegen.2 Point and Speak ist in die Magnifier-App auf iPhone und iPad integriert, funktioniert hervorragend mit VoiceOver und kann mit anderen Magnifier-Funktionen wie Personenerkennung, Türerkennung und Bildbeschreibungen verwendet werden, um Benutzern die Navigation in ihrer physischen Umgebung zu erleichtern.

Zusatzfunktionen

Wir feiern den globalen Tag des Bewusstseins für Barrierefreiheit auf der ganzen Welt

Um den Global Accessibility Awareness Day zu feiern, stellt Apple diese Woche neue Funktionen, kuratierte Sammlungen und mehr vor:

Drücken Sie auf Kontakte

Will Butler

Apfel

[email protected]

Eric Hollister Williams

Apfel

[email protected]

Apple Media-Helpline

[email protected]

Bilder in diesem Artikel

Apple revolutionierte die persönliche Technologie mit der Einführung des Macintosh im Jahr 1984. Heute ist Apple mit iPhone, iPad, Mac, Apple Watch und Apple TV weltweit führend in Sachen Innovation. Die fünf Softwareplattformen von Apple – iOS, iPadOS, macOS, watchOS und tvOS – bieten nahtlose Erlebnisse auf allen Apple-Geräten und bieten Menschen bahnbrechende Dienste wie den App Store, Apple Music, Apple Pay und iCloud. Die mehr als 100.000 Mitarbeiter von Apple setzen sich dafür ein, die besten Produkte der Welt herzustellen und die Welt besser zu hinterlassen, als wir sie vorgefunden haben.

Will Butler

Apfel

[email protected]

Eric Hollister Williams

Apfel

[email protected]

Apple Media-Helpline

[email protected]

Assistiver Zugriff unterstützt Benutzer mit kognitiven Behinderungen. Live-Sprache und persönliche Stimme. Erweiterte Sprachbarriere. Zusätzliche Funktionen, die für iPhone-Hörgeräte entwickelt wurden Apple Podcasts Apple TV Apple Books Apple Music Apple Fitness+ App Store Assistiver Zugriff unterstützt Benutzer mit kognitiven Behinderungen Live Speech und Personal Voice Advance Speech Accessibility Zusätzliche Funktionen speziell für iPhone-Hörgeräte Sprachsteuerung Sprachsteuerung Guide Switch Control Textgröße Bilder mit beweglichen Elementen anhalten VoiceOver Celebrating Global Accessibility Awareness Day Auf der ganzen Welt SignTime Apple Store-Standorte Verknüpfungen Apple Podcasts Apple TV Apple Bücher Apple Musik Apple Fitness+ App Store Über Apple Über Apple
AKTIE