HÄTTEN SIE GERNE KI ODER MASCHINELLES LERNEN FÜR IHRE HÖRGERÄTE?

Hörgerätehersteller sprechen zunehmend über künstliche Intelligenz und maschinelles Lernen. Aber was sind diese beiden Konzepte? Und welche Auswirkungen hat diese Technologie auf unsere Branche – und auf Ihre Praxis?

Künstliche Intelligenz (KI) und maschinelles Lernen sind zwei Konzepte, von denen wir in letzter Zeit viel gehört haben, und die Hörgeräteindustrie ist da keine Ausnahme. Ein kürzlich auf hearinghealthmatters.org veröffentlichter Artikel untersucht die Unterschiede zwischen künstlicher Intelligenz und maschinellem Lernen in Hörgeräten und die Auswirkungen, die dies haben könnte. Er befasst sich auch mit den jüngsten Umfrageergebnissen für die auf maschinellem Lernen basierende Funktion SoundSense Learn, die in den WIDEX EVOKE-Hörgeräten verfügbar ist.

Wir haben einen der Autoren – James W. Martin, Direktor für audiologische Kommunikation bei Widex – gebeten, uns seine Sichtweise zu dieser laufenden Diskussion und zur Zukunft der Hörgeräte mitzuteilen.

Zunächst einmal: Wie kam es zu KI und maschinellem Lernen?

Die KI-Bewegung entstand aus dem Versuch, herauszufinden, ob ein Computer einen Menschen davon überzeugen kann, dass er mit einem anderen Menschen und nicht mit einem Computer spricht – so wurde 1950 der Turing-Test entwickelt.  Seitdem haben Maschinenwissenschaftler versucht herauszufinden, ob sie einen Computer schaffen können, der menschliche kognitive Prozesse nachahmt, und so sind KI und maschinelles Lernen heute zu wichtigen Technologien geworden.

Was ist der Unterschied zwischen KI und maschinellem Lernen?

Bei der künstlichen Intelligenz wird versucht, einen Computer eine Aufgabe ausführen zu lassen, die normalerweise von Menschen erledigt wird, z. B. Autofahren, Sprechen oder Gesichter erkennen. Dies sind Beispiele für Aufgaben, die wir als erlernt betrachten. Das maschinelle Lernen hingegen konzentriert sich auf kontinuierliches Lernen und fortlaufende Problemlösungsfähigkeiten, die über die menschlichen Fähigkeiten hinausgehen – anstatt sie nur zu imitieren.

Was bringen KI und maschinelles Lernen für Hörgeräte?

Mit KI können Sie zum Beispiel ein Hörgerät anpassen, und das andere folgt automatisch der Anpassung. Sie könnten auch einen Klangklassifikator verwenden, um Änderungen der Funktionen und der Verstärkung in bestimmten Umgebungen zu veranlassen – das ist ein weiteres Beispiel für KI in Hörgeräten. Das maschinelle Lernen geht noch einen Schritt weiter, indem es das Lernen auf der Grundlage der Interaktion, der Intentionen und der Präferenzen des Patienten, wie er in einer bestimmten Umgebung hören möchte, erfasst. Diese Absichten und Vorlieben können nur durch die Verbindung von maschinellem Lernen und Menschen entstehen.

Ich bin der Meinung, dass Hörgeräte nur das nutzen können, was sie erfassen können. Die Fähigkeit des Systems, sich an die Umgebung und die akustischen Gegebenheiten anzupassen, kann beeinträchtigt werden, wenn das Hörgerät nur begrenzte Informationen erfassen kann.

Widex hat kürzlich die SoundSense Learn Technologie eingeführt. Können Sie kurz erklären, was sie bewirkt?

SoundSense Learn nutzt einen gut erforschten Ansatz des maschinellen Lernens für individuelle Anpassungen des Hörgeräts. Es vergleicht komplexe Einstellungskombinationen, indem es Benutzereingaben über eine vereinfachte Schnittstelle sammelt, so dass es für den Benutzer leicht zu handhaben ist.

Können Sie uns ein Beispiel nennen?

Wenn wir drei akustische Parameter haben: tiefe, mittlere und hohe Frequenzen, die jeweils auf 13 verschiedene Stufen eingestellt werden können... ergibt das insgesamt 2.197 Kombinationen der drei Einstellungen. Wollte man all diese Kombinationen ausprobieren und vergleichen, um die optimalen Höreinstellungen zu finden, ergäben sich über zwei Millionen Vergleiche. Kein Mensch kann eine solche Anzahl von Vergleichen durchführen, um die optimale Einstellung zu finden. Aber SoundSense Learn kann das optimale Ergebnis in 20 interaktiven Schritten mit einem Menschen erreichen – oder weniger.

Der Hörer erhält also eine sofortige Befriedigung, ohne dass der Hörgeräteakustiker etwas an der Programmierung ändern muss, die er vorgenommen hat. Aber der Hörer hat die Möglichkeit, seine Akustikeinstellungen in Echtzeit zu verfeinern und anzupassen, um seine spezifischen Hörwünsche zu erfüllen – und zwar genau hier und genau jetzt. Dies ist ein Beispiel für eine symbiotische Zusammenarbeit, die über das hinausgeht, was ein Mensch allein erreichen kann.

Wie profitiert der Hörgeräteträger von dieser Art des maschinellen Lernens?

Es ermöglicht dem Hörgeräteträger, die Klangumgebung nach seinen Wünschen und Vorstellungen zu gestalten und zu personalisieren. Früher musste ein Hörgeräteträger versuchen, sich alle Details einer schwierigen Hörsituation zu merken, um sie später seinem Hörgeräteakustiker erklären zu können. Das ist wirklich schwer zu bewerkstelligen.

Sie sammeln anonymisierte Daten aus der SoundSense Learn-Funktion, um zu verstehen, wie sie genutzt wird. Welche interessanten Erkenntnisse haben Sie gewonnen?

Ein besonders hervorzuhebender Bereich ist der, in dem Benutzer ein Programm erstellt haben, um ihre bevorzugten Einstellungen zu wiederholen – nämlich am Arbeitsplatz. Wir haben 141 Programme gesehen, die von Nutzern an ihrem Arbeitsplatz erstellt und wiederverwendet wurden, und sie waren alle sehr unterschiedlich.

Vor ein paar Jahren sagte uns eine Studie von MarkeTrak, dass 83 % der Hörgeräteträger angaben, mit ihren Hörgeräten am Arbeitsplatz zufrieden zu sein. Es verbleiben jedoch immer noch mehr als 15 %, die entweder mit dem Klang an ihrem Arbeitsplatz nicht zufrieden sind oder ihn gerne besser anpassen würden. SoundSense Learn ist eine leistungsstarke und effektive Methode, um dieses Ziel zu erreichen.

Was sind einige Beispiele für maschinelles Lernen oder KI in der Hörgeräteindustrie?
Derzeit ist Widex der einzige Hersteller, der maschinelles Lernen in Echtzeit einsetzt. Ich weiss, dass andere Hersteller Dinge wie Näherungssensoren für die Sturzerkennung und das Internet der Dinge nutzen, aber meine Sorge ist, dass sich keine dieser Funktionen auf die Klangqualität, die Patientenpräferenz oder die Hörabsichten des Patienten konzentriert.

Was bedeuten diese neuen Technologien für Hörgeräteakustiker?

Die Hörtechnologie hat sich weiterentwickelt, und wir müssen uns mit ihr weiterentwickeln. Hörgeräteakustiker werden nicht durch Technologie ersetzt werden. Aber wie in den meisten Berufen werden auch diese Anbieter neue Technologien beherrschen müssen, um mit der Branche und der allgemeinen technologischen Entwicklung Schritt zu halten.

In Ihrem Artikel schreiben Sie, dass in Zukunft "reale Anwendungen von maschinellem Lernen und KI über das hinausgehen, was ein Mensch allein erreichen kann" – was könnte das Ergebnis davon für die Zukunft der Hörgeräte sein?

Wir stehen an der Schwelle zur Integration fortschrittlicher Technologien, die es in der Hörgeräteindustrie noch nie gegeben hat. Ich kann mir nur vorstellen, was die Zukunft bringt... aber das überlasse ich den unglaublichen Ingenieuren in der Hörgeräteindustrie.

Nach oben