Artikel
Untersuchung der audio-visuellen Integration von Cochlea Implantat Nutzern? Kombination sprachaudiometrischer Tests mit einem virtuellen Kopfmodell
Suche in Medline nach
Autoren
Veröffentlicht: | 21. September 2011 |
---|
Gliederung
Text
Hintergrund: Das Sprachverstehen von Personen mit Hörschädigungen basiert neben auditiven Leistungen auf den Fähigkeiten visuelle Merkmale zu nutzen. Während es etablierte Verfahren zur sprachaudiometrischen Diagnostik gibt, stehen keine Methoden zur Erfassung der Auswertung von Sprechbewegungen zur Verfügung.
Methoden: Auf der Basis eines validierten virtuellen Kopfmodells („MASSY“, [1]) sollen die Sprechbewegungen für sprachaudiometrische Materialien simuliert werden. Exemplarisch wurde eine Testliste des Oldenburger Satztests für die Modellierung herangezogen und für Messungen im auditiven, visuellen und kombiniert audio-visuellen Modus verwendet. Pilotmessungen wurden mit normalhörenden Personen und CI-Nutzern durchgeführt.
Ergebnisse: Alle Probanden profitierten nach einer gewissen Lernphase von den über das Kopfmodell visualisierten Sprechbewegungen. Dabei zeigten die CI-Nutzer eine größere Fähigkeit zur Auswertung der visuellen Merkmale und einen deutlicheren Gewinn in der Kombination beider Modalitäten, was im Einklang zu Literaturdaten (z.B. [2]) steht.
Schlussfolgerungen: Die Pilotstudie weist auf die grundsätzliche Eignung des virtuellen Kopfmodells zur Untersuchung der audio-visuellen Integration bei CI-Nutzern hin. Damit ergibt sich die Möglichkeit, etablierte sprachaudiologische Verfahren um die visuelle Komponente zu erweitern.
Literatur
- 1.
- Fagel S, Clemens C. An Articulation Model for Audiovisual Speech Synthesis - Determination, Adjustment, Evaluation. Speech Communication. 2004;44:141-154.
- 2.
- Desai S, Stickney G, Zeng FG. Auditory-visual speech perception in normal-hearing and cochlear-implant listeners. J Acoust Soc Am. 2008 Jan;123(1):428-40.