Re: Newbie mit Audio Service Mood 16 G5 sucht Tipps. Gibt es evtl. etwas Besseres?
Verfasst: 7. Okt 2018, 15:50
Anwendung von FFT hatte ich hier nur als einen Beispielbaustein typischer DSP-implementierbarer Algorithmen genannt, und ich wollte dabei zu einem - mir so erscheinenden - grundsätzlichen und sehr elementaren Problem kommen, das mich beschäftigt:fast-foot hat geschrieben:Hier meine Sichtweise:
Na ja, durch die Anwendung der FFT bspw. entsteht zwangsläufig ein Leck-Effekt.audiophil49 hat geschrieben:Das ist ja auch der tiefere Grund, warum ich Mikrofone und Lautsprecher direkt im Ohr (aus meiner theoretisierenden Laiensicht!!) für am besten halten würde. So müsste das Hörgerät "nur" eine ordentliche Freuquenzgangkorrektur machen, alle anderen Funktionen sind im Gehirn ja schon eingebaut. Und weil die Latency vermutlich streng gleich wäre, links und rechts, könnte das Signalprocessing im Gehirn einfach so weiterarbeiten. Den theoretisch denkbaren Fall, dass die Latencies frequenzabhängig sein könnten, vernachlässige ich hier mal.
Ein idealisiertes konstantes Geräusch an einem konstanten Ort könnte man bei Stereoaufnahme in der Frequenzdomäne identifizieren und in der Zeitdomäne über Phasenverschiebungsmessung seinen Ort feststellen (und daraus Schlussfolgerungen für die weiterte Verarbeitung ziehen, wie z.B. Frontbetonung).
Aber bei die Phasenverschiebung (hier eigentlich präzise: Zeitverschiebung) zwischen Eintreffen auf dem linken Ohr/Mikrofon und dem rechten handelt es sich bei 45° gerade mal um ca. 0,2 Millisekunden. Und jetzt kommt das mMn Entscheidende: der DSP hat ja nicht gleichzeitig direkten Zugriff auf beide Mikrofone, sondern nur über Bluetooth, wobei eine typische Latency im Bereich einiger 10 Millisekunden liegt, und eine dynamische Varianz sicherlich mindestens noch ca. 10% dessen, also mehrere Millisekunden, wodurch ein Signalvergleich in der Zeitdomäne weitestgehend aussagelos werden dürfte.
Das wollte ich mit einer isolierten und idealisierten Betrachtung deutlich machen, und vor diesem Hintergrund frage ich mich natürlich, was auch die gewieftesten DSP-Algorithmen im Hörgerät in Bezug auf selektive Richtungsanalyse überhaupt noch leisten können. Vermutlich nicht garnichts, aber was am Schluss?
Demgegenüber hatte ich meine idealisierte Betrachtung eines (technisch so ideal natürlich nicht möglichen) Paars von Invisible-In-Canal Hörgeräten gemacht, die theoretisch z.B. nur 2 mm lang sind und nichts weiter tun, als das akustische Gesamtsignal tief im Hörgang aufzunehmen und frequenzkorrigiert Richtung Schnecke/Flimmerhärchen/Hörnerv zu verstärken. Dann wäre eine eventuelle Latency klein und insofern vermutlich irrelevant, vor allem aber gleich auf beiden Seiten
In diesem Idealfall würde also die akustisch gebildete Front/Seiten/Back-Filterung durch die Ohrmuscheln wieder voll zur Wirkung kommen (anders als im Fall der seitlichen Mikrofone von klassischen Hörgeräten!), und es könnten weiterhin die im Gehirn "implementierten" DSP-Algorithmen zur Wirkung kommen, an die der Mensch ja schliesslich evolutionär gewöhnt ist.
Sicherheitshalber sei hier einmal gesagt: ich versuche hier auf keinen Fall "klugzuscheissen"! Sondern ich versuche nur einigermassen die Zusammenhänge zu verstehen, was die komplexe 5'000-Euro-Maschine, die ich angedacht habe, systemtechnisch überhaupt leisten können könnte, und was nicht. Ausserdem betrifft es auch die Frage, ob es der Mühe wert sein könnte, ein möglichst ideales, aber reales
Absolut d'accord. Ausser mMn eben im theoretischen Fall des idealen...
Ausserdem ist es in der Regel nicht so, dass Frequenzen, welche schlecht gehört werden, einfach entsprechend verstärkt werden können, womit die ursprüngliche Hörfunktion wieder hergestellt wäre.
Soweit Du damit meinst, dass wegen der von mir oben beschriebenen Mechanismen "nur noch eingeschränkt auswertbare Informationen" übertragen werden, stimme ich natürlich zu. Aber wieweit ein reales Bluetooth-gekoppeltes "Hörgerät dem Gehirn gewisse Arbeiten abnimmt" bzw. überhaupt grundsätzlich technisch abnehmen kann, das ist hier ja die Frage.Es leiden das Auflösungsvermögen und die Dynamik etc. Insbesondere ersteres hat zur Folge, dass Informationen verloren gehen - man hört bedeutend weniger differenziert - trotz Hörgerät (I).
Und genau aus diesem Grunde ist es gut, wenn das Hörgerät dem Gehirn gewisse Arbeiten abnimmt - weil es diese nicht mehr durchführen kann (da wegen (I) nur noch eingeschränkt auswertbare Informationen an den Hörnerv übertragen werden).
Leider volle Zustimmung nach meinen bisherigen Eindrücken.Bis jetzt gelingt dies eher schlecht als recht.
Ich will Dich ganz bestimmt nicht zu einer esoterischen l'art-pour-l'art-Diskussion verleiten, dazu hätte ich selbst keinerlei Lust, zumal das Ganze schon mühsam genug ist...Als Ursache hierfür verantwortlich sehe ich verschiedene Umstände, auf welche ich an dieser Stelle nicht weiter eingehen möchte.
Aber soweit Du zu meinen obigen skeptischen Überlegungen etwas Erhellendes beisteuern kannst/willst, würde mich das schon interessieren.