Das untersuchte Kompressionsverfahren für digitale Daten beruht auf stark punktierten Kanalcodes. Im Gegensatz zu konventionellen Quellencodes leidet es nicht unter Fehlerfortplanzung, da fehlerhafte Codewörter durch iterative Decodierung korrigiert werden können. Die Hauptbeiträge sind die Analyse des Kompressionsverfahrens in Bezug auf Codiergeschwindigkeit, Kompressionseffizienz und Robustheit gegenüber Fehlern. Das Verfahren wird erweitert auf die Codierung von Quellen mit Gedächtnis als auch mit höherwertigem Symbolalphabet. Das Verfahren wird mittels EXIT-Charts analysiert sowie dessen Kompressionseigenschaften optimiert. Die Kompression von nichtbinären Symbolen erfolgt durch ein Mapping auf binäre Sequenzen, welche sukzessive verarbeitet werden. Abschließend wird das Verfahren um einen Quellenmodell ergänzt, welches iterativ mit dem Kanaldecoder operiert und dabei die zur Rekonstruktion benötigte Quelleninformation schätzt.
«Das untersuchte Kompressionsverfahren für digitale Daten beruht auf stark punktierten Kanalcodes. Im Gegensatz zu konventionellen Quellencodes leidet es nicht unter Fehlerfortplanzung, da fehlerhafte Codewörter durch iterative Decodierung korrigiert werden können. Die Hauptbeiträge sind die Analyse des Kompressionsverfahrens in Bezug auf Codiergeschwindigkeit, Kompressionseffizienz und Robustheit gegenüber Fehlern. Das Verfahren wird erweitert auf die Codierung von Quellen mit Gedächtnis als auc...
»