Heutige Bilddatenbanken bestehen ohne weiteres aus mehreren hunderttausend Bildern, und bewegen sich bezüglich Speicherplatzanforderungen im Terabyte Bereich, auch wenn sie mit aktuellen Bildkompressionsverfahren arbeiten. In dieser Arbeit wird gezeigt, wie sich bestehende Redundanzen zwischen verschiedenen, aber ähnlichen Bildern in so einer Bilddatenbank gewinnbringend auszunutzen lassen, um Bildkompressionsraten zu erhöhen.
Hierzu werden eine Reihe von auf Einzelbildern arbeitende Verfahren (fraktale Kompression, Primärkomponentenanalyse, Textursegmentierung,
zeilenbasierte Pixelvorhersagen) auf Bildmengen erweitert. Diese neuen Verfahren komprimieren ähnliche Bilder mit mehr Effizienz als bei der Einzelbildkompression.
Um eine bestehende Bilddatenbank in Gruppen zu zerlegen, auf denen man die genannten Verfahren möglichst gewinnbringend einsetzen kann, werden
eine Reihe von Clustering-Algorithmen und -Metriken daraufhin untersucht, inwieweit sie mit den aus den Datenkompressionsansätzen gewonnenen Statistiken
zusammenarbeiten und eine gewinnbringende Zerlegung der Datenbank in Gruppen
von ähnlichen Bildern liefern.
«
Heutige Bilddatenbanken bestehen ohne weiteres aus mehreren hunderttausend Bildern, und bewegen sich bezüglich Speicherplatzanforderungen im Terabyte Bereich, auch wenn sie mit aktuellen Bildkompressionsverfahren arbeiten. In dieser Arbeit wird gezeigt, wie sich bestehende Redundanzen zwischen verschiedenen, aber ähnlichen Bildern in so einer Bilddatenbank gewinnbringend auszunutzen lassen, um Bildkompressionsraten zu erhöhen.
Hierzu werden eine Reihe von auf Einzelbildern arbeitende Verfahren...
»