Benutzer: Gast  Login
Originaltitel:
Efficient and High Performance Algorithms for Context Modeling in Learning-based Image Compression
Übersetzter Titel:
Effiziente und hochleistungsfähige Algorithmen für die Kontextmodellierung in der gelernten Bildkomprimierung
Autor:
Koyuncu, Ahmet Burakhan
Jahr:
2025
Dokumenttyp:
Dissertation
Fakultät/School:
TUM School of Computation, Information and Technology
Institution:
Medientechnik (Prof. Steinbach)
Betreuer:
Steinbach, Eckehard (Prof. Dr.)
Gutachter:
Steinbach, Eckehard (Prof. Dr.); Kaup, André (Prof. Dr.); Duarte Ascenso, João (Prof. Dr.)
Sprache:
en
Fachgebiet:
ELT Elektrotechnik
Stichworte:
Deep Learning; Image Compression; Deep Learning-based Image Compression; Context Modeling; Transformers
Übersetzte Stichworte:
Deep Learning; Bildkompression; Deep-Learning-basierte Bildkompression; Kontextmodellierung; Transformers
TU-Systematik:
DAT 760
Kurzfassung:
This thesis proposes a series of advancements in context modeling of entropy models, introducing two key architectures—Contextformer and Efficient Contextformer (eContextformer)—that leverage the flexibility and power of transformer-based models to significantly enhance learned image compression performance and computational efficiency. These contributions lay the foundation for novel context models aimed at achieving high compression ratios and low computational overhead.
Übersetzte Kurzfassung:
Diese Arbeit schlägt eine Reihe von Fortschritten in der Kontextmodellierung von Entropiemodellen präsentiert und zwei Schlüsselarchitekturen einführt: den Contextformer und den Efficient Contextformer (eContextformer). Diese nutzen die Flexibilität und Leistungsfähigkeit transformerbasierter Modelle, um die Kompressionsleistung und Recheneffizienz signifikant zu verbessern. Die Beiträge dieser Arbeit sind Basis für die Entwicklung neuartiger Kontextmodelle, die darauf abzielen, hohe Kompressio...     »
WWW:
https://mediatum.ub.tum.de/?id=1764709
Eingereicht am:
16.12.2024
Mündliche Prüfung:
20.05.2025
Dateigröße:
102866922 bytes
Seiten:
162
Urn (Zitierfähige URL):
https://nbn-resolving.org/urn:nbn:de:bvb:91-diss-20250520-1764709-0-4
Letzte Änderung:
23.06.2025
 BibTeX