Suchmaschinen im WWW spielen heutzutage ein grosse Rolle um die vorhandene Masse der Informationen besser zugänglich zu machen. In dieser Arbeit wird anhand einer selbstkonstruierten Suchmaschine demonstriert, wie spezielle Informationen aus dem WWW automatisch gesammelt und halbautomatisch nach vorgegeben Kriterien bewertet werden können. Betrachtet wird dabei die Architektur von "Web-Crawlern" sowie Ranking- und Clustering-Verfahren für Dokumente im Allgemeinen. Entwickelt wurde ein Lernverfahren basierend auf einem neuronalen Netz zur Verknüpfung der heterogenen Informationen von Web-Seiten (Position im Graph und Inhalt), um Dokumente nach ihrem Inhalt genauer kategorisieren zu können. Der Ansatz verbessert die Bewertung von Dokumentmengen im WWW gegenüber bekannten Verfahren. Dabei wird auch ein neuer Ansatz vorgestellt, um die Qualität des Vergleichs von Dokumenten zu erhöhen.
«
Suchmaschinen im WWW spielen heutzutage ein grosse Rolle um die vorhandene Masse der Informationen besser zugänglich zu machen. In dieser Arbeit wird anhand einer selbstkonstruierten Suchmaschine demonstriert, wie spezielle Informationen aus dem WWW automatisch gesammelt und halbautomatisch nach vorgegeben Kriterien bewertet werden können. Betrachtet wird dabei die Architektur von "Web-Crawlern" sowie Ranking- und Clustering-Verfahren für Dokumente im Allgemeinen. Entwickelt wurde ein Lernverfah...
»