Heutige Suchmaschinen sind meist recht ähnlich aufgebaut. Unsere Suchmaschine setzt sich in der technischen Umsetzung aus dem sogenannten Crawling, einer fachlichen Bewertung der Inhalte und einer gewichteten Anzeige der Suchergebnisse (je nach Auswahl der Nutzer) zusammen.
Crawling und Ablage
Zunächst laden Suchmaschinen, wie auch unsere, Online-Inhalte herunter. Die Software, die diesen Prozess durchführt, nennt sich Crawler. In regelmäßigen Abständen werden so eingetragene Webseitenbereiche durchleuchtet. Anders als bei kommerziellen Anbietern handelt es sich bei uns allerdings um eine händisch ausgesuchte Menge.
Die heruntergeladenen Inhalte werden daraufhin zunächst auf den wesentlichen inhaltlichen Text reduziert. Überschrift und URL, sowie die gefilterten Webseiteninhalte werden in einem Dokumentenindex abgelegt.
Fachliche Bewertung der Inhalte
Für jede der gecrawlten Domains (Websites, z. B. Gesundheitsportale) wurden stichprobenartig Werte für die Qualitätsmerkmale aktuell, nutzerfreundlich, vertrauenswürdig und verständlich ermittelt. Diese Werte wurden ebenfalls im Dokumentenindex abgelegt. Je höher ein Wert in einem der gegebenen Qualitätsmerkmale, desto besser schneidet die Domain ab.
Filter und Anzeige der Ergebnisse
Mithilfe der oben genannten Bewertung lassen sich Filter erstellen. Unsere Suche verfügt über vier Abstufungen in jedem Merkmal: unwichtig, eher unwichtig, wichtig und sehr wichtig.
Die Suchanfrage wird auf Basis des Dokumentenindexes von der Suchplattform ausgewertet. Hierbei nutzen wir Technologie, die auf Apache Lucene aufbaut. Der grundlegende Algorithmus der Suche ist Okapi BM25. Nur Ergebnisse, deren Werte im ausgewählten Filterbereich der Qualitätsmerkmale liegen, werden den Usern angezeigt.
Erstmals veröffentlicht: 20.05.2021
Aktualisiert vom Editoren-Team: 21.05.2021