Pflegewissenschaft

Suchmaschinen für die Literaturrecherche

Publiziert von Dr. Jürgen Knoppik

Allgemeine Suchmaschinen
Wenn es um eine Internet- oder Literaturrecherche geht, benutzen die meisten Menschen die allgemeinen Suchmaschinen. Allen Suchmaschinen gemeinsam ist, dass sie auf einem Index basieren. Sogenannte Crawler durchforsten kontinuierlich das Web, um dem Index Webinhalte hinzuzufügen. Wenn wir also eine Suchanfrage eingeben, wird nicht das Web, sondern allein dieser Index abgefragt. Jeder, der schon einmal eine eigene Homepage erstellt hat, weiß, dass er ohne Indexierung im Web nicht auffindbar ist. Die Indexierung wiederum ist aber nicht gleichbedeutend mit einer guten Position in den Ergebnissen dieser Suchmaschinen. Die Reihenfolge der angezeigten Ergebnisse werden durch die von den Suchmaschinenbetreibern geheimgehaltenen Algorithmen bestimmt. Da sich die Nutzer meistens nur die ersten Ergebnisseiten anschauen, bekommt der Nutzer immer nur die durch die Algorithmen gefilterten Ergebnisse angeboten.

Claire Lobet—Maris, Professorin am Computer Science Institut der Universität Namur in Belgien, weist auf die mit der mangelnden Transparenz verbundenen  Gefahren hin: “Transparenz ist die letzte, aber sicherlich die bedeutendste Frage. um die es hier geht. Die meisten Nutzer wissen nichts davon, wie das  Ranking gemacht wird, und betrachten dieses oft als eine wahre Antwort auf ihre Suche und als objektive Darstellung der Welt”. (Vom Vertrauen zur Spurenauswertung. Eine neue Sicht der Technikfolgenabschätzung) Auf der anderen Seite können diese Suchmaschinen natürlich sehr hilfreich sein, wenn es darum geht, sich schnell und grob zu einem Thema, einer Frage oder einem Begriff einen ersten Überblick zu verschaffen.

Die bekannteste Suchmaschine und auch die meist genutzte ist Google. Daneben gibt es auch andere allgemeine Suchmaschinen mit einem eigenen Index. Bei der hier getroffenen Auswahl wurde Wert darauf gelegt, dass die aufgeführten Suchmaschinen die Suche durch die Verwendung einer eigenen Indexierung zu erweitern vermögen. Dies ist auch der Grund, warum beispielsweise Yahoo hier nicht extra aufgeführt wurde, weil diese Suchmaschine die gleichen Ergebnisse liefert wie Bing. Yandex ist ein russisch-niederländisches Unternehmen mit Sitz in Amsterdam nahe dem Flughafen Amsterdam Schiphol und operativer Hauptzentrale in Moskau, das durch Internetdienstleistungen – insbesondere durch die gleichnamige Suchmaschine – bekannt wurde. Das Unternehmen besteht seit 1997 und ist in Russland mit 64 % Marktanteil klarer Marktführer im Bereich der Internetsuche. Mitte des Jahres 2014 ist die alternative Suchmaschine Swisscows gestartet. Swisscows verfolgt die Strategie, keine Informationen der Nutzer zu speichern; es werden keine IP-Adressen oder sonstigen Daten gesammelt. Standort der Server ist die Schweiz. Die neue Suchmaschine setzt aber nicht nur auf die Privatsphäre der Nutzer, sondern soll auch intelligenter als andere Suchmaschinen sein. Swisscows baut auf einer sogenannten semantischen Suche auf. So lässt sich bei Swisscows die Suche mit Hilfe einer Begriffswolke, bestehend aus farbigen Kästchen, weiter einschränken. Dabei schlägt der Dienst verwandte Begriffe vor oder auch Wörter, die am meisten in diesem Zusammenhang gesucht wurden — so wird die Suche präziser. Außerdem lernt das System dazu und ergänzt die Wolke jeweils um neue Begriffe.

                          

Meta-Suchmaschinen
Meta-Suchmaschinen haben keinen eigenen Datenbestand, sondern durchsuchen gleichzeitig mehrere andere Suchmaschinen. Da sie unterschiedliche Indizes abfragen (Metasuche), lässt sich das oben genannte Problem der objektiven Darstellung der allgemeinen Suchmaschinen zwar nicht umgehen, dennoch aber abmildern. Zudem werden gedoppelte Ergebnisse eliminiert, bewertet und von der Meta-Suchmaschine intern gerankt und dem Nutzer das entsprechende Ranking angezeigt.

Der Nachteil dieser Suchmaschinen besteht darin, dass es in der Ergebnisdarstellung zuweilen zu Verzögerungen gegenüber einer allgemeinen Suchmaschine kommen kann, da der Server der Meta-Suchmaschine auf die Antworten aller Suchdienste warten muss, ehe er diese für den Anwender selbst aufbereiten kann. Auch wenn der Nutzer etwas länger warten muss, wird ihm auf der anderen Seite durch eine Meta-Suchmaschine eine größere Bandbreite an Ergebnissen geliefert. Wichtige Meta-Suchmaschinen finden Sie nachfolgend.

           

Wissenschaftliche Suchmaschinen
Wissenschaftliche Suchmaschinen eignen sich zur Informationsrecherche für wissenschaftliche Arbeiten. Sie durchsuchen Dokumentenserver, auf denen frei verfügbare, wissenschaftliche Abhandlungen verfügbar sind. Wichtig ist, dass die Wahl der Suchmaschine vom Vorwissen und dem Ziel der Recherche abhängt. Wissenschaftliche Suchmaschinen zählen zu den Spezialsuchmaschinen. Im Gegensatz zu Universalsuchmaschinen erfassen sie nur ausgewählte Bereiche des Webs. Bei der technischen Umsetzung kann dabei zwischen einer Metasuche und einer föderierten Suche unterschieden werden. Wissenschaftliche Suchmaschinen arbeiten mit einem Index, der durch fortlaufendes Harvesting aufgebaut wird: beim Absuchen der bevorzugten Server im Internet werden von dort lokale Kopien von Dokumenten bzw. daraus gebildete Indizes “geerntet” und auf einem Server vorgehalten. Darauf wird dann die entsprechende Suchmaschinentechnologie eingesetzt. Über Abfrageprotokolle können Datenanbieter und Dienstleister Daten abfragen und übertragen. Bei den hier vorgestellten Beispielen handelt es sich um echte wissenschaftliche Suchmaschinen. Die Bezeichnung wissenschaftlich bezieht sich dabei auf die Art der Dokumente, die mit ihrer Hilfe gefunden werden. Folgende (wissenschaftliche) Suchmaschinen können für Ihre Suche nützlich sein:

                       

Deep Web Suchmaschinen
Selbst Google findet nur einen geringen Teil aller verfügbaren Informationen im Internet. Das Deep oder auch Invisible Web bezeichnet den Teil des World Wide Webs, der bei einer Recherche über normale Suchmaschinen nicht auffindbar ist, weil die allgemeinen Suchmaschinen diesen Teil des Webs gar nicht indexieren können. Es handelt sich hierbei um Inhalte, die nicht frei zugänglich sind. Gründe dafür können sein, dass die Seite nicht verlinkt ist, oder dass sie versteckt oder zu aktuell ist, dass sie nicht indexiert werden darf, dass die Seite keinen oder zu viel Text hat, dass das Dateiformat unbekannt ist, dass sie nicht frei zugänglich ist, oder dass es sich um dynamische Seiten handelt. Zum Deep Web gehören beispielsweise die Datenbestände der NASA, die Websites der Geheimdienste, aber auch Passwort geschützte Seiten und Datenbankinhalte. Um in das Deep Web zu gelangen, muss man in der Regel erst einmal den Zugang dafür bei Onlineanbietern erhalten. Nach einer Studie der Firma BrightPlanet sei die Datenmenge des Deep Web etwa 500 mal größer als die des Surface oder Visible Web. Diese Zahlen sind allerdings mit großer Vorsicht zu genießen.

WorldWideScience ermöglicht dem Benutzer, mit einer einzigen Abfrage nach mehreren wissenschaftlichen Quellen weltweit zu suchen. Gibt der Benutzer eine Abfrage in seiner Sprache in das Suchfeld ein, dann wird diese Abfrage übersetzt und jede einzelne Datenbank durchsucht. Die Suchergebnisse werden im RelevanzRankingModus angezeigt (der RankingModus kann individuell geändert werden) und sind — zusammen mit dem jeweiligen Abstract — in der gewählten Sprache des Benutzers übersetzbar. Die Datenbank durchsucht derzeit rund 100 Datenbanken und Portale aus über 70 Ländern in den Bereichen Energie, Medizin, Landwirtschaft, Umwelt und GrundIagenwissenschaften. WorldWide$cience hat u.a. den Vorteil gegenüber Crawler-basierten Suchmaschinen, dass die Suche in Echtzeit stattfindet. Insofern sind die Ergebnisse so aktuell wie die einzelnen Datenbanken und Portale selbst.

ScienceResearch ist ebenfalls eine DeepWeb-Suchmaschine, die die Federated Search-Technologie benutzt, um eine hohe Qualität an Suchergebnissen zu erzeugen. Die gleichzeitige Suche in verschiedenen Datenbanken findet ebenfalls in Echtzeit statt. Nach eigenen Angaben liefert ScienceResearch Ergebnisse aus über 300 wissenschaftlichen und technologischen Sammlungen. Die Suchmaschine verwendet den Fünf-Sterne-Ranking-Algorithmus, um die relevanten Ergebnisse schnell zu erkennen. Gesucht wird in vielen Forschungs- und Bibliotheksallianzen, die für die allgemeinen Suchmaschinen nicht zugänglich sind.

MedNar wurde extra für die medizinische Forschung entwickelt. Die Suchmaschine wendet sich an Klinker, klinische Forscher, den medizinischen Fakultäten und an alle, die schnelle und autorisierte Suchergebnisse im Gesundheitsbereich benötigen.

Einen Kommentar schreiben