Semantic Web - Aufbau und Suchtechnologien

Semantic Web - Aufbau und Suchtechnologien
Der Artikel wird am Ende des Bestellprozesses zum Download zur Verfügung gestellt.
Sofort lieferbar | Lieferzeit: Sofort lieferbar

13,99 €*

Artikel-Nr:
9783638421799
Veröffentl:
2005
Seiten:
18
Autor:
Samuel Greef
eBook Typ:
PDF
eBook Format:
Reflowable
Kopierschutz:
NO DRM
Sprache:
Deutsch
Beschreibung:

Studienarbeit aus dem Jahr 2005 im Fachbereich Informatik - Internet, neue Technologien, Note: 2, Universität Kassel, Veranstaltung: Internetsuchmaschinen, 7 Quellen im Literaturverzeichnis, Sprache: Deutsch, Abstract: „The ultimate search engine would basically understand everything in the world, and it would always give you the right thing. ...
Studienarbeit aus dem Jahr 2005 im Fachbereich Informatik - Internet, neue Technologien, Note: 2, Universität Kassel, Veranstaltung: Internetsuchmaschinen, Sprache: Deutsch, Abstract: „The ultimate search engine would basically understand everything in the world, and it would always give you the right thing. And we're a long, long ways from that.“Dieses Zitat von Larry Page, der mit dem von ihm entwickelten Page Rank Algorithmus nicht unerheblich zur Markt dominierenden Stellung von Google als Internet-Suchmaschine beigetragen hat, zeigt, dass auf dem Gebiet der Suchmaschinen noch viel zu tun ist. Davon, dass eine Suchmaschine wie Google „alles auf der Welt versteht“ und immer die richtigen Ergebnisse auf unsere Suchanfragen zurück liefert, sind wir mit Sicherheit noch sehr weit entfernt.Gerade wenn es darum geht, die relevanten Informationen aus der riesigen Fülle an Webseiten aus denen das World Wide Web besteht herauszufiltern, gleicht dies „der Suche nach der Nadel in einem täglich wachsenden Heuhaufen“.Dabei stehen die Suchmaschinenbetreiber vor allem vor dem Problem, den Inhalt dieser unzähligen Webseiten richtig zu „erkennen“. Das dabei die vor allem auf „Word-Matching“ Verfahren ausgelegten Algorithmen nicht die besten Ergebnisse bringen, ist kaum verwunderlich und hat wohl jeder schon selber bei seiner Suche im Internet feststellen können. Und diese Probleme mit denen heutige Suchmaschinen zu kämpfen haben, werden nicht kleiner, sondern steigen Tag für Tag mit den neu im Web entstehenden Seiten. Um dieser Herausforderung zu begegnen, gibt es vor allem zwei verschiedene Möglichkeiten. Auf der einen Seite könnten die Betreiber von Suchmaschinen auf den massiven Einsatz von Verfahren aus dem Bereich der künstlichen Intelligenz bauen, mit deren Hilfe es vielleicht möglich wäre, aus bestimmten auf der Webseite vorhandenen Wortkombinationen oder dem Satzbau Rückschlüsse auf den Inhalt der Webseite zu ziehen. Hier wird also versuch im nachhinein die implizit im Seiteninhalt „verborgene“ Bedeutung zu ermitteln. Das nachträgliche Erschließen implizit vorhandener Informationen hat den Nachteil, dass die Last der Erkenntnisgewinnung ausschließlich auf Seite der Serviceanbieter (z.B. Suchmaschinen) liegt und das prinzipielle Problem besteht, dass sich vorhandene Daten auf sehr unterschiedliche Art und Weise interpretieren lassen. Auf der anderen Seite könnten man das Gerüst, aus dem sich die Webseiten zusammensetzen, erweitern und den Entwicklern der Webseiten auf diese Weise eine Möglichkeit an die Hand geben, selber den Inhalt ihrer Seite explizit zu beschreiben.

Kunden Rezensionen

Zu diesem Artikel ist noch keine Rezension vorhanden.
Helfen sie anderen Besuchern und verfassen Sie selbst eine Rezension.