Hinweis: Wenn Sie diesen Text sehen, benutzen Sie einen Browser, der nicht die gängigen Web-Standards unterstützt. Deshalb wird das Design von Medien Kunst Netz nicht korrekt dargestellt. Die Inhalte selbst sind dennoch abrufbar. Für größtmöglichen Komfort und volle Funktionalität verwenden Sie bitte die empfohlenen Browser. |
Die Zahl der elektronischen Dokumente wächst jeden Tag beständig und exponentiell an. Erst vor Kurzem war zu lesen, dass weltweit im Jahr 2002 ca. 5 Billionen Gigabytes Datenmaterial generiert wurden (die auf diese Weise gegenwärtig den Speicherplatz auf 50 Millionen herkömmlicher Festplattenlaufwerke einnehmen). Ein Teil dieses riesigen Datenaufkommens besteht aus dem Austausch von Texten (wie E-Mails). Diese Datenmenge kann demzufolge auf einem semantischen Level mit Hilfe von Techniken verwaltet werden, die sich mit der Suche nach Textinformationen vergleichen lassen – wie sie z. B. bei Google erfolgreich angewandt werden. Allerdings besteht ein Großteil des Datenmaterials aus Bild- und Multimediadaten wie Bildern und Videos.
Was diese visuellen Dokumente betrifft, so kann das Verwalten der Daten nicht automatisch mit der größten Genauigkeit durchgeführt werden. Der Grund dafür ist die allgemein bekannte semantic gap (Semantische Lücke), mit der man den Unterschied zwischen Mensch und Maschine bei der Wahrnehmung von visuellen Inhalten bezeichnet. Trotz jahrzehntelanger Forschungsarbeit ist die
automatisierte Bild- (und Video-) Analyse immer noch viel zu unwirksam, als dass sie einen Menschen zuverlässig bei der Bewältigung der Datenverwaltung ersetzen könnte. Auf lokaler Ebene gehen wir in unserer VIPER-Forschungsgruppe verschiedenen Forschungsansätzen nach, um zu komplementären Lösungen des Problem zu kommen, semantisch sinnvolle Interpretationen von visuellen Inhalten abzuleiten. Unsere erste Forschungsarbeit im Bereich des inhaltsbasierten Suchens in Bilddatenbanken, »GIFT« [GIFT], hat dazu geführt, dass wir kommentierte Bilddatenbanken in Erwägung gezogen haben. Das Problem der Anmerkungen ist an sich alles andere als unbedeutend: Wir beschäftigen uns damit, wie man unbeweglichen Bildern erläuternde Texte zuordnen kann (Annotation). Dieses Verfahren hat mit der Semantic-Web-Initiative (SEMWEB) vieles gemeinsam. Wir befassen uns zudem damit, wie man Textbausteine automatisch (mit Hilfe von Lern-Maschinen) aus visuellen Inhalten [1] extrahieren kann, und legen unsere Fortschritte im Bereich der Visualisierung von Multimediadaten dar.
In unserem Kontext geht es darum, die Verwaltung