Indian Summer School (ISS) 2017. LOD and Semantic Web: A New Frontier for DH, 10.-13.10.2017, Mainz

Deadline für die Bewerbung um die ca. 15 frei zur Verfügung stehenden Plätze ist der 31. Juli 2017. Eine tolle Initiative der ADW Mainz und mainzed! Mehr Infos auf der Webseite: https://iss.adwmainz.net/2017

Quelle: http://digihum.de/2017/06/indian-summer-school-iss-2017-lod-and-semantic-web-a-new-frontier-for-dh-10-13-10-2017-mainz/

Weiterlesen

Workshop: Digitale Geschichtswissenschaft und Semantic Web [Journées „Histoire numérique et web sémantique“], Brest, 9-11 mai 2017

Ich möchte gerne auf diese Tagung in Brest in der kommenden Woche hinweisen, da sie sich thematisch genau im Zentrum dieses Blogs befindet und zudem Francesco Beretta, der auch schon einmal zu einem von mir organisierten Workshop zu diesem Thema in Göttingen war, sein Projekt einer Ontologie für die Historische Forschung dort ausführlich vorstellt. Tagungssprache ist sicherlich französisch. Hier der Ankündigungstext aus einem Post der französischen DH-Liste:
————————–
La Maison des sciences de l’Homme de Bretagne, le Centre François Viète, le Lab-STICC, le Centre européen de réalité virtuelle et le LARHRA organisent à Brest en collaboration avec la Maison des sciences de l’Homme de Bretagne du 9 au 11 mai 2017 les journées „Histoire numérique et web sémantique“.

Ces journées sont destinées aux participants du groupe de travail pour la constitution du consortium „Données pour l’histoire“. Ce groupe est ouvert à toute personne intéressée par l’histoire numérique et la modélisation des données, n’hésitez pas à nous contacter :
Aurélie Hess : aurelie.hess(at)univ-ubs.fr / Vincent Alamercery : vincent.alamercery(at)ens-lyon.fr



[...]

Quelle: http://digihum.de/2017/05/workshop-digitale-geschichtswissenschaft-und-semantic-web-journees-histoire-numerique-et-web-semantique-brest-9-11-mai-2017/

Weiterlesen

Bericht von der Tagung „Digital Scholarly Editions as Interfaces“ in Graz, 23.-24.9.16

Graz ist immer eine Reise wert. Seit es das Zentrum für Informationsmodellierung an der dortigen Universität gibt, ist fast umungänglich geworden mindestens einmal im Jahr dort vorbei zu schauen. Eine gute Gelegenheit dazu war die Tagung „Digital Scholarly Editions as Interfaces„, die vom 23. bis 24. September 2016 in Graz direkt vor der TEI Tagung in Wien stattfand. Mit über 100 Anmeldungen war die Tagung gut besucht und vor allem auf der Seite der Redner sehr international besetzt. Tagungssprache war Englisch. Gesponsert und auch organisiert wurde die Veranstaltung von dixit, dem „Digital Scholarly Editions Initial Training Network“. Ich erlaube mir im folgenden nur meine „persönlichen“ Highlights herauszupicken und näher zu besprechen. Das Niveau der Vorträge war insgesamt hoch und die Teilnahme auf jeden Fall ein Gewinn.

[...]

Quelle: http://digihum.de/2016/09/bericht-von-der-tagung-digital-scholarly-editions-as-interfaces/

Weiterlesen

#GDDH16: Darko Vitek & Davor Lauc (Zagreb): Inferring standard name form, gender and nobility from historical texts using stable model semantics, 30.5.16

The talk will take place on Monday, May 30th at 4pm in Room 0.142, Geiststraße 10, 37073 Göttingen.

Quelle: http://digihum.de/2016/05/gddh16-darko-vitek-davor-lauc-zagreb-inferring-standard-name-form-gender-and-nobility-from-historical-texts-using-stable-model-semantics-30-5-16/

Weiterlesen

E-Learning 3.0 = E-Learning 2.0 + Web 3.0?, in: Journal of Research & Method in Education 09/2013, v. Fehmida Hussain

http://dx.doi.org/10.9790/7388-0333947 Web 3.0, termed as the semantic web or the web of data is the transformed version of Web 2.0 with technologies and functionalities such as intelligent collaborative filtering, cloud computing, big data, linked data, openness, interoperability and smart mobility. If web 2.0 is about social networking and mass collaboration between creator and user, then […]

Quelle: http://www.einsichten-online.de/2015/02/5666/

Weiterlesen

Einführung in Semantic-Web-Technologien auf openHPI

Angesichts der großen Bedeutung semantischer Auszeichnungen von Online-Inhalten für die digitalen Geisteswissenschaften ist es zu begrüßen, dass das Hasso-Plattner-Institut einen frei zugänglichen “Massive Open Online Course” zum Thema “Knowledge Engineering with Semantic Web Technologies” anbietet. Die MOOC-Plattform openHPI wurde kürzlich einem Relaunch unterzogen, so dass die Nutzung noch komfortabler wird. Der in englischer Sprache angebotene Kurs umfasst u. a. Video-Vorträge, Lesematerialien, Verweise auf einschlägige Online-Informationen und Testaufgaben. Auch wenn Nicht-Informatiker von Teilen des Kurses vor beträchtliche Herausforderungen gestellt werden: Die Hinführung zur Materie erfolgt ziemlich anschaulich und anhand von diversen Online-Beispielen. Man muss sich einmalig registrieren, kann dann aber nach Belieben an Tests teilnehmen oder auch nicht. Selbst wenn man nur in ausgewählten Bereichen herumstöbert und Informationen zu einzelnen Themen auswertet, kann der Besuch sehr lohnend sein.

Das vom 26. Mai bis zum 15. Juli 2014 laufende Lernangebot ist erreichbar über die Kursübersicht auf openHPI.

Quelle: http://dhmuc.hypotheses.org/158

Weiterlesen

Interoperationalität und semantisches Web für Mediävisten. Bericht zur Training School “Transmission of texts. New tools, new approaches” am IRHT Paris (31. März – 4. April 2014)

Training School am IRHT (Foto: Hanno Wijsman)

Training School am IRHT (Foto: Hanno Wijsman)

Anfang April konnte ich an einem gemeinsam von der COST Action „Medioevo Europeo“, dem Institut de Recherche d’Histoire de Textes (IRHT) und dem Projekt Biblissima organisierten Digital Humanities-Seminar teilnehmen. Unter dem Titel “Transmission of texts. New tools, new approaches”(mehr Infos: hier) standen dabei vor allem Fragen der Interoperationalität und das semantische Web im Vordergrund. Anhand konkreter Praxisbeispiele wurden hier neue Ansätze und Tools vorgestellt, die sich teilweise noch in der Entwicklung befinden, die aber zugleich auf sehr viel hoffen lassen. Damit verbunden war eine ebenfalls sehr praxisorientierte Einführung in TEI-XML und RDF.

Die Training School bot eine ganze Woche lang jeden Tag von 9 bis 19 Uhr ein intensives Programm. Von daher kann ich leider nicht alles wiedergeben, was ich hier gesehen und gelernt habe. Ich versuche aber mal, zumindest die Highlights zusammenzufassen, die ich mir notiert habe. Wer weitere Fragen hat, kann sich gerne an mich wenden.

Wichtiger Bestandteil des Programms war natürlich die Vorstellung der Beteiligten und deren Projekte. Nicht zuletzt, weil hier auch genau mit jenen Hilfsmitteln und Methoden gearbeitet wird, die im Rahmen der Training School vorgestellt wurden. Die Bedeutung der Interoperationalität und die Funktionsweise des semantischen Webs ließen sich so direkt am konkreten Beispiel nachvollziehen.

Sismel / Trame

Da ist einerseits das italienische Projekt TRAME, das am SISMEL in Florenz beheimatet ist, einer der Stützen der COST Action. Ziel von TRAME ist es, eine Metasuchmaschine für alle Datenbanken und -repositorien zu konstruieren, die Informationen zu mittelalterlichen Handschriften enthalten (Digitalisate, Kodikologie, Textgeschichte).

IRHT

Hauptveranstalter der Training School jedoch war das IRHT, in dessen Räumen auf der Avenue de Iéna auch die meisten Veranstaltungen stattfanden. Leider ist das IRHT in Deutschland kaum bekannt, was wirklich schade ist. Denn das auf die Erforschung alter Handschriften und Texte und deren (Überlieferungs-)Geschichte spezialisierte IRHT ist eine geradezu unglaubliche Einrichtung. Seit seiner Gründung in den 1930er wird hier alles gesammelt, was sich in Frankreich und weltweit zu Handschriften und alte Texten finden lässt. Organisiert ist das IRHT in 13 Sektionen, die gemeinsam alle hierzu notwendige Expertise unter einem Dach zusammenfassen. Die Bandbreite reicht von der Latinistik, Romanistik, Arabistik, Graezistik und Hebraistik, über Kodikologie, Bibliotheksgeschichte und Heraldik, Lateinische Paläographie und Diplomatik bis hin zu Handschriftenilluminationen. Dabei verfügt jede Sektion über eine herausragende Bibliothek, die jedes Forscherherz höher schlagen lässt. Wo sonst findet man z.B. sämtliche Handschriftenkataloge sowie Ausstellungs- und Auktionskataloge an einem Ort versammelt? Schließlich bietet das IRHT auch immer wieder Schulungen an, um Doktoranden und andere Interessierte im Umgang mit Handschriften auszubilden. Vielleicht wird ja die Direktorin des IRHT ihr Haus alsbald einmal auf dem DFMFA-Blog vorstellen.

Auf alle Fälle lohnt es sich, diese Institution einmal näher anzusehen. Nicht zuletzt, weil die über Jahrzehnte gesammelten Informationen zu Texten, Handschriften, Buchbesitzern etc., die bis vor kurzem noch allein in den vielen Zettelkästen des IRHT einsehbar waren, nun sukzessive online gehen. Dazu gehören auch die 76.000 Mikrofilme und digitale Reproduktionen von Miniaturen und Handschriften, die in Bibliotheken jenseits der Pariser Nationalbibliothek lagern. Interoperationalität spielt dabei eine große Rolle, denn all die verschiedenen Datensammlungen des IRHT sind miteinander verlinkt.

Rückgrat der Architektur ist die Datenbank MEDIUM, in der man früher noch die am IRHT vorhandenen Mikrofilme gesucht hat. Heute findet man hier alle Handschriftensignaturen verzeichnet, zu denen am IRHT Informationen zu finden sind. Die Handschriftensignaturen bilden sozusagen den Primärschlüssel zu dem ganzen System. Entsprechend kann man auch nach den Signaturen suchen. Oder aber, unter Verwendung der recherche avancée, den Bestand auch nach Eigenschaften wie Sprache, Dekoration usw. filtern. Die einzelnen Handschriften in MEDIUM sind dann wiederum mit den entsprechenden Angaben in den weiteren Datenbanken verlinkt, die da sind (in Auswahl):

  • Jonas: Katalog mittelalterlicher französischsprachiger Texte und Handschriften weltweit, durchsuchbar nach Autor, Titel und Signatur, einschließlich Texttradition und Bibliographie. Die Datenbank ist natürlich nicht komplett (zumindest was mein Thema angeht), aber man kann hier schon eine Menge finden und sie wird ständig erweitert. U.a. im Rahmen eines laufenden Katalogisierungsprojektes zu den bisher weitgehend noch unbekannten französischen Beständen der Bibiliotheca Vaticana (ca. 400 Handschriften!).
  • Bibale: Informationen zur Provenienz der Handschriften vom Mittelalter bis heute. Hier ist es möglich, anhand der Besitzvermerke, alter Signaturen, ex libris, Besitzerwappen, Inventare, Einbände usw. die Provenienz einer einzelnen Handschrift zu ermitteln oder auch ganze historische Bibliotheksbestände zu rekonstruieren.
  • Initiale: kunsthistorische Analyse dekorierter und illuminierter Handschriften und Inkunabeln.
  • Pinakes: Griechische Texte und Handschriften.

Die einzelnen Angaben wiederum sind mit der BVMM verbunden, der virtuellen Bibliothek mittelalterlicher Handschriften in französischen Bibliotheken (außer BnF) mit Bildern aus über 10.000 Handschriften, von denen hier über 3000 als vollständiges Digitalisat zu finden sind. Der Viewer erlaubt es dabei, auch mehrere Bilder gleichzeitig anzuzeigen und miteinander zu vergleichen.

Biblissima – das Megaprojekt

Biblissima, der dritte Partner der Training school, ist in der Tat ein wahres Megaprojekt. Wenn man sieht, was die BnF (einer der Partner) mit ihrer Digitalisierungsinitiative und Gallica bereits auf die Beine gestellt hat, kann man sicherlich davon ausgehen, dass auch dieses Projekt wie geplant auch umgesetzt wird. Biblissima soll nämlich nichts anderes als die „Bibliothek der Bibliotheken“ des 21. Jahrhunderts werden. So etwas wie eine, oder besser, die Metabibliothek, in der alle handschriftenrelevanten Daten der beteiligten Institutionen zugleich und miteinander kombiniert anzeigbar und durchsuchbar sein werden. Und das meint:

  • Digitialisate,
  • digitale Editionen
  • und Metadaten aus Forschungsdatenbanken (Handschriftenbeschreibungen, Ikonographie, Einband, Inkunabeln, etc.).

Während heutzutage jede Handschriftenbibliothek für ihre Bild- und Metadaten ein eigenes Format verwendet und die Bilder und Informationen der einzelnen Einrichtungen somit – um auf das in den Präsentationen immer wieder gebrauchte Bild zurückzugreifen – wie in einzelnen Silos lagern, die nicht mit einander kommunizieren können, soll Biblissima es ermöglichen, all diese Bilder und Daten miteinander in Kontakt zu bringen. Dafür wird auf ein gemeinsam mit Stanford entwickeltes Format (IIIF) und auf eine gemeinsame Technologie für die Viewer (Shared Canvas) zurückgegriffen. Letztere besteht darin, die einzelnen Handschriftenseiten als Grundlage zu nehmen. Diese werden dabei a priori als freie Fläche definiert, auf der man dann alle möglichen Informationen als einzelne Datenschichten ablegen kann: Digitalisate, digitale Editionen, Informationen zu Text und Handschrift, zu den Miniaturen, Schwarzlichtfotos, was auch immer. Wer schon einmal einen ersten Blick darauf werden möchte, findet hier ein Demo: http://demos.biblissima-condorcet.fr/mirador/ (nähere Infos dazu: hier).

Mit Biblissima soll es dann möglich sein, zu einer Handschriftenseite oder zu einer ganzen Handschrift (selbst wenn deren Teile getrennt über mehrere Bibliotheken verteilt sind) alle erreichbaren Informationen in ein und demselben Viewer gemeinsam anzeigen zu lassen. Dies kann auch mit mehreren Handschriften gleichzeitig geschehen, wenn man diese z.B. miteinander vergleichen möchte.

Für den Anfang sollen hier die virtuellen Bibliotheken der BnF (Gallica), die oben erwähnte BVMM des IRHT sowie die BVH (Les bibliothèques virtuelles humanistes der Universität Tours) miteinander verbunden werden. Aber auch die British Library und mehrere amerikanische Bibliotheken sind mit dabei. Die Datenpools speisen sich aus den genannten Datenbanken des IRHT, den Metadaten der BnF und weiteren Quellen – die aktuelle Liste umfasst ca. 50 Einzeldatenbanken.

Begleitet werden soll das Ganze durch eine Auswahl frei zur Verfügung stehender Arbeitsinstrumente für die Erstellung digitaler Editionen und deren Analyse. Zudem gibt es auf der Seite von Biblissima bald ein Toolkit, das die verschiedenen im Netz vorhandenen Datenbanken und Tools zusammenfasst und nach verschiedenen Kriterien filtern lässt.

Das Ganze ist natürlich ein Musterbeispiel für die Möglichkeiten des semantischen Webs. Aktuell wird hierfür der Thesaurus und eine Ontology speziell zur Beschreibung von Handschriften und deren Überlieferung erstellt, wobei das RDF-Framework auf CIDOC-CRM und FRBRoo basiert. Wie genau so etwas passiert, das wurde in einem der Praxisteile des Seminars gezeigt … und geübt.

Der Praxisteil: Interoperationalität und semantisches Web mit TEI-XML und RDF

Die 20 Teilnehmer aus insgesamt 14 Ländern haben also nicht nur die schöne neue Welt von morgen präsentiert bekommen, sondern auch ganz konkret erfahren und üben können, wie das alles funktioniert. Und zwar immer anhand der laufenden Arbeiten in den verschiedenen Projekten der beteiligten Institutionen. So wurde für die Markierung von Texten nach TEI- Richtlinien an alten Bibliotheksinventaren gearbeitet, auf deren Grundlage man am IRHT den Bestand der historischen Bibliotheken von Chartres rekonstruiert und mit den Resten abgleicht, die nach dem Bombardierung der Bibliotheque municipale von Chartres während des Zweiten Weltkriegs übrig geblieben sind. Verwendet wurde dabei der XMLmind_XML_Editor, der entsprechend angepasst wurde und der wohl auch dem XML-Editor im Toolkit von Biblissima zugrundeliegen wird.

Methoden und Tools zur Arbeit mit RDF im semantischen Web (Thesaurus erstellen, RDF-Triples formulieren und auf URI‘s verweisen, SPARQL-Abfragen erstellen) wurde uns wiederum am konkreten Beispiel des Biblissima-Projektes vorgeführt, bevor wir es dann auch selbst für unsere eigenen Projekte ausprobieren konnten.

Die Erstellung digitaler Editionen, insbesondere des kritischen Apparats (Varianten und Kommentare), wurden am letzten Tag schließlich anhand des nicht minder beeindruckenden Projektes SourcEncyMe geübt, einer kollaborativen Onlineplattform zu mittellateinischen Enzyklopädien und der Identifikation ihrer Quellen, die bisher noch unveröffentlicht ist. Dominique Poirel hat darüber hinaus in die verschiedenen Möglichkeiten zur Erstellung von Stemmata eingeführt. Wie sich das Ganze dann anhand TEI-encodierter Texte zumindest semi-automatisch umsetzen und graphisch aufbereiten lässt, hat anschließend Dominique Stutzmann gezeigt. Er selbst leitet die Lateinische Paläographie am IRHT und hatte am Tag zuvor sein eigenes digitales Projekt Oriflamms vorgestellt, das ebenfalls nicht unerwähnt bleiben soll. Hier geht es um die Möglichkeiten der automatischen Texterkennung für mittelalterliche Handschriften, wobei das Projekt schon beachtliche Resultate erzielt. Eine genauere Projektvorstellung gibt es voraussichtlich im nächsten Semester im Münsteraner „Forschungskolloquium Mittelalter (400-1500)“.

Fazit

Alles in allem war das, was während der 5 Tage am IRHT und bei Biblissima gezeigt und vorgeführt wurde, eine beeindruckende Demonstration des State of the art. Gerade der Umstand, dass die beiden Leitmotive Interoperationalität und semantisches Web hier immer wieder am praktischen Beispiel in ihrer ganzen Bedeutung fassbar wurden, war für mich eine der wichtigsten Erfahrungen dieser Training School. Das einzige, wovon ich mir noch mehr gewünscht hätte, waren die praktischen Übungen. Denn gerade durch die Arbeit mit Material aus den laufenden Projekten wurden Funktion und Sinn der einzelnen Methoden und Tools erst richtig erfahrbar. Die im Titel angekündigten new tools und new approaches haben sich im Programm der Training School damit aufs Beste miteinander verbunden.

Was mich letztlich zu der Frage bringt, wie es eigentlich mit ähnlich gelagerten Projekten in Deutschland aussieht. Vielleicht könnte man einmal eine Übersicht auch zu aktuellen mediävistischen DH-Projekten und Planungen in Deutschland hier auf dem DigiGW-Blog zusammenzustellen. Sehr gute Initiativen zur digitalen Rekonstruktion historischer Bibliotheken wie das Virtuelle Skriptorium St. Matthias in Trier, weitreichende Digitalisierungsinitiativen wie die der BSB und Metakataloge wie die Manuscripta medievalia gibt es ja auch hier. Und ich habe den Eindruck, dass sich da auch gerade einiges tut. Diese alle einmal in einem Überblick zusammenzufassen und vorzustellen wäre sicherlich sehr spannend und könnte gleichzeitig dazu beitragen, die Digitalen Geschichtswissenschaften bzw. die digitale Mediävistik und all das, was damit in Zukunft möglich wird, auch hier noch sichtbarer und bekannter zu machen.

 

Quelle: http://digigw.hypotheses.org/723

Weiterlesen

Semantische Technologien

semantic-media-web

Die Fachtagung “Semantische Technologien - Verwertungsstrategien und Konvergenz von Metadaten” befasste sich vom 26. bis 27. September 2013 mit der Nutzbarkeit semantischer Technologien für die Kultur- und Medienbranche. Thematisiert wurden Institutionen wie Verlage, Museen und Bibliotheken sowie die Bereiche Projektdokumentationen, Werbung und Marketing.

Der rückblickende Tagungsbericht stellt die zentralen Fragestellungen, Probleme und Chancen des semantischen Internet dar.

 

Quelle: http://dhd-blog.org/?p=2447

Weiterlesen

Wissen suchen, finden und vernetzen – die Fachtagung “Semantische Technologien“ im Rückblick

Titelbild "Semantic Media Web"

Titelbild “Semantic Media Web”

Unter dem Titel „Verwertungsstrategien und Konvergenz von Metadaten” organisierten das deutsch-österreichische W3C-Büro und die Xinnovations e. V. in Zusammenarbeit mit dem Innovationsforum Semantic Media Web vom 26. bis 27. September 2013 in Berlin die Fachtagung “Semantische Technologien”, die sich mit der Nutzbarkeit semantischer Technologien für die Kultur- und Medienbranche befasste. Dabei waren Institutionen im Allgemeinen, wie Verlage, Museen und Bibliotheken, ebenso Thema wie die Bereiche Projektdokumentationen, Werbung und Marketing im Speziellen.

Der Umfang des im Internet verfügbaren Fachwissens ist in den letzten Jahren immens gewachsen, jedoch zu wenig sortiert und aufbereitet, um gut damit arbeiten zu können. Hier setzen die Technologien des semantischen Internet, genannt Web 3.0, an. Sie sollen Inhalte jeglicher Art durch Metadaten kategorisieren und in Hierarchien einordnen, um eine (möglichst einheitliche) Verknüpfung des verfügbaren Wissens und damit dessen bessere Zugänglichkeit und Anwendbarkeit zu ermöglichen.

Zentrale Fragestellung der Konferenz war es, die Möglichkeiten der Umsetzung und Nutzung solcher semantischer Daten, die Beziehungen, Kontexte und Bedeutungen von Daten erzeugen, für Kultur- und Medienbetriebe aufzuzeigen. Genutzt wird deren Aufbereitung z.B. bereits von der Deutschen Nationalbibliothek und dem Bundesarchiv, um ihre Wissensressourcen im Internet zur Verfügung zu stellen und Recherchen zu erleichtern. Die Querverlinkungen helfen hier, sich Überblick über komplexe Themenfelder und verwandte Beiträge, Bücher oder Dokumente zu verschaffen. Auch stehen die Digitalisierung von Museums- oder Archivsammlungen, wirtschaftliche Bereiche wie Bestandsaufnahmen und Vertrieb sowie bei Bibliotheken die Aufbereitung für Online-Kataloge im Mittelpunkt. Hier bringt die Nutzung semantischer Metadaten viele Vorteile und Vereinfachungen des Workflows mit sich, wie die Referenten der Fachkonferenz darlegten. Zu ihnen gehörten Alexander Haffner (Deutsche Nationalbibliothek) und Ina Blümel (TIB Hannover) als Bibliotheksvertreter, Dr. Jana Kittelmann (Stiftung Fürst-Pückler-Museum Park & Schloss Branitz) mit dem Schwerpunkt Archiv, Antoine Isaac als Stellvertreter von Europeana sowie Bettina de Keijzer (Verlag de Gruyter), Steffen Meier (Verlag Eugen Ulmer, Arbeitskreis elektronisches Publizieren des Börsenverein des Deutschen Buchhandels) und Ronald Schild (Marketing- und Verlagsservice des Buchhandels GmbH), die sich mit dem Thema Verlag & Buchhandel beschäftigen.

In den Beiträgen und Diskussionen wurde deutlich, dass die übergreifende Verknüpfung semantisch aufbereiteter Daten über einzelne Firmen und Institutionen hinaus noch kaum Anwendung findet. Dabei sollen neben basic data wie Autor oder Umfang eines Buches die Inhalte selbst systematisiert werden, um die Nutzung von weiterreichenden, sogenannten enhanced Data, zu ermöglichen und zum Ausgleich Wissen, Kundensympathie oder wirtschaftlichen Output zurückzubekommen. So machte Roland Schild deutlich, dass Verlage z.b. ihren Service im Social Web mit Semantik verbessern können, um ihren Kunden bei der Suche nach ähnlichen Produkten und auf diese Weise sich selbst bei der Umsatzsteigerung zu helfen. Hierfür wird das Semantic Web bisher aber kaum genutzt.

Zugleich gibt es zwischen Verlagen und Bibliotheken nur wenig Zusammenarbeit in Bezug auf die einheitliche Zuordnung von Büchern und deren Inhalten zu festen semantischen Begrifflichkeiten oder Kategoriesystemen. Gleiches gilt für Archive oder Museen, die ihre Sammlungen digitalisieren. Auch sie behandeln die weiteren Kontexte der Exponate meist nur marginal und verwenden keine über-institutionellen semantischen Begriffssysteme. Solche könnten helfen, beispielsweise passende Stücke für Sonderausstellungen oder fachliche Zusatzinformationen zu Vergleichsbeispielen oder historischen Kontexten zu finden. Interessant können Metadaten auch für die Dokumentation von Projektprozessen sein, um die Auswertung und das Vermeiden von Fehlern zu verbessern. Beispielhaft präsentierte Prof. Dr.-Ing. Ernesto De Luca hierfür das Projekt SemRes, das Semantic für die tägliche Arbeit von Restauratoren nutzbar macht, um diese zugunsten der späteren Nachvollziehbarkeit dauerhaft zugänglich und leichter austauschbar zu gestalten.

Für die Erstellung und Etablierung solcher Schlagwort-Hierarchien, die allgemeingültig sein und damit von Bibliotheken, Verlagen, Museen und Wissenschaftlern gleichermaßen verstanden und genutzt werden sollen, gibt es bereits Ansätze. U.a. von W3C (World Wide Web Consortium) wurden grundlegende semantische Systeme entwickelt, die jede Institution für die eigenen Projekte nutzen kann. Forschungen kommen bisher vor allem aus Philologie und Linguistik und setzen sich mit dem Stand von Mehrsprachigkeit, Begriffsbedeutungen und eindeutiger Verständlichkeit auseinander, stellen in Bezug auf computerlinguistische Semantik derzeit aber noch ein recht kleines Forschungsfeld dar. Ein Desiderat sind die Auseinandersetzung mit diesem Problem in den einzelnen Fachbereichen und die Entwicklung von entsprechenden Thesauri. Hier ist es den Fachwissenschaftlern besser möglich, ihr Wissen zu systematisieren, als Experten aus der Sprachforschung oder Informatik ohne umfangreiche Kenntnisse der jeweilgen Wissenschaft.

Nutzbar ist semantische Aufbereitung auch für Bilder und Videos im Kontext von Marketing und Medien, Marken- und Konkurrenzanalysen. Dies ist für jede Institution interessant, die Videos oder Fotos für Ausstellungen oder PR benutzt. Wenn sie inhaltlich Ausstellungen, Aufführungen oder Publikationen zugeordnet werden können, erhöht sich ihre Nutzbarkeit. Beispielhaft präsentierte Felix Daub von Klickfilm die semantische Verknüpfung von Inhalten eines Videos mit Produkten oder Websites, um interessierte Kunden direkt anzusprechen. Dies kann mit Büchern ebenso geschehen, wie mit Sehenswürdigkeiten, Kunst oder historischen Hintergrundinformationen. Interessant sind auch semantische Websites, wie sie Dr. Thomas Hoppe von der Ontonym GmbH in der Theorie und Armin Berger von der 3pc GmbH in der Praxis präsentierten. Hierbei werden die Inhalte über Schlagworte und Kontexte in Erzählsträngen dargestellt und dem Besucher die Möglichkeit gegeben, diese je nach den eigenen Interessen selbst zu erforschen. Dieses Storytelling eignet sich besonders für Kulturinstitutionen, die damit ihre eigene Geschichte ebenso wie die Hintergründe einzelner Ausstellungen, Stücke oder Werke umsetzen können. Zugleich können auch bei Apps mehrdimensionale Datenstrukturierungen anschaulich gemacht und Zusammenhänge über mehrere Punkte erklärt werden. Diese Möglichkeiten sind aber noch in der Entwicklung begriffen und vor allem in Bezug auf dynamische, regelmäßige befüllte Webseiten noch nicht ausgereift.

Insgesamt machte die Tagung die Nutzungsmöglichkeiten des Semantic Web für Kulturunternehmen zwar deutlich, zeigte aber auch die noch vielfach bestehenden Probleme auf. Dies liegen derzeit primär in der Entwicklung von einheitlichen Hierarchien und Begrifflichkeiten sowie der daran geknüpften automatisierten Aufbereitung semantischer Daten und Verknüpfung der Projekte einzelner Institutionen. Auch die Aufbereitung und Anwendbarkeit semantischer Daten in Forschungs- oder Kultureinrichtungen für spezifische Inhalte und nicht-textuelle Digitalisate stellen noch große Komplikationen dar und sind ohne zusätzliches Budget und informatische Fachkenntnisse bisher kaum umsetzbar. Deutlich wurde dies an den Teilnehmern und Diskussionen der Fachtagung, die sich vorrangig mit Computerlinguistik und Programmierung beschäftigten. So wurde bereits das Web 4.0 als Pragmatic Web thematisiert, während es gerade in den Kultur- und Geisteswissenschaften vielfach noch Probleme beim richtigen Umgang mit dem Web 2.0 und größere Schwierigkeiten beim Zugang zur Anwendbarkeit des Web 3.0 gibt.

Quelle: http://kristinoswald.hypotheses.org/1102

Weiterlesen