DARIAH-DE Ausschreibung: Fünf Fellowships für (digitale) GeisteswissenschaftlerInnen.

Im Rahmen der DH-Nachwuchsförderung sollen über die Ausschreibung von fünf DARIAH-DE Fellowships innovative sowie individuelle Ansätze und Projekte in den digitalen Geisteswissenschaften gefördert werden. Die Ausschreibung läuft bis zum 30.09.14!

Das Programm richtet sich an DoktorandInnen/PostDocs aus den Feldern den Geistes- und Kulturwissenschaften, den Informationswissenschaften oder der Informatik, die sich im Rahmen ihrer Qualifikationsarbeiten mit einem Digital Humanities-Forschungsthema beschäftigen. Dabei soll besonders die Anfangskonzeption der Qualifikationsrbeit oder die Abschlussphase unterstützt werden.

Die insgesamt fünf geförderten Personen forschen in einem Zeitraum von drei bis sechs Monaten in Forschungsfeldern der Digital Humanities, mit Unterstützung aus den Forschungsclustern des DARIAH-Programms. Die durchgeführte Forschung und deren Fortentwicklung, eine Vernetzung verschiedener geistes- und kulturwissenschaftlicher Fachdisziplinen, die Förderung des Austausches von Ressourcen, Methoden bzw. Forschungsdaten und Erfahrungen durch den Aufbau einer digitalen Forschungsinfrastruktur sollte in den Forschungsvorhaben eine besondere Rolle spielen.

Die BewerberInnen sollten ein eigenständiges Forschungsprojekt einreichen, das an einen der folgenden Forschungsschwerpunkte von DARIAH-DE anknüpfungsfähig ist:

  • Wissenschaftliche Begleitforschung
  • elektronische Infrastrukturen
  • Wissenschaftliche Sammlungen
  • Big Data in den Geisteswissenschaften
  • Fachwissenschaftliche Annotationen

Über die Auswahl der Fellows entscheidet bis 30. November 2014 eine Jury, die sich aus Vertretern des Exekutivkomitees sowie des wissenschaftlichen Beirats von DARIAH-DE und aus Experten aus den Feldern Open Science und Open Data zusammensetzt.

Die erfolgreichen Bewerber erhalten für den beantragten Zeitraum (3 bis 6 Monate) eine 50% TV-L E13 Anstellung. Neben der kontinuierlichen Fortführung der Qualifikationsarbeit ist eine aktive Teilnahme an den Aktivitäten des Clusters sowie der Plattform DARIAH-DE und den DARIAH-DE Veranstaltungen erwünscht. Nach Ende der Fellowships sind die erreichten Ziele in einem Bericht (max. 5 Seiten) zu dokumentieren.

Jetzt bis 30.09.14 bewerben! Mehr Informationen finden Sie hier oder via Mail an: fellowship@de.dariah.eu.

Quelle: http://dhd-blog.org/?p=3848

Weiterlesen

DARIAH-DE Ausschreibung: Fünf Fellowships für (digitale) GeisteswissenschaftlerInnen.

Im Rahmen der DH-Nachwuchsförderung sollen über die Ausschreibung von fünf DARIAH-DE Fellowships innovative sowie individuelle Ansätze und Projekte in den digitalen Geisteswissenschaften gefördert werden. Die Ausschreibung läuft bis zum 30.09.14!

Das Programm richtet sich an DoktorandInnen/PostDocs aus den Feldern den Geistes- und Kulturwissenschaften, den Informationswissenschaften oder der Informatik, die sich im Rahmen ihrer Qualifikationsarbeiten mit einem Digital Humanities-Forschungsthema beschäftigen. Dabei soll besonders die Anfangskonzeption der Qualifikationsrbeit oder die Abschlussphase unterstützt werden.

Die insgesamt fünf geförderten Personen forschen in einem Zeitraum von drei bis sechs Monaten in Forschungsfeldern der Digital Humanities, mit Unterstützung aus den Forschungsclustern des DARIAH-Programms. Die durchgeführte Forschung und deren Fortentwicklung, eine Vernetzung verschiedener geistes- und kulturwissenschaftlicher Fachdisziplinen, die Förderung des Austausches von Ressourcen, Methoden bzw. Forschungsdaten und Erfahrungen durch den Aufbau einer digitalen Forschungsinfrastruktur sollte in den Forschungsvorhaben eine besondere Rolle spielen.

Die BewerberInnen sollten ein eigenständiges Forschungsprojekt einreichen, das an einen der folgenden Forschungsschwerpunkte von DARIAH-DE anknüpfungsfähig ist:

  • Wissenschaftliche Begleitforschung
  • elektronische Infrastrukturen
  • Wissenschaftliche Sammlungen
  • Big Data in den Geisteswissenschaften
  • Fachwissenschaftliche Annotationen

Über die Auswahl der Fellows entscheidet bis 30. November 2014 eine Jury, die sich aus Vertretern des Exekutivkomitees sowie des wissenschaftlichen Beirats von DARIAH-DE und aus Experten aus den Feldern Open Science und Open Data zusammensetzt.

Die erfolgreichen Bewerber erhalten für den beantragten Zeitraum (3 bis 6 Monate) eine 50% TV-L E13 Anstellung. Neben der kontinuierlichen Fortführung der Qualifikationsarbeit ist eine aktive Teilnahme an den Aktivitäten des Clusters sowie der Plattform DARIAH-DE und den DARIAH-DE Veranstaltungen erwünscht. Nach Ende der Fellowships sind die erreichten Ziele in einem Bericht (max. 5 Seiten) zu dokumentieren.

Jetzt bis 30.09.14 bewerben! Mehr Informationen finden Sie hier oder via Mail an: fellowship@de.dariah.eu.

Quelle: http://dhd-blog.org/?p=3848

Weiterlesen

Richard-Strauss-Quellenverzeichnis (RSQV)

http://rsqv.gwi.uni-muenchen.de Das Richard-Strauss-Quellenverzeichnis (RSQV) ist ein musikwissenschaftliches Online-Projekt. Unser Ziel ist es, sämtliche weltweit erreichbaren Quellen zum Werk des Komponisten Richard Strauss nach neuesten technischen und wissenschaftlichen Standards zu verzeichnen. Die Quellen werden anhand verschiedenster Kriterien erschlossen: enthaltene Werke, Schreiber, Widmungsträger, Besitzer, Standort, Signatur, Umfang, Format, Datierung u.a. Die RSQV Datenbank ist ein modernes, effizientes […]

Quelle: http://www.einsichten-online.de/2014/07/5244/

Weiterlesen

Digital Humanities 2014 Lausanne

…schon wieder vorbei…

Der mit grosser Kelle angerührte und professionel durchgeführte Anlass vom 7-12 Juli 2014 hat über 700 Personen aus aller Welt nach Lausanne gelockt. Ein umfangreiches Programm bot den Teilnehmern sehr viele Möglichkeiten zum Wissensaustausch und persönlichem Kontakteknüpfen.

Gedanken zu zwei von mir besuchten Workshops:

Leveraging Web Archiving Tools for Digital Humanities Research and Digital Exhibition

(Mo, 9-12)

Der von Scott Reed Der von Scott Reed (von archive.org) geleitete Workshop behandelte die wichtigsten Fakten zu archive.org, Erklärungen zum Anlegen eines Webarchives sowie das selbständige Erstellen eines solchen durch die Teilnehmer.Meine Test-Webseiten umfassten pastperfect.univie.ac.at (interaktive Webseite zu), pennystocks.la/internet-in-real-time (sich alle paar Sekunden selbst aktualisierende Webseite mit Fakten über das Internet), parlamentsgeschichte.ch (interaktive Webseite zur Geschichte der Schweizer Parlamente und historypin.com (kollaborative Webseite zur Erstellung von Geschichtsschnippseln auf einer Landkarte). Mein Ziel war es herauszufinden, wie dynamischer Content archiviert werden kann (wenn überhaupt).Der Anfangsverdacht wurde bestätigt, dass interaktive Webseiten (v.a. mit javascript oder datenbankbasiert) sehr schlecht oder gar nicht archiviert werden können. Scott Reed bestätigte dies und merkte an, dass archive.org daran arbeitet diese Lücke zu schliessen. Es wird aber kaum je möglich sein alle verschiedenen Formate, Strukturen etc einer Webseite 1:1 zu archivieren.Dieses Problem hat schon Niels Brügger formuliert. Seiner Ansicht nach (und ich pflichte ihm bei), ist es nicht möglich ein Dokument des Internets zu archivieren, sondern nur ein Dokument über das Internet. Bspw. stellt eine archivierte Webseite durch fehlende Verlinkungen oder ‘willkürlich’ eingebettete externe Elemente etwas dar, das es so nie gegeben hat oder nur für diesen einen Betrachter. Siehe: Brügger, Niels: Archiving Websites. General Considerations and Strategies, Aarhus 2005.

Fazit: Ein guter Einblick wie Webseiten archiviert werden (können oder eben auch nicht).

Sharing digital arts and humanities knowledge: DARIAH as an open space for dialogue

(Di, 9-16)

Der sehr interaktive Workshop zu DARIAH hatte zum Ziel die Anforderungen von Forschenden an eine digitale Forschungsumgebung zu definieren und zu priorisieren. Die Workshop-Leiter (u.a. Sally Chambers, Emiliano Degl’Innocenti und Stefan Schmunk von DARIAH) versuchten aus den Diskussionen mit den Teilnehmern herauszukristalisieren, welche nächsten Schritte das Projekt DARIAH unternehmen soll, um genau diesen Anforderungen gerecht zu werden.

Wichtig war den Teilnehmern vor allem, dass eine Plattform für den Wissensaustausch zur Verfügung steht (Infrastruktur auch als Interaktion begreifen) und dass eine Übersicht über bestehende Tools geboten wird.

Quinn Dombrowski stellte  in einem kurzen Vortrag zwischendurch das Projekt Bamboo vor (eingestellt) und versuchte den Teilnehmern Tips für solche Projekte weiterzugeben. Auch DARIAH kann von den gemachten Erfahrungen profitieren, besonders was den frühen Austausch mit potentiellen Nutzern und die Kommmunikation mit allen involvierten Personen und Institutionen betrifft. Auf ihrer Webseite bietet sie eine umfangreiche Dokumentation über das Projekt.

Fazit: Ein guter Einblick über die Möglichkeiten und Zukunft von DARIAH. Was die Forschungsumgebung im Hinblick auf Quellenkritik bietet, muss untersucht werden.

Digital Humanities 2014 Lausanne
The program of the DH Conference from 7th to 12th july 2014 offered a wide variety of possibilities for exchange of knowledge and meeting a lot of interesting people. Two workshops were very interesting: web archiving and DARIAH. In the first workshop, my suspicion was confirmed, that interactive content of websites can’t be archived. In the second one, I learnd about the aims of DARIAH and had a very interactive time with the participants.

Quelle: http://hsc.hypotheses.org/299

Weiterlesen

MUDIRA Bilddatenbank der LMU München und des Staatlichen Museums Ägyptischer Kunst München

http://mudira.gwi.uni-muenchen.de Munich Digital Research Archives ist ein im Frühjahr 2012 gestartetes Gemeinschaftsprojekt des Instituts für Ägyptologie der LMU München und des Staatlichen Museums Ägyptischer Kunst München (SMÄK), in welchem die umfangreichen Bildbestände beider Institutionen zu Altägypten digitalisiert und zugänglich gemacht werden. In der ersten (auf 2 bis 3 Jahre angelegten) Projektphase werden etwa 30.000 als Kleinbild-Diapositive […]

Quelle: http://www.einsichten-online.de/2014/06/5183/

Weiterlesen

Livestream zum Workshop “Neues Werkzeug des Historikers: Blogs und Social Media für Mediävisten”

Am 16./17. Juni 2014 findet am DHI Rom der Workshop “Neues Werkzeug des Historikers: Blogs und Social Media für Mediävisten” statt.

Auf Twitter haben Sie die Möglichkeit, unter dem Hashtag #bsmm14 Fragen an die Vortragenden zu richten oder die laufenden Diskussionen live zu kommentieren. Oder Sie richten Ihre Fragen per Mail an mittelalter.hypotheses@gmail.com.

Teil 1

https://plus.google.com/events/c35mdfopq494o0nbpbieur6uo28

Martin Baumeister (Roma): Grußwort

1. Sektion: Kommunikation

Dietmar Fischer (Berlin) / Björn Gebert (Darmstadt): Seriosität und Social Media – unvereinbar oder symbiotisch?

Diskussion

Teil 2

https://plus.google.com/events/c1eo73vo43qb25f3tjlf5k160lo

Sascha Foerster (Bonn): Wissenschaft 2.0.: Grundlagen digitaler Wissenschaftskommunikation [Praxisdemonstration]

2. Sektion: Vernetzung

Björn Gebert (Darmstadt): Mediävistische Wissenschaftsblogs – Arten und Plattformen

Diskussion

Teil 3

https://plus.google.com/events/cugruovbb4sqmhi4vinp9rllcoo

Promotionsbegleitende Blogs

Michael Schonhardt (Freiburg): ‘Ungelöste Rätsel der Entdeckergeschichte’ – Wissenschaftskommunikation zwischen Nachwuchs und Publikum

Maxi Maria Platz (Bamberg): Warum (nicht nur) Archäologie-Doktoranden bloggen sollten

Sarah Laseke (Leiden): Bloggen vor und während der Promotion: warum es sich lohnt Zeit in Social Media zu investieren

Diskussion

Teil 4

https://plus.google.com/events/cikrtig97g7a9klc4trfoa3n914

Sascha Foerster (Bonn): Publizieren mit Wissenschaftsblogs [Praxisdemonstration]

Internationalität und Interdisziplinarität

Torsten Hiltmann (Münster): Zwischen Austausch, Vernetzung und Öffentlichkeit. Experimentieren mit neuen Formen der Wissenschaftskommunikation am Beispiel von Jeunegen, DFMFA und heraldica nova

Johannes Waldschütz (Freiburg): Kooperatives Bloggen mit institutioneller Anbindung – Das Blog ‘Mittelalter am Oberrhein’ der Abteilung Landesgeschichte an der Universität Freiburg

Teil 5

https://plus.google.com/events/cdtv0pmqs497s3fcvutc85e0t6k

3. Sektion: Wissenschaftlich digital publizieren

Martin Bauch (Roma): Neue mediävistische Publikationsformen und Blogs

Klaus Graf (Aachen): Open Access, Creative Commons und das Posten von Handschriftenscans

Teil 6

https://plus.google.com/events/c5au9cf4a335v6n3m5g4pfdlgf8

4. Sektion: Institutionalisierung

Roberto Delle Donne (Napoli): Ein Zusammenspiel wissenschaftlicher Initiativen – die Zukunft digitaler Mediävistik aus den Erfahrungen von Reti medievali, einer Plattform in Italien

Tobias Wulf (Bonn): Vernetzung, Verankerung, Expansion – wohin steuert de.hypotheses.org?

Andreas Kuczera (Mainz): Digitale Nutzungsformen der Regesta Imperii Online

Martin Bauch/Karoline Döring/Björn Gebert: Schlussdiskussion

Quelle: http://mittelalter.hypotheses.org/3916

Weiterlesen

Die Veröffentlichungsform der Zukunft? Mein Lösungsvorschlag: Ein Aufsatz in Baum- und Ebenenstruktur.


Vorbemerkung der Redaktion:

Wir verstehen dieses Blog gerade auch als Experimentierkasten für eine Mediävistik 2.0, also eine interdisziplinäre Mittelalterforschung unter Einbezug digitaler Medien. Daher freuen wir uns ganz besonders über diesen Beitrag von Christian Schwaderer, der einen Aufsatz zu einem historiographischen Thema des 11. Jahrhunderts in einer für die historische Mediävistik völlig ungewohnten Form präsentieren will. Leider erlaubt die Struktur von WordPress bisher keine direkte Einbindung seiner XHTML-Datei. Öffnen Sie also parallel zur Lektüre seiner unten stehenden Erläuterungen folgende Seite

Christian Schwaderer: Gab es eine hystoria Gebhards von Salzburg?

Wir fänden es sehr erfreulich, wenn sich eine lebhafte Diskussion in den Kommentaren zu diesem Blogpost und dem sicher ungewöhnlichen Aufsatz in Baumstruktur entspannen würde.

Die Idee

Eine der größten Herausforderungen des 21. Jahrhunderts ist es, jedem und jeder genau die Information zu liefern, die er oder sie gerade braucht. Und zwar so schnell wie möglich.
In den Geisteswissenschaften ist es nach wie vor Usus, Ergebnisse in statischer Textform zu veröffentlichen. Dieses Medium – der statische Text als Buch und auf Papier – blickt auf eine jahrhundertelange Entwicklungsgeschichte zurück. Immer wieder wurde versucht, das Medium besser aufzubereiten und schneller erfassbar zu machen: So entstanden Inhaltsverzeichnisse, Zwischenüberschriften und Abstracts.
Nun ist es wieder an der Zeit, Neuerungen einzuführen.
Selbst ein auf klassische Weise gut strukturiertes Buch zwingt zum oft langwierigen Blättern und Überfliegen, wenn man sich nur für einen bestimmten Aspekt interessiert.
Wünschenswert wäre daher, dass Texte so kleinteilig gegliedert werden, dass Haupt- und Nebenpunkte klar erkennbar und ohne Zeitverlust zugänglich sind.
Hierbei müssen wir auf Möglichkeiten zurückgreifen, die uns das Papier nicht bietet, die elektronisch aber einfach umsetzbar sind.

Das alles soll das Lesen und Rezipieren einfacher und schneller machen, während es das Schreiben und Verfassen aufwendiger und fordernder macht.

Die Geisteswissenschaften verdienen ihre Daseinsberechtigung nicht zuletzt dadurch, dass sie kulturelle Zeugnisse, Informationsträger und Dokumente erschließen, auswerten und verfügbar machen.
Wie man die Möglichkeiten digitaler Medien konsequent ausschöpft, wie man Gedanken anders als in klassischer Fließtextform darstellen könnte, ist seit geraumer Zeit Gegenstand langer Diskussionen – aber den entscheidenden Impuls konnten die Geisteswissenschaften bislang nicht setzen,
Auch hier ergibt sich also ein Motivations- und Ansatzpunkt.
Persönlich formuliert: Wenn es dereinst hieße, die Mittelalterwissenschaft des frühen 21. Jahrhunderts habe zwar inhaltlich keine wesentlich neuen Ansätze hervorgebracht, aber die Art und Weise, wie Informationen in Textform gegossen und verarbeitet werden, grundlegend verändert – dann wäre zumindest ich äußerst zufrieden.

Die Umsetzung – ein Lösungsvorschlag

Mein Lösungsvorschlag ist ein Text in Baum- und Ebenenstruktur: Das Dokument enthält viel mehr Zwischenüberschriften und viel mehr Gliederungsebenen als ein Werk klassischen Zuschnitts. Der Clou ist die Ein- und Ausblendbarkeit: Leser_innen können entweder ausblenden, was sie nicht interessiert, oder zunächst alles ausblenden und anschließend nur das einblenden, was sie tatsächlich lesen wollen.
Die einzelnen Ebenen sind durch Einrückung und immer dunklere Hintergrundfarben voneinander geschieden. Wichtiges steht auf höheren Ebenen, Unwichtigeres auf niedrigeren. So ist sofort erkennbar, was zentral ist und was eine (kleinteilige) Begründung der zentralen Punkte darstellt. Platz ist nicht kostbar.
Das Dokument beginnt mit einer klaren Überschrift und einem zweistufigen Abstract: zunächst in allerknappster Form, dann etwas detaillierter. Navigation und Übersicht werden durch zwei Leisten gewährleistet: Durch die Linkleiste links gelangt man zu den einzelnen Kapiteln (jeweilige Ebenen sind ein- und ausklappbar), die Statusleiste oben gibt an, in welchem Kapitel/Abschnitt sich der Mauszeiger gerade befindet. So ist die Orientierung im Dokument stets gewährleistet.
Der Zugriff kann ebenso über Indizes funktionieren. Das Personenverzeichnis funktioniert dabei ganz herkömmlich – mit einer Ausnahme: Statt Seitenzahlen stehen interne Links mit einem „Pfad“, der angibt, wo die jeweilige Person besprochen wird. Link und Pfad machen das Durchforsten des Registers gegenüber dem gedruckten Pendant deutlich schneller: Der Klick auf einen Link führt sofort zum gewünschten Ziel, der Pfad lässt oftmals erahnen, in welchem Kontext eine Person genannt wird. In den meisten Fällen kann eine Leserin hier schon entscheiden, ob die Stelle für ihre Frage überhaupt relevant ist.
Die Personenverlinkung im Text erspart lästiges Scrollen: Ein Klick auf eine Person im Text führt zum Index und damit zu allen anderen Erwähnungen desselben Menschen.
Das I-Tüpfelchen findet sich im Fazit: ein Prozentwert der subjektiven Sicherheit. Während man im Laufe einer geisteswissenschaftlichen Ausbildung nur allzu gut lernt, sich hinter Formulierungen zu verstecken, ist ein Autor durch diese Neuerung gezwungen, Farbe zu bekennen: Wie sicher bin ich mir, dass stimmt, was ich schriebe? Handelt es sich um pure Spekulation, die ich zur Diskussion stellen will? Bin ich überzeugt, wasserdichte Argumente geliefert zu haben? Der Prozentwert (und seine farbliche Visualisierung) soll zusätzlich zum Text hierüber eine klare Angabe machen und so den Lesenden ermöglichen, die vorgetragene These sofort einzuordnen.

Vorteile

  • Überschrift und Abstract machen sofort klar, worum es geht.

  • Hauptpunkt und wesentliche Thesen sind sofort erkennbar: Sie stehen auf der höchsten oder zweithöchsten Ebene.

  • Nebenpunkte können leicht angesteuert werden. Sie stehen nicht versteckt in den Fußnoten, sondern sind mit einer aussagekräftigen Überschrift versehen logisch in die Argumentation eingebettet.

  • Als unwichtig oder störend empfundene Abschnitte können ausgeblendet werden. Dann stören sie nicht mehr.

  • Die subjektive Sicherheit der These ist transparent.

Nachteil

Der Lesefluss: Die vielen Ebenenwechsel, die Zwischenüberschriften und die Links machen es schwer, das Dokument in einem Zug zur Gänze zu lesen. Der Text lässt sich nicht rezipieren wie ein Kriminalroman. Aber er lässt sich lesen, wie man quellenkritische Aufsätze normalerweise liest: Zuerst Übersicht verschaffen, dann (eventuell) Details sehr genau anschauen und zerpflücken.

Der technische Hintergrund

Das Baumstruktur-Dokument, das Sie sehen, ist ein automatisch erzeugtes Produkt. Das Original-Dokument, in dem der Aufsatz entstand, ist nicht technisch, sondern semantisch strukturiert und ausgezeichnet. Das bedeutet, einzelne Elemente werden vom Autor mit einer „Bedeutung“ versehen. Etwa: „Das ist ein Personenname!“
Als Format für das Original-Dokument dient die XML-TEI-Norm, ein Standard, der ursprünglich für die Dokumentenerschließung (bspw. Transkription und Edition historischer Quellen) konzipiert wurde, sich aber (mutatis mutandis) auch für die Erstellung neuer Texte eignet.
Aus einem solchermaßen strukturierten Dokument können sehr viele Ausgabeformate erzeugt werden. Nach vordefinierten Vorgaben (XSLT-Skript) wird so bspw. aus einem Personennamen ein Hyperlink.
Dafür, dass das Original-Dokument auch so strukturiert ist, dass sich problemlos die Baum- und Ebenenstruktur daraus erzeugen lässt, sorgt eine automatische Kontrolle schon während des Erstellens und Schreibens (Schematron). Falsche Elemente werden markiert und mit einer aussagekräftigen Fehlermeldung versehen. So können Verarbeitungsfehler größtenteils ausgeschlossen werden.
Das Ein- und Ausblenden der einzelnen Abschnitte oder Kapitel funktioniert mittels JavaScript.

Wenn Sie ein Dokument in diesem Format erstellen möchten

Ich würde mich sehr freuen, wenn das von mir vorgeschlagene Format aufgegriffen und weiterverwendet würde. Es bleibt abzuwarten, ob daraus eine eigene Reihe oder Online-Zeitschrift erwachsen wird.
Das Verfassen eines Textes in dem vorgeschlagenen Baumstruktur-Format ist ein klein wenig aufwendiger als etwa in Word oder OpenOffice, erfordert aber kein Informatikstudium.
Sie brauchen einen XML-Editor wie etwa Oxygen (womöglich über Ihre Universität bereits lizenziert) und ein grobes Verständnis des Aufbaus von XML-Dokumenten. Der Rest ist Learning-by-doing.
Weil die Entwicklung des hier vorgestellten Formats noch nicht abgeschlossen ist, kann es momentan noch keine detaillierte Dokumentation geben.
Wenden Sie sich bitte daher direkt an mich (christian.schwaderer@uni-tuebingen.de) und sagen Sie mir kurz, über welche Vorkenntnisse Sie verfügen. Ich werde Sie dann mit den nötigen Dateien und Informationen versorgen.

Quelle: http://mittelalter.hypotheses.org/3893

Weiterlesen

Zitierpflicht für Wikipediaartikel – und wenn ja, für welche und wie?

Enzyklopädische Artikel aus Projekten wie dem Brockhaus oder der Encyclopedia Britannica können in wissenschaftlichen Arbeiten nicht zitiert werden, denn die Autoren1 der Artikel sind nur der Redaktion bekannt, nicht aber dem Leser. Dabei verfügen die ehemaligen Autoren der Brockhaus-Artikel über hohe wissenschaftliche Qualifikation, über 51 Prozent sind habilitiert, ein weiteres Drittel ist promoviert und die Verbleibenden besitzen einen universitären Abschluss.2

Ganz anders und doch vergleichbar sollte es bei der Online-Enzyklopädie Wikipedia sein. Etwa sieben Prozent der angemeldeten Autoren sind promoviert3 und von vielen Autoren ist der Stand ihrer Ausbildung nicht bekannt. Den Artikeln können zwar Autoren zugeordnet werden, aber nur wenige der Autoren melden sich unter ihrem Klarnamen an. Der ganz überwiegende Teil der angemeldeten Autoren schreibt im Schutz eines Pseudonyms. Mehr noch, bei der Hälfte aller Veränderungen werden nur die Internetprotokoll-Adresse (IP) der Rechner, von denen diese Veränderungen ausgingen gespeichert. Wer der Autor ist, bleibt völlig unklar.

Unter diesen Voraussetzungen ist es kaum möglich einen Wikipedia-Artikel sauber, und wissenschaftlich korrekt zu zitieren, egal mit welcher Sorgfalt es versucht wird. Zwar ist es möglich auf sogenannte feste Versionen zu verlinken, deren Text so unveränderlich wie ein gedruckter ist, aber das Problem der fehlenden Zuordnung zu einem oder mehreren Autor/en bleibt.4 Dieser Status quo – die Wikipedianer wünschen sich zitiert zu werden, die Wissenschaft kann nicht zitieren, weil die Autorenangaben fehlen – hat sich seit Jahren kaum geändert, oder wie es aktuell formuliert wurde: „Jeder benutzt sie, keiner zitiert sie“.5

Allerdings gibt es drei Bedingungen, die, wenn sie erfüllt sind, dazu führen sollten, dass ein Artikel der Wikipedia wissenschaftlich korrekt mit Autorenangabe zitiert werden könnte. Diese Bedingungen sind zwar schwer zu erreichen, aber bei momentan 1,7 Mio. Artikeln in der deutschsprachigen Wikipedia, sollte es doch einige geben, die diese Anforderungen erfüllen. Wohlgemerkt, es geht hier nicht darum, einen Weg zu suchen, alle Wikipediaartikel wissenschaftlich zitierfähig zu machen – das kann aufgrund der von einem kollaborativen Ansatz ausgehenden Gesamtkonstruktion nicht funktionieren –, sondern umgekehrt zu schauen, unter welchen Bedingungen Artikel zitiert werden könnten und dann aber auch zitiert werden müssten, da sie einem oder mehreren Autor/en klar zuordenbar sind.

Die drei Bedingungen sind folgende: (1) Klarname: Der Hauptautor muss namentlich bekannt sein, (2) quantitativer Anteil: dessen Anteil am Text muss eine bestimmte Grenze überschreiten und (3) qualitative Korrektheit: der Autor muss die Korrektheit der zitierten Artikelversion verantworten.

Nun bietet die Wikipedia-Datenbank alle Möglichkeiten, um die Erfüllung dieser Bedingungen zu überprüfen.

Denn neben den Texten der Artikel speichert die Datenbank auch alle Veränderungen und alle zugehörigen Autoren zeichengenau in der Versionsgeschichte ab. Aufgrund dieser Metadaten lässt sich exakt nachweisen, wer wann welches Zeichen geschrieben oder verändert hat. Im Durchschnitt stehen pro Artikel etwa 50 Versionen zur Verfügung. Diese Daten „von Hand“ durchzuschauen ist äußerst zeitaufwendig, seit einigen Jahren haben Programmierer aber Werkzeuge (weiter-)entwickelt, mit denen sich die Versionsgeschichte maschinell auswerten lässt. So kann leicht und schnell ermittelt werden, wie groß der quantitative Anteil eines Autors am Artikeltext ist.6 Für diese Autorenanteile wurden Durchschnittswerte ermittelt: So verfassen etwa 2,6 Nutzer mehr als fünf Prozent eines Artikeltextes. Im Schnitt schreibt ein Hauptautor etwa 70 Prozent des Textes und ein zweiter Autor trägt noch einmal 13 Prozent bei. Im Durchschnitt lassen sich also 83 Prozent eines Artikels zwei Autoren eindeutig zuordnen.7

Natürlich gibt es auch viele Artikel, an denen über 3 000 Autoren mitgeschrieben haben und an denen aufgrund der hohen Dichte verschiedener Bearbeiter kaum jemand mehr als zehn Prozent beigetragen hat.8 Bei diesen Artikeln erreicht kein Autor die Grenze der eindeutigen Zuordenbarkeit und die Artikel sind deshalb nicht zitierfähig.

Um zitierfähige und damit auch zitierpflichtige Artikel zu sein, müssen die oben genannten Bedingungen wie folgt erfüllt sein:

(1) Der Hauptautor muss sich unter seinem Klarnamen angemeldet haben. Dies betrifft momentan etwas über sieben Prozent aller angemeldeten Autoren.9 Die Möglichkeit zu den im Artikel gegebenen Informationen eine reale Person zuzuordnen, ist nur bei diesen gegeben.10

(2) Beim quantitativen Anteil sollten mindestens die Durchschnittswerte überschritten sein, der erste Hauptautor sollte also mindestens 70 Prozent und der zweite Hauptautor mindestens 13 Prozent des Artikels verfasst haben. Oder der Anteil eines einzelnen Hauptautors am Text muss über diesen 83 Prozent liegen. Je spezieller ein Thema, umso eher ist diese Bedingung erfüllt. Je allgemeiner, umso mehr Autoren fühlen sich berufen kollaborativ etwas beizutragen.

(3) Der Hauptautor muss die qualitative Korrektheit der Artikelversion garantieren. Er verantwortet, dass beispielsweise ein falsch eingefügtes „nicht“ den Sinn nicht komplett entstellt, sondern wieder entfernt wird. Dies ist am meisten gegeben bei Artikeln, die durch einen Begutachtungsprozess gelaufen sind und als Prädikat den Status „Lesenswert“ oder „Exzellent“ erhalten haben. Bei der Version, die am Ende dieser Begutachtung steht, ist vergleichsweise sicher, dass der Hauptautor alle Veränderungen aktiv beobachtet hat und diese Artikelversion korrekt ist.

Artikel für die diese drei Bedingungen erfüllt sind, Klarname des Autors bekannt, Autor ist quantitativ für mindestens 83 Prozent des Textes verantwortlich und zum Zeitpunkt einer Begutachtung steht der Autor dafür ein, dass diese Artikelversion qualitativ korrekt ist, wären zitierfähig.

Als Beispiele sollen hier zwei Artikel von Frank Schulenburg genannt werden. Der Autor ist der sogenannten Wikipedia-Community vertraut, war er doch 2005 Administrator der Wikipedia und hat in größerer Zahl Edits beigetragen. Er ist aber auch im Wissenschaftsbereich bekannt, hat an der Universität Göttingen studiert und arbeitet heute im Wikipedia-Hochschulprogramm in den Vereinigten Staaten. Da er unter seinem Klarnamen bekannt ist und auch so bei Wikipedia angemeldet, wäre damit die erste Bedingung (Klarname) erfüllt.

Am Wikipediaartikel über den französischen Autor „Claude Bourgelat“ hat Frank Schulenburg etwa 96 Prozent geschrieben. Da die Anteile aller anderen Autoren sich auf die Korrektur von Formalien und Tippfehlern beschränken, wäre auch die zweite Bedingung (quantitativer Mindestanteil) erfüllt. Zudem wurde der Artikel „Claude Bourgelat“ am 26. April 2008 nach einem von Frank Schulenburg begleiteten Begutachtungsprozess in die Liste der exzellenten Artikel aufgenommen. Der Hauptautor steht dafür, dass diese Version qualitativ korrekt ist, damit wäre auch die dritte Bedingung erfüllt. Werden nun Informationen aus diesem Artikel zitiert, müsste also korrekt angegeben werden:

Art. „Claude Bourgelat“, bearb. von Frank Schulenburg u.a., in: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 7. Oktober 2013, 11:53 UTC. URL: http://de.wikipedia.org/w/index.php?title=Claude_Bourgelat&oldid=123217566 (Abgerufen: 8. Mai 2014).

Das gleiche gilt beispielsweise für die Artikel zu „John Hunter (Chirurg)“11 oder zu „Johann Heinrich Zedler“12, bei denen Frank Schulenburg 90 und 92 Prozent verfasst hat. Oder für verschiedene Artikel des mit seinem Klarnamen angemeldeten Historikers Hans-Jürgen Hübner, wie die „Geschichte der Tr’ondek Hwech’in First Nation“13, die „Urgeschichte Italiens“14, die „Wirtschaftsgeschichte der Republik Venedig“15 oder der Artikel zum „Francesco Datini“16, die Anteile Hübners liegen hier bei 98 Prozent, zwei Mal 96 Prozent und 91 Prozent.

Die Zahl der solchermaßen zitierfähigen Artikel kann aufgrund der kollaborativen Arbeit nicht sehr hoch sein, aber es macht künftig eine grundsätzliche Prüfung notwendig, wenn aus der Wikipedia Informationen entnommen werden, ob damit nicht in dem Fall gegen die mögliche Zitierpflicht mit Autorenangabe verstoßen wird. Es gibt also künftig nicht mehr einfach die Ausrede „Jeder benutzt sie, keiner zitiert sie“, sondern für jede einzelne Information ist zu prüfen – und das ist der große Unterschied zu den früheren gedruckten Enzyklopädien wie Brockhaus oder Encyclopedia Britannica – ob nicht gerade dieser Artikel die Hürden für die Zitierfähigkeit überschreitet und dann zitiert werden muss.

Die Wikipedia sollte die notwendigen Werkzeuge schnell allen Benutzern der Datenbank verfügbar machen, denn die Benutzer kommen nach dem Gesagten um eine genaue Prüfung, zur Vermeidung von Verstößen gegen das Urheberrecht, nicht mehr herum. Auch der Verweis darauf, dass die Wikipediainhalte ja vermeintlich frei sind, ändert daran nichts, denn die zugrundeliegende Creativ Commons Lizenz beinhaltet explizit die „Namensnennung — Sie müssen die Urheberschaft ausreichend deutlich benennen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung des Werks besonders.“17

Künftig gilt für den Umgang mit der Wikipedia: Jeder der sie benutzt, muss prüfen, ob er sie unter bestimmten Umständen nicht sogar mit Autorenangabe zitieren muss.

1     Wenn im Folgenden überwiegend die Form „Autor“ oder „Hauptautor“ verwendet wird, hat dies allein Lesbarkeitsgründe, mitzudenken sind sowohl die Formen „Autorin“ oder „Hauptautorin“ sowie „Autoren“ oder „Hauptautoren“.

2     Vgl. Brockhaus, 17. Auflage, Band 20: Wam-ZZ, Wiesbaden 1974, S. 827–835: Bei 1445 namentlich aufgelisteten Autoren. Der Anteil der Autorinnen liegt bei nur sechs Prozent.

3     Vgl. Ruediger Glott, Philipp Schmidt, Rishab Ghosh: Wikipedia Survey – Overview of Results. 2010. Online: http://www.wikipediasurvey.org/docs/Wikipedia_Overview_15March2010-FINAL.pdf (Abgerufen: 13.12.11), S. 7.

4     Johannes Becher, Viktor Becher: Gegen ein Anti-Wikipedia-Dogma an Hochschulen. Warum Wikipedia-Zitate nicht pauschal verboten werden sollten, in: Forschung und Lehre 18 (2011), H. 2, S. 116–118; Maren Lorenz: Der Trend zum Wikipedia-Beleg. Warum Wikipedia wissenschaftlich nicht zitierfähig ist, ebd., S. 120–122.

5     Stellungnahme des Verlags C. H. Beck zu Plagiatsvorwürfen bezüglich des Buches „Große Seeschlachten. Wendepunkte der Weltgeschichte von Salamis bis Skagerrak“ (München 2013), vgl. online: http://chbeck.de/_assets/pdf/pm_grosse-seeschlachten.pdf (Abgerufen: 9. Mai 2014).

6     Vgl. online: https://de.wikipedia.org/wiki/Benutzer:APPER/WikiHistory (Abgerufen: 9. Mai 2014) und online: https://de.wikipedia.org/wiki/Benutzer:APPER/WikiHistory/Programm (Abgerufen: 11. Mai 2014).

7     Vgl. online: https://de.wikipedia.org/wiki/Benutzer:APPER/WikiHistory/Autorenbestimmung (Abgerufen: 11. Mai 2014).

8     Beispielsweise der Artikel „Deutschland“ mit 3 460 Bearbeitern, vgl. online: https://de.wikipedia.org/wiki/Deutschland (Abgerufen: 9. Mai 2014).

9     Vgl. die Erhebung von Jürgen Engel im Jahr 2011 unter online: http://gemekon.de/dokumente/protokoll.pdf (Abgerufen: 11. Mai 2014), S. 2.

10    Zusätzlich zur Klarnamenanmeldung, die missbraucht werden könnte, gibt es die Möglichkeit das Benutzerkonto gegenüber dem Support-Team mit der E-Mail-Adresse einer Institution zu verifizieren.

11    Art. „John Hunter (Chirurg)“, bearb. von Frank Schulenburg u.a., in: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 15. November 2013, 08:52 UTC. URL: http://de.wikipedia.org/w/index.php?title=John_Hunter_(Chirurg)&oldid=124478660 (Abgerufen: 15. Mai 2014).

12    Art. „Johann Heinrich Zedler“, bearb. von Frank Schulenburg u.a., in: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 25. Februar 2014, 18:38 UTC. URL: http://de.wikipedia.org/w/index.php?title=Johann_Heinrich_Zedler&oldid=127940244 (Abgerufen: 8. Mai 2014).

13    Art. „Geschichte der Tr’ondek Hwech’in First Nation“, bearb. von Hans-Jürgen Hübner u.a., in: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 2. Mai 2014, 21:01 UTC. URL: http://de.wikipedia.org/w/index.php?title=Geschichte_der_Tr%E2%80%99ondek_Hwech%E2%80%99in_First_Nation&oldid=130047818 (Abgerufen: 15. Mai 2014).

14    Art. „Urgeschichte Italiens“, bearb. von Hans-Jürgen Hübner u.a., in: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 5. Mai 2014, 13:47 UTC. URL: http://de.wikipedia.org/w/index.php?title=Urgeschichte_Italiens&oldid=130119732 (Abgerufen: 8. Mai 2014).

15    Art. „Wirtschaftsgeschichte der Republik Venedig“, bearb. von Hans-Jürgen Hübner u.a., in: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 6. Mai 2014, 06:21 UTC. URL: http://de.wikipedia.org/w/index.php?title=Wirtschaftsgeschichte_der_Republik_Venedig&oldid=130140526 (Abgerufen: 8. Mai 2014).

16    Art. „Francesco Datini“, bearb. von Hans-Jürgen Hübner u.a., in: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 28. März 2014, 09:49 UTC. URL: http://de.wikipedia.org/w/index.php?title=Francesco_Datini&oldid=128974223 (Abgerufen: 15. Mai 2014).

17    Vgl. online: http://creativecommons.org/licenses/by-sa/3.0/deed.de (Abgerufen: 9. Mai 2014).

Download PDF

Quelle: http://mittelalter.hypotheses.org/3721

Weiterlesen

Blog des Arbeitskreises für digitale Geistes- und Sozialwissenschaften München

http://dhmuc.hypotheses.org dhmuc. vernetzt Digital-Humanities-Akteure unterschiedlicher Münchner Einrichtungen miteinander und vermittelt ihre Aktivitäten so breit wie möglich an Nachwuchswissenschaftler vor Ort ebenso wie an andere DH-Engagierte über München hinaus. Quelle: http://dhmuc.hypotheses.org/uber; Lizenz: CC BY 3.0

Quelle: http://www.einsichten-online.de/2014/05/5090/

Weiterlesen

Bericht zum Seminar “La transmission des textes : nouveaux outils, nouvelles approches” am IRHT Paris (31. März – 4. April 2014) – Interoperationalität und semantisches Web in der mediävistischen Praxis

Anfang April konnte ich in Paris an einer Schulung der COST Action „Medioevo Europeo“ teilnehmen, die diese gemeinsam mit dem Institut de Recherche d’Histoire de Textes (Irht) und dem Projekt Biblissima organisierte. Unter dem Titel “Transmission of texts. New tools, new approaches”(mehr Infos: hier) standen dabei vor allem Fragen der Interoperationalität und das semantische Web im Vordergrund. Was Interoperationalität und semantisches Web ganz konkret in der Praxis bedeuten, wurde uns anhand der laufenden Projekte des Irht und von Biblissima vorgeführt (was in der Tat sehr beeindruckend war). Dabei ging es natürlich um mittelalterliche Handschriften, Bibliotheken und Texte und deren Erschließung – wobei das Irht seine über Jahrzehnte gesammelte Datenbasis zusammenfasst und online stellt, während Biblissima eine Art digitale Meta-Bibliothek aufbaut, in der für die Handschriftenbestände in Frankreich alle Bilder, digitalen Editionen und dazugehörigen Informationen aus zahlreichen Einzeldatenbanken in einem einzigen Tool zusammengefasst und gemeinsam nutzbar gemacht werden. Auf dem Blog der AG Digitale Geschichtswissenschaft des VHD habe ich einen Bericht zu der Training School eingestellt, der zugleich einen Überblick über die dabei genannten aktuellen und zukünftigen online-Ressourcen bietet. Den Bericht kann man hier lesen: http://digigw.hypotheses.org/723.  

Quelle: http://dfmfa.hypotheses.org/1198

Weiterlesen