Digital Humanities 2014 Lausanne

…schon wieder vorbei…

Der mit grosser Kelle angerührte und professionel durchgeführte Anlass vom 7-12 Juli 2014 hat über 700 Personen aus aller Welt nach Lausanne gelockt. Ein umfangreiches Programm bot den Teilnehmern sehr viele Möglichkeiten zum Wissensaustausch und persönlichem Kontakteknüpfen.

Gedanken zu zwei von mir besuchten Workshops:

Leveraging Web Archiving Tools for Digital Humanities Research and Digital Exhibition

(Mo, 9-12)

Der von Scott Reed Der von Scott Reed (von archive.org) geleitete Workshop behandelte die wichtigsten Fakten zu archive.org, Erklärungen zum Anlegen eines Webarchives sowie das selbständige Erstellen eines solchen durch die Teilnehmer.Meine Test-Webseiten umfassten pastperfect.univie.ac.at (interaktive Webseite zu), pennystocks.la/internet-in-real-time (sich alle paar Sekunden selbst aktualisierende Webseite mit Fakten über das Internet), parlamentsgeschichte.ch (interaktive Webseite zur Geschichte der Schweizer Parlamente und historypin.com (kollaborative Webseite zur Erstellung von Geschichtsschnippseln auf einer Landkarte). Mein Ziel war es herauszufinden, wie dynamischer Content archiviert werden kann (wenn überhaupt).Der Anfangsverdacht wurde bestätigt, dass interaktive Webseiten (v.a. mit javascript oder datenbankbasiert) sehr schlecht oder gar nicht archiviert werden können. Scott Reed bestätigte dies und merkte an, dass archive.org daran arbeitet diese Lücke zu schliessen. Es wird aber kaum je möglich sein alle verschiedenen Formate, Strukturen etc einer Webseite 1:1 zu archivieren.Dieses Problem hat schon Niels Brügger formuliert. Seiner Ansicht nach (und ich pflichte ihm bei), ist es nicht möglich ein Dokument des Internets zu archivieren, sondern nur ein Dokument über das Internet. Bspw. stellt eine archivierte Webseite durch fehlende Verlinkungen oder ‘willkürlich’ eingebettete externe Elemente etwas dar, das es so nie gegeben hat oder nur für diesen einen Betrachter. Siehe: Brügger, Niels: Archiving Websites. General Considerations and Strategies, Aarhus 2005.

Fazit: Ein guter Einblick wie Webseiten archiviert werden (können oder eben auch nicht).

Sharing digital arts and humanities knowledge: DARIAH as an open space for dialogue

(Di, 9-16)

Der sehr interaktive Workshop zu DARIAH hatte zum Ziel die Anforderungen von Forschenden an eine digitale Forschungsumgebung zu definieren und zu priorisieren. Die Workshop-Leiter (u.a. Sally Chambers, Emiliano Degl’Innocenti und Stefan Schmunk von DARIAH) versuchten aus den Diskussionen mit den Teilnehmern herauszukristalisieren, welche nächsten Schritte das Projekt DARIAH unternehmen soll, um genau diesen Anforderungen gerecht zu werden.

Wichtig war den Teilnehmern vor allem, dass eine Plattform für den Wissensaustausch zur Verfügung steht (Infrastruktur auch als Interaktion begreifen) und dass eine Übersicht über bestehende Tools geboten wird.

Quinn Dombrowski stellte  in einem kurzen Vortrag zwischendurch das Projekt Bamboo vor (eingestellt) und versuchte den Teilnehmern Tips für solche Projekte weiterzugeben. Auch DARIAH kann von den gemachten Erfahrungen profitieren, besonders was den frühen Austausch mit potentiellen Nutzern und die Kommmunikation mit allen involvierten Personen und Institutionen betrifft. Auf ihrer Webseite bietet sie eine umfangreiche Dokumentation über das Projekt.

Fazit: Ein guter Einblick über die Möglichkeiten und Zukunft von DARIAH. Was die Forschungsumgebung im Hinblick auf Quellenkritik bietet, muss untersucht werden.

Digital Humanities 2014 Lausanne
The program of the DH Conference from 7th to 12th july 2014 offered a wide variety of possibilities for exchange of knowledge and meeting a lot of interesting people. Two workshops were very interesting: web archiving and DARIAH. In the first workshop, my suspicion was confirmed, that interactive content of websites can’t be archived. In the second one, I learnd about the aims of DARIAH and had a very interactive time with the participants.

Quelle: http://hsc.hypotheses.org/299

Weiterlesen

MUDIRA Bilddatenbank der LMU München und des Staatlichen Museums Ägyptischer Kunst München

http://mudira.gwi.uni-muenchen.de Munich Digital Research Archives ist ein im Frühjahr 2012 gestartetes Gemeinschaftsprojekt des Instituts für Ägyptologie der LMU München und des Staatlichen Museums Ägyptischer Kunst München (SMÄK), in welchem die umfangreichen Bildbestände beider Institutionen zu Altägypten digitalisiert und zugänglich gemacht werden. In der ersten (auf 2 bis 3 Jahre angelegten) Projektphase werden etwa 30.000 als Kleinbild-Diapositive […]

Quelle: http://www.einsichten-online.de/2014/06/5183/

Weiterlesen

Livestream zum Workshop “Neues Werkzeug des Historikers: Blogs und Social Media für Mediävisten”

Am 16./17. Juni 2014 findet am DHI Rom der Workshop “Neues Werkzeug des Historikers: Blogs und Social Media für Mediävisten” statt.

Auf Twitter haben Sie die Möglichkeit, unter dem Hashtag #bsmm14 Fragen an die Vortragenden zu richten oder die laufenden Diskussionen live zu kommentieren. Oder Sie richten Ihre Fragen per Mail an mittelalter.hypotheses@gmail.com.

Teil 1

https://plus.google.com/events/c35mdfopq494o0nbpbieur6uo28

Martin Baumeister (Roma): Grußwort

1. Sektion: Kommunikation

Dietmar Fischer (Berlin) / Björn Gebert (Darmstadt): Seriosität und Social Media – unvereinbar oder symbiotisch?

Diskussion

Teil 2

https://plus.google.com/events/c1eo73vo43qb25f3tjlf5k160lo

Sascha Foerster (Bonn): Wissenschaft 2.0.: Grundlagen digitaler Wissenschaftskommunikation [Praxisdemonstration]

2. Sektion: Vernetzung

Björn Gebert (Darmstadt): Mediävistische Wissenschaftsblogs – Arten und Plattformen

Diskussion

Teil 3

https://plus.google.com/events/cugruovbb4sqmhi4vinp9rllcoo

Promotionsbegleitende Blogs

Michael Schonhardt (Freiburg): ‘Ungelöste Rätsel der Entdeckergeschichte’ – Wissenschaftskommunikation zwischen Nachwuchs und Publikum

Maxi Maria Platz (Bamberg): Warum (nicht nur) Archäologie-Doktoranden bloggen sollten

Sarah Laseke (Leiden): Bloggen vor und während der Promotion: warum es sich lohnt Zeit in Social Media zu investieren

Diskussion

Teil 4

https://plus.google.com/events/cikrtig97g7a9klc4trfoa3n914

Sascha Foerster (Bonn): Publizieren mit Wissenschaftsblogs [Praxisdemonstration]

Internationalität und Interdisziplinarität

Torsten Hiltmann (Münster): Zwischen Austausch, Vernetzung und Öffentlichkeit. Experimentieren mit neuen Formen der Wissenschaftskommunikation am Beispiel von Jeunegen, DFMFA und heraldica nova

Johannes Waldschütz (Freiburg): Kooperatives Bloggen mit institutioneller Anbindung – Das Blog ‘Mittelalter am Oberrhein’ der Abteilung Landesgeschichte an der Universität Freiburg

Teil 5

https://plus.google.com/events/cdtv0pmqs497s3fcvutc85e0t6k

3. Sektion: Wissenschaftlich digital publizieren

Martin Bauch (Roma): Neue mediävistische Publikationsformen und Blogs

Klaus Graf (Aachen): Open Access, Creative Commons und das Posten von Handschriftenscans

Teil 6

https://plus.google.com/events/c5au9cf4a335v6n3m5g4pfdlgf8

4. Sektion: Institutionalisierung

Roberto Delle Donne (Napoli): Ein Zusammenspiel wissenschaftlicher Initiativen – die Zukunft digitaler Mediävistik aus den Erfahrungen von Reti medievali, einer Plattform in Italien

Tobias Wulf (Bonn): Vernetzung, Verankerung, Expansion – wohin steuert de.hypotheses.org?

Andreas Kuczera (Mainz): Digitale Nutzungsformen der Regesta Imperii Online

Martin Bauch/Karoline Döring/Björn Gebert: Schlussdiskussion

Quelle: http://mittelalter.hypotheses.org/3916

Weiterlesen

Die Veröffentlichungsform der Zukunft? Mein Lösungsvorschlag: Ein Aufsatz in Baum- und Ebenenstruktur.


Vorbemerkung der Redaktion:

Wir verstehen dieses Blog gerade auch als Experimentierkasten für eine Mediävistik 2.0, also eine interdisziplinäre Mittelalterforschung unter Einbezug digitaler Medien. Daher freuen wir uns ganz besonders über diesen Beitrag von Christian Schwaderer, der einen Aufsatz zu einem historiographischen Thema des 11. Jahrhunderts in einer für die historische Mediävistik völlig ungewohnten Form präsentieren will. Leider erlaubt die Struktur von WordPress bisher keine direkte Einbindung seiner XHTML-Datei. Öffnen Sie also parallel zur Lektüre seiner unten stehenden Erläuterungen folgende Seite

Christian Schwaderer: Gab es eine hystoria Gebhards von Salzburg?

Wir fänden es sehr erfreulich, wenn sich eine lebhafte Diskussion in den Kommentaren zu diesem Blogpost und dem sicher ungewöhnlichen Aufsatz in Baumstruktur entspannen würde.

Die Idee

Eine der größten Herausforderungen des 21. Jahrhunderts ist es, jedem und jeder genau die Information zu liefern, die er oder sie gerade braucht. Und zwar so schnell wie möglich.
In den Geisteswissenschaften ist es nach wie vor Usus, Ergebnisse in statischer Textform zu veröffentlichen. Dieses Medium – der statische Text als Buch und auf Papier – blickt auf eine jahrhundertelange Entwicklungsgeschichte zurück. Immer wieder wurde versucht, das Medium besser aufzubereiten und schneller erfassbar zu machen: So entstanden Inhaltsverzeichnisse, Zwischenüberschriften und Abstracts.
Nun ist es wieder an der Zeit, Neuerungen einzuführen.
Selbst ein auf klassische Weise gut strukturiertes Buch zwingt zum oft langwierigen Blättern und Überfliegen, wenn man sich nur für einen bestimmten Aspekt interessiert.
Wünschenswert wäre daher, dass Texte so kleinteilig gegliedert werden, dass Haupt- und Nebenpunkte klar erkennbar und ohne Zeitverlust zugänglich sind.
Hierbei müssen wir auf Möglichkeiten zurückgreifen, die uns das Papier nicht bietet, die elektronisch aber einfach umsetzbar sind.

Das alles soll das Lesen und Rezipieren einfacher und schneller machen, während es das Schreiben und Verfassen aufwendiger und fordernder macht.

Die Geisteswissenschaften verdienen ihre Daseinsberechtigung nicht zuletzt dadurch, dass sie kulturelle Zeugnisse, Informationsträger und Dokumente erschließen, auswerten und verfügbar machen.
Wie man die Möglichkeiten digitaler Medien konsequent ausschöpft, wie man Gedanken anders als in klassischer Fließtextform darstellen könnte, ist seit geraumer Zeit Gegenstand langer Diskussionen – aber den entscheidenden Impuls konnten die Geisteswissenschaften bislang nicht setzen,
Auch hier ergibt sich also ein Motivations- und Ansatzpunkt.
Persönlich formuliert: Wenn es dereinst hieße, die Mittelalterwissenschaft des frühen 21. Jahrhunderts habe zwar inhaltlich keine wesentlich neuen Ansätze hervorgebracht, aber die Art und Weise, wie Informationen in Textform gegossen und verarbeitet werden, grundlegend verändert – dann wäre zumindest ich äußerst zufrieden.

Die Umsetzung – ein Lösungsvorschlag

Mein Lösungsvorschlag ist ein Text in Baum- und Ebenenstruktur: Das Dokument enthält viel mehr Zwischenüberschriften und viel mehr Gliederungsebenen als ein Werk klassischen Zuschnitts. Der Clou ist die Ein- und Ausblendbarkeit: Leser_innen können entweder ausblenden, was sie nicht interessiert, oder zunächst alles ausblenden und anschließend nur das einblenden, was sie tatsächlich lesen wollen.
Die einzelnen Ebenen sind durch Einrückung und immer dunklere Hintergrundfarben voneinander geschieden. Wichtiges steht auf höheren Ebenen, Unwichtigeres auf niedrigeren. So ist sofort erkennbar, was zentral ist und was eine (kleinteilige) Begründung der zentralen Punkte darstellt. Platz ist nicht kostbar.
Das Dokument beginnt mit einer klaren Überschrift und einem zweistufigen Abstract: zunächst in allerknappster Form, dann etwas detaillierter. Navigation und Übersicht werden durch zwei Leisten gewährleistet: Durch die Linkleiste links gelangt man zu den einzelnen Kapiteln (jeweilige Ebenen sind ein- und ausklappbar), die Statusleiste oben gibt an, in welchem Kapitel/Abschnitt sich der Mauszeiger gerade befindet. So ist die Orientierung im Dokument stets gewährleistet.
Der Zugriff kann ebenso über Indizes funktionieren. Das Personenverzeichnis funktioniert dabei ganz herkömmlich – mit einer Ausnahme: Statt Seitenzahlen stehen interne Links mit einem „Pfad“, der angibt, wo die jeweilige Person besprochen wird. Link und Pfad machen das Durchforsten des Registers gegenüber dem gedruckten Pendant deutlich schneller: Der Klick auf einen Link führt sofort zum gewünschten Ziel, der Pfad lässt oftmals erahnen, in welchem Kontext eine Person genannt wird. In den meisten Fällen kann eine Leserin hier schon entscheiden, ob die Stelle für ihre Frage überhaupt relevant ist.
Die Personenverlinkung im Text erspart lästiges Scrollen: Ein Klick auf eine Person im Text führt zum Index und damit zu allen anderen Erwähnungen desselben Menschen.
Das I-Tüpfelchen findet sich im Fazit: ein Prozentwert der subjektiven Sicherheit. Während man im Laufe einer geisteswissenschaftlichen Ausbildung nur allzu gut lernt, sich hinter Formulierungen zu verstecken, ist ein Autor durch diese Neuerung gezwungen, Farbe zu bekennen: Wie sicher bin ich mir, dass stimmt, was ich schriebe? Handelt es sich um pure Spekulation, die ich zur Diskussion stellen will? Bin ich überzeugt, wasserdichte Argumente geliefert zu haben? Der Prozentwert (und seine farbliche Visualisierung) soll zusätzlich zum Text hierüber eine klare Angabe machen und so den Lesenden ermöglichen, die vorgetragene These sofort einzuordnen.

Vorteile

  • Überschrift und Abstract machen sofort klar, worum es geht.

  • Hauptpunkt und wesentliche Thesen sind sofort erkennbar: Sie stehen auf der höchsten oder zweithöchsten Ebene.

  • Nebenpunkte können leicht angesteuert werden. Sie stehen nicht versteckt in den Fußnoten, sondern sind mit einer aussagekräftigen Überschrift versehen logisch in die Argumentation eingebettet.

  • Als unwichtig oder störend empfundene Abschnitte können ausgeblendet werden. Dann stören sie nicht mehr.

  • Die subjektive Sicherheit der These ist transparent.

Nachteil

Der Lesefluss: Die vielen Ebenenwechsel, die Zwischenüberschriften und die Links machen es schwer, das Dokument in einem Zug zur Gänze zu lesen. Der Text lässt sich nicht rezipieren wie ein Kriminalroman. Aber er lässt sich lesen, wie man quellenkritische Aufsätze normalerweise liest: Zuerst Übersicht verschaffen, dann (eventuell) Details sehr genau anschauen und zerpflücken.

Der technische Hintergrund

Das Baumstruktur-Dokument, das Sie sehen, ist ein automatisch erzeugtes Produkt. Das Original-Dokument, in dem der Aufsatz entstand, ist nicht technisch, sondern semantisch strukturiert und ausgezeichnet. Das bedeutet, einzelne Elemente werden vom Autor mit einer „Bedeutung“ versehen. Etwa: „Das ist ein Personenname!“
Als Format für das Original-Dokument dient die XML-TEI-Norm, ein Standard, der ursprünglich für die Dokumentenerschließung (bspw. Transkription und Edition historischer Quellen) konzipiert wurde, sich aber (mutatis mutandis) auch für die Erstellung neuer Texte eignet.
Aus einem solchermaßen strukturierten Dokument können sehr viele Ausgabeformate erzeugt werden. Nach vordefinierten Vorgaben (XSLT-Skript) wird so bspw. aus einem Personennamen ein Hyperlink.
Dafür, dass das Original-Dokument auch so strukturiert ist, dass sich problemlos die Baum- und Ebenenstruktur daraus erzeugen lässt, sorgt eine automatische Kontrolle schon während des Erstellens und Schreibens (Schematron). Falsche Elemente werden markiert und mit einer aussagekräftigen Fehlermeldung versehen. So können Verarbeitungsfehler größtenteils ausgeschlossen werden.
Das Ein- und Ausblenden der einzelnen Abschnitte oder Kapitel funktioniert mittels JavaScript.

Wenn Sie ein Dokument in diesem Format erstellen möchten

Ich würde mich sehr freuen, wenn das von mir vorgeschlagene Format aufgegriffen und weiterverwendet würde. Es bleibt abzuwarten, ob daraus eine eigene Reihe oder Online-Zeitschrift erwachsen wird.
Das Verfassen eines Textes in dem vorgeschlagenen Baumstruktur-Format ist ein klein wenig aufwendiger als etwa in Word oder OpenOffice, erfordert aber kein Informatikstudium.
Sie brauchen einen XML-Editor wie etwa Oxygen (womöglich über Ihre Universität bereits lizenziert) und ein grobes Verständnis des Aufbaus von XML-Dokumenten. Der Rest ist Learning-by-doing.
Weil die Entwicklung des hier vorgestellten Formats noch nicht abgeschlossen ist, kann es momentan noch keine detaillierte Dokumentation geben.
Wenden Sie sich bitte daher direkt an mich (christian.schwaderer@uni-tuebingen.de) und sagen Sie mir kurz, über welche Vorkenntnisse Sie verfügen. Ich werde Sie dann mit den nötigen Dateien und Informationen versorgen.

Quelle: http://mittelalter.hypotheses.org/3893

Weiterlesen

Zitierpflicht für Wikipediaartikel – und wenn ja, für welche und wie?

Enzyklopädische Artikel aus Projekten wie dem Brockhaus oder der Encyclopedia Britannica können in wissenschaftlichen Arbeiten nicht zitiert werden, denn die Autoren1 der Artikel sind nur der Redaktion bekannt, nicht aber dem Leser. Dabei verfügen die ehemaligen Autoren der Brockhaus-Artikel über hohe wissenschaftliche Qualifikation, über 51 Prozent sind habilitiert, ein weiteres Drittel ist promoviert und die Verbleibenden besitzen einen universitären Abschluss.2

Ganz anders und doch vergleichbar sollte es bei der Online-Enzyklopädie Wikipedia sein. Etwa sieben Prozent der angemeldeten Autoren sind promoviert3 und von vielen Autoren ist der Stand ihrer Ausbildung nicht bekannt. Den Artikeln können zwar Autoren zugeordnet werden, aber nur wenige der Autoren melden sich unter ihrem Klarnamen an. Der ganz überwiegende Teil der angemeldeten Autoren schreibt im Schutz eines Pseudonyms. Mehr noch, bei der Hälfte aller Veränderungen werden nur die Internetprotokoll-Adresse (IP) der Rechner, von denen diese Veränderungen ausgingen gespeichert. Wer der Autor ist, bleibt völlig unklar.

Unter diesen Voraussetzungen ist es kaum möglich einen Wikipedia-Artikel sauber, und wissenschaftlich korrekt zu zitieren, egal mit welcher Sorgfalt es versucht wird. Zwar ist es möglich auf sogenannte feste Versionen zu verlinken, deren Text so unveränderlich wie ein gedruckter ist, aber das Problem der fehlenden Zuordnung zu einem oder mehreren Autor/en bleibt.4 Dieser Status quo – die Wikipedianer wünschen sich zitiert zu werden, die Wissenschaft kann nicht zitieren, weil die Autorenangaben fehlen – hat sich seit Jahren kaum geändert, oder wie es aktuell formuliert wurde: „Jeder benutzt sie, keiner zitiert sie“.5

Allerdings gibt es drei Bedingungen, die, wenn sie erfüllt sind, dazu führen sollten, dass ein Artikel der Wikipedia wissenschaftlich korrekt mit Autorenangabe zitiert werden könnte. Diese Bedingungen sind zwar schwer zu erreichen, aber bei momentan 1,7 Mio. Artikeln in der deutschsprachigen Wikipedia, sollte es doch einige geben, die diese Anforderungen erfüllen. Wohlgemerkt, es geht hier nicht darum, einen Weg zu suchen, alle Wikipediaartikel wissenschaftlich zitierfähig zu machen – das kann aufgrund der von einem kollaborativen Ansatz ausgehenden Gesamtkonstruktion nicht funktionieren –, sondern umgekehrt zu schauen, unter welchen Bedingungen Artikel zitiert werden könnten und dann aber auch zitiert werden müssten, da sie einem oder mehreren Autor/en klar zuordenbar sind.

Die drei Bedingungen sind folgende: (1) Klarname: Der Hauptautor muss namentlich bekannt sein, (2) quantitativer Anteil: dessen Anteil am Text muss eine bestimmte Grenze überschreiten und (3) qualitative Korrektheit: der Autor muss die Korrektheit der zitierten Artikelversion verantworten.

Nun bietet die Wikipedia-Datenbank alle Möglichkeiten, um die Erfüllung dieser Bedingungen zu überprüfen.

Denn neben den Texten der Artikel speichert die Datenbank auch alle Veränderungen und alle zugehörigen Autoren zeichengenau in der Versionsgeschichte ab. Aufgrund dieser Metadaten lässt sich exakt nachweisen, wer wann welches Zeichen geschrieben oder verändert hat. Im Durchschnitt stehen pro Artikel etwa 50 Versionen zur Verfügung. Diese Daten „von Hand“ durchzuschauen ist äußerst zeitaufwendig, seit einigen Jahren haben Programmierer aber Werkzeuge (weiter-)entwickelt, mit denen sich die Versionsgeschichte maschinell auswerten lässt. So kann leicht und schnell ermittelt werden, wie groß der quantitative Anteil eines Autors am Artikeltext ist.6 Für diese Autorenanteile wurden Durchschnittswerte ermittelt: So verfassen etwa 2,6 Nutzer mehr als fünf Prozent eines Artikeltextes. Im Schnitt schreibt ein Hauptautor etwa 70 Prozent des Textes und ein zweiter Autor trägt noch einmal 13 Prozent bei. Im Durchschnitt lassen sich also 83 Prozent eines Artikels zwei Autoren eindeutig zuordnen.7

Natürlich gibt es auch viele Artikel, an denen über 3 000 Autoren mitgeschrieben haben und an denen aufgrund der hohen Dichte verschiedener Bearbeiter kaum jemand mehr als zehn Prozent beigetragen hat.8 Bei diesen Artikeln erreicht kein Autor die Grenze der eindeutigen Zuordenbarkeit und die Artikel sind deshalb nicht zitierfähig.

Um zitierfähige und damit auch zitierpflichtige Artikel zu sein, müssen die oben genannten Bedingungen wie folgt erfüllt sein:

(1) Der Hauptautor muss sich unter seinem Klarnamen angemeldet haben. Dies betrifft momentan etwas über sieben Prozent aller angemeldeten Autoren.9 Die Möglichkeit zu den im Artikel gegebenen Informationen eine reale Person zuzuordnen, ist nur bei diesen gegeben.10

(2) Beim quantitativen Anteil sollten mindestens die Durchschnittswerte überschritten sein, der erste Hauptautor sollte also mindestens 70 Prozent und der zweite Hauptautor mindestens 13 Prozent des Artikels verfasst haben. Oder der Anteil eines einzelnen Hauptautors am Text muss über diesen 83 Prozent liegen. Je spezieller ein Thema, umso eher ist diese Bedingung erfüllt. Je allgemeiner, umso mehr Autoren fühlen sich berufen kollaborativ etwas beizutragen.

(3) Der Hauptautor muss die qualitative Korrektheit der Artikelversion garantieren. Er verantwortet, dass beispielsweise ein falsch eingefügtes „nicht“ den Sinn nicht komplett entstellt, sondern wieder entfernt wird. Dies ist am meisten gegeben bei Artikeln, die durch einen Begutachtungsprozess gelaufen sind und als Prädikat den Status „Lesenswert“ oder „Exzellent“ erhalten haben. Bei der Version, die am Ende dieser Begutachtung steht, ist vergleichsweise sicher, dass der Hauptautor alle Veränderungen aktiv beobachtet hat und diese Artikelversion korrekt ist.

Artikel für die diese drei Bedingungen erfüllt sind, Klarname des Autors bekannt, Autor ist quantitativ für mindestens 83 Prozent des Textes verantwortlich und zum Zeitpunkt einer Begutachtung steht der Autor dafür ein, dass diese Artikelversion qualitativ korrekt ist, wären zitierfähig.

Als Beispiele sollen hier zwei Artikel von Frank Schulenburg genannt werden. Der Autor ist der sogenannten Wikipedia-Community vertraut, war er doch 2005 Administrator der Wikipedia und hat in größerer Zahl Edits beigetragen. Er ist aber auch im Wissenschaftsbereich bekannt, hat an der Universität Göttingen studiert und arbeitet heute im Wikipedia-Hochschulprogramm in den Vereinigten Staaten. Da er unter seinem Klarnamen bekannt ist und auch so bei Wikipedia angemeldet, wäre damit die erste Bedingung (Klarname) erfüllt.

Am Wikipediaartikel über den französischen Autor „Claude Bourgelat“ hat Frank Schulenburg etwa 96 Prozent geschrieben. Da die Anteile aller anderen Autoren sich auf die Korrektur von Formalien und Tippfehlern beschränken, wäre auch die zweite Bedingung (quantitativer Mindestanteil) erfüllt. Zudem wurde der Artikel „Claude Bourgelat“ am 26. April 2008 nach einem von Frank Schulenburg begleiteten Begutachtungsprozess in die Liste der exzellenten Artikel aufgenommen. Der Hauptautor steht dafür, dass diese Version qualitativ korrekt ist, damit wäre auch die dritte Bedingung erfüllt. Werden nun Informationen aus diesem Artikel zitiert, müsste also korrekt angegeben werden:

Art. „Claude Bourgelat“, bearb. von Frank Schulenburg u.a., in: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 7. Oktober 2013, 11:53 UTC. URL: http://de.wikipedia.org/w/index.php?title=Claude_Bourgelat&oldid=123217566 (Abgerufen: 8. Mai 2014).

Das gleiche gilt beispielsweise für die Artikel zu „John Hunter (Chirurg)“11 oder zu „Johann Heinrich Zedler“12, bei denen Frank Schulenburg 90 und 92 Prozent verfasst hat. Oder für verschiedene Artikel des mit seinem Klarnamen angemeldeten Historikers Hans-Jürgen Hübner, wie die „Geschichte der Tr’ondek Hwech’in First Nation“13, die „Urgeschichte Italiens“14, die „Wirtschaftsgeschichte der Republik Venedig“15 oder der Artikel zum „Francesco Datini“16, die Anteile Hübners liegen hier bei 98 Prozent, zwei Mal 96 Prozent und 91 Prozent.

Die Zahl der solchermaßen zitierfähigen Artikel kann aufgrund der kollaborativen Arbeit nicht sehr hoch sein, aber es macht künftig eine grundsätzliche Prüfung notwendig, wenn aus der Wikipedia Informationen entnommen werden, ob damit nicht in dem Fall gegen die mögliche Zitierpflicht mit Autorenangabe verstoßen wird. Es gibt also künftig nicht mehr einfach die Ausrede „Jeder benutzt sie, keiner zitiert sie“, sondern für jede einzelne Information ist zu prüfen – und das ist der große Unterschied zu den früheren gedruckten Enzyklopädien wie Brockhaus oder Encyclopedia Britannica – ob nicht gerade dieser Artikel die Hürden für die Zitierfähigkeit überschreitet und dann zitiert werden muss.

Die Wikipedia sollte die notwendigen Werkzeuge schnell allen Benutzern der Datenbank verfügbar machen, denn die Benutzer kommen nach dem Gesagten um eine genaue Prüfung, zur Vermeidung von Verstößen gegen das Urheberrecht, nicht mehr herum. Auch der Verweis darauf, dass die Wikipediainhalte ja vermeintlich frei sind, ändert daran nichts, denn die zugrundeliegende Creativ Commons Lizenz beinhaltet explizit die „Namensnennung — Sie müssen die Urheberschaft ausreichend deutlich benennen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung des Werks besonders.“17

Künftig gilt für den Umgang mit der Wikipedia: Jeder der sie benutzt, muss prüfen, ob er sie unter bestimmten Umständen nicht sogar mit Autorenangabe zitieren muss.

1     Wenn im Folgenden überwiegend die Form „Autor“ oder „Hauptautor“ verwendet wird, hat dies allein Lesbarkeitsgründe, mitzudenken sind sowohl die Formen „Autorin“ oder „Hauptautorin“ sowie „Autoren“ oder „Hauptautoren“.

2     Vgl. Brockhaus, 17. Auflage, Band 20: Wam-ZZ, Wiesbaden 1974, S. 827–835: Bei 1445 namentlich aufgelisteten Autoren. Der Anteil der Autorinnen liegt bei nur sechs Prozent.

3     Vgl. Ruediger Glott, Philipp Schmidt, Rishab Ghosh: Wikipedia Survey – Overview of Results. 2010. Online: http://www.wikipediasurvey.org/docs/Wikipedia_Overview_15March2010-FINAL.pdf (Abgerufen: 13.12.11), S. 7.

4     Johannes Becher, Viktor Becher: Gegen ein Anti-Wikipedia-Dogma an Hochschulen. Warum Wikipedia-Zitate nicht pauschal verboten werden sollten, in: Forschung und Lehre 18 (2011), H. 2, S. 116–118; Maren Lorenz: Der Trend zum Wikipedia-Beleg. Warum Wikipedia wissenschaftlich nicht zitierfähig ist, ebd., S. 120–122.

5     Stellungnahme des Verlags C. H. Beck zu Plagiatsvorwürfen bezüglich des Buches „Große Seeschlachten. Wendepunkte der Weltgeschichte von Salamis bis Skagerrak“ (München 2013), vgl. online: http://chbeck.de/_assets/pdf/pm_grosse-seeschlachten.pdf (Abgerufen: 9. Mai 2014).

6     Vgl. online: https://de.wikipedia.org/wiki/Benutzer:APPER/WikiHistory (Abgerufen: 9. Mai 2014) und online: https://de.wikipedia.org/wiki/Benutzer:APPER/WikiHistory/Programm (Abgerufen: 11. Mai 2014).

7     Vgl. online: https://de.wikipedia.org/wiki/Benutzer:APPER/WikiHistory/Autorenbestimmung (Abgerufen: 11. Mai 2014).

8     Beispielsweise der Artikel „Deutschland“ mit 3 460 Bearbeitern, vgl. online: https://de.wikipedia.org/wiki/Deutschland (Abgerufen: 9. Mai 2014).

9     Vgl. die Erhebung von Jürgen Engel im Jahr 2011 unter online: http://gemekon.de/dokumente/protokoll.pdf (Abgerufen: 11. Mai 2014), S. 2.

10    Zusätzlich zur Klarnamenanmeldung, die missbraucht werden könnte, gibt es die Möglichkeit das Benutzerkonto gegenüber dem Support-Team mit der E-Mail-Adresse einer Institution zu verifizieren.

11    Art. „John Hunter (Chirurg)“, bearb. von Frank Schulenburg u.a., in: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 15. November 2013, 08:52 UTC. URL: http://de.wikipedia.org/w/index.php?title=John_Hunter_(Chirurg)&oldid=124478660 (Abgerufen: 15. Mai 2014).

12    Art. „Johann Heinrich Zedler“, bearb. von Frank Schulenburg u.a., in: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 25. Februar 2014, 18:38 UTC. URL: http://de.wikipedia.org/w/index.php?title=Johann_Heinrich_Zedler&oldid=127940244 (Abgerufen: 8. Mai 2014).

13    Art. „Geschichte der Tr’ondek Hwech’in First Nation“, bearb. von Hans-Jürgen Hübner u.a., in: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 2. Mai 2014, 21:01 UTC. URL: http://de.wikipedia.org/w/index.php?title=Geschichte_der_Tr%E2%80%99ondek_Hwech%E2%80%99in_First_Nation&oldid=130047818 (Abgerufen: 15. Mai 2014).

14    Art. „Urgeschichte Italiens“, bearb. von Hans-Jürgen Hübner u.a., in: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 5. Mai 2014, 13:47 UTC. URL: http://de.wikipedia.org/w/index.php?title=Urgeschichte_Italiens&oldid=130119732 (Abgerufen: 8. Mai 2014).

15    Art. „Wirtschaftsgeschichte der Republik Venedig“, bearb. von Hans-Jürgen Hübner u.a., in: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 6. Mai 2014, 06:21 UTC. URL: http://de.wikipedia.org/w/index.php?title=Wirtschaftsgeschichte_der_Republik_Venedig&oldid=130140526 (Abgerufen: 8. Mai 2014).

16    Art. „Francesco Datini“, bearb. von Hans-Jürgen Hübner u.a., in: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 28. März 2014, 09:49 UTC. URL: http://de.wikipedia.org/w/index.php?title=Francesco_Datini&oldid=128974223 (Abgerufen: 15. Mai 2014).

17    Vgl. online: http://creativecommons.org/licenses/by-sa/3.0/deed.de (Abgerufen: 9. Mai 2014).

Download PDF

Quelle: http://mittelalter.hypotheses.org/3721

Weiterlesen

Blog des Arbeitskreises für digitale Geistes- und Sozialwissenschaften München

http://dhmuc.hypotheses.org dhmuc. vernetzt Digital-Humanities-Akteure unterschiedlicher Münchner Einrichtungen miteinander und vermittelt ihre Aktivitäten so breit wie möglich an Nachwuchswissenschaftler vor Ort ebenso wie an andere DH-Engagierte über München hinaus. Quelle: http://dhmuc.hypotheses.org/uber; Lizenz: CC BY 3.0

Quelle: http://www.einsichten-online.de/2014/05/5090/

Weiterlesen

Bericht zum Seminar “La transmission des textes : nouveaux outils, nouvelles approches” am IRHT Paris (31. März – 4. April 2014) – Interoperationalität und semantisches Web in der mediävistischen Praxis

Anfang April konnte ich in Paris an einer Schulung der COST Action „Medioevo Europeo“ teilnehmen, die diese gemeinsam mit dem Institut de Recherche d’Histoire de Textes (Irht) und dem Projekt Biblissima organisierte. Unter dem Titel “Transmission of texts. New tools, new approaches”(mehr Infos: hier) standen dabei vor allem Fragen der Interoperationalität und das semantische Web im Vordergrund. Was Interoperationalität und semantisches Web ganz konkret in der Praxis bedeuten, wurde uns anhand der laufenden Projekte des Irht und von Biblissima vorgeführt (was in der Tat sehr beeindruckend war). Dabei ging es natürlich um mittelalterliche Handschriften, Bibliotheken und Texte und deren Erschließung – wobei das Irht seine über Jahrzehnte gesammelte Datenbasis zusammenfasst und online stellt, während Biblissima eine Art digitale Meta-Bibliothek aufbaut, in der für die Handschriftenbestände in Frankreich alle Bilder, digitalen Editionen und dazugehörigen Informationen aus zahlreichen Einzeldatenbanken in einem einzigen Tool zusammengefasst und gemeinsam nutzbar gemacht werden. Auf dem Blog der AG Digitale Geschichtswissenschaft des VHD habe ich einen Bericht zu der Training School eingestellt, der zugleich einen Überblick über die dabei genannten aktuellen und zukünftigen online-Ressourcen bietet. Den Bericht kann man hier lesen: http://digigw.hypotheses.org/723.  

Quelle: http://dfmfa.hypotheses.org/1198

Weiterlesen

DHd-Blog: DHd-Kanal auf YouTube geht auf Sendung

Die Projekte DARIAH-DE und TextGrid betreiben seit heute [sc. 3. April 2014, ACH] auf YouTube einen eigenen DHd-Kanal (https://www.youtube.com/user/dhdkanal) mit Video-Clips zu DH-Themen. Rund vier Stunden Filmmaterial stehen bereits bereit, darunter zwei neue Explainity-Clips, die die Themen “Datensicherheit” und “Kollaborativ arbeiten” einfach und verständlich präsentieren. Geplant sind weitere Videos, beispielsweise die TextGrid-Tutorials zum Arbeiten im […]

Quelle: http://www.einsichten-online.de/2014/04/5039/

Weiterlesen

Zum Buchbegriff in der Diskussion um das digitale Publizieren in den Geisteswissenschaften. Überlegungen auch aus linguistischer und mediävistischer Sicht

Entpolarisierung und Öffnung

Um es für den wissenschaftlichen Bereich vorwegzunehmen (für andere Bereiche, wie etwa die Belletristik, ist die Lage eine andere): Die mittelfristige Zukunft im Bereich des wissenschaftlichen Kommunizierens und Publizierens ist digital und Open Access. Dabei möchte ich die sogenannte analoge Publikation nicht als Gegenpol oder Ausschlusskriterium zum Digitalen (und vice versa) im aktuellen Zeitstrang sehen. Wir sollten die besten Wege für digitale Publikationskulturen unter Beteiligung aller Akteure vorbereiten und vor allem auch im gegenwärtigen Diskurs eine Entpolarisierung zwischen Gedrucktem und Digitalem vornehmen. Dieser Prozess impliziert einen Wandel bezüglich der Formen und der Vielfalt der Publikationsformate, Hand in Hand mit der Entwicklung von Evaluations- und Anerkennungsmechanismen, die die Qualität und Vielfalt von digitalen Publikationen im Open Access – genauso wie die der analogen – in Einvernehmen mit den grundlegenden Prinzipien geisteswissenschaftlicher Forschung garantieren.

Dieser vielschichtige Veränderungsprozess hat bereits begonnen hat (schon alleine die zahlreichen Workshops und Tagungen zu diesem Thema sind mehr als Symptom). Angemessene und faire Praktiken, auch in und zusammen mit dem gewerblichen Bereich, sollten angestrebt werden, bei denen Wissenschaftler und Wissenschaftlerinnen nicht in noch größerem Maße wie bislang die goldenen Melkkühe für die Veröffentlichungen der eigenen Aufsätze und Bücher werden. Ein solches Szenario würde in der Tat genau das Gegenteil des fundamentalen Selbstverständnisses geisteswissenschaftlicher Forschung bedeuten.

ESF Young Researchers Forum "Changing Publication Cultures"

ESF Young Researchers Forum “Changing Publication Cultures”

Das Young Researchers Forum der European Science Foundation hat in einem Positionspapier mit dem Titel “Changing Publication Cultures in the Humanities” die neue Situation, der wir zur Zeit gegenüberstehen, überzeugend zusammengefasst:

“A key aspect of the future publishing culture in the humanities is to develop new opportunities to catalyse positive change in prevalent modes of institutional authority. It is necessary to facilitate access to the scholarly community in order to democratise participation and collaboration between peers because innovative scientific work takes place in numerous contexts outside traditional scholarly genres”. (p.7)

Dieses “Reformieren” (im wörtlichen Sinne – “eine neue Form geben”) der wissenschaftlichen Publikationspraktiken wird als Folge auch einen Wandel der Rollen der darin partizipierenden Individuen und Institutionen haben, etwas der Bibliotheken und Archive. Und auch das Verlagswesen ist hier tiefgreifend gefordert, ich zitiere noch einmal das Young Researchers Forum:

“The role of publishers will change from providing content to providing services to the authors and users of scholarly information. As content will increasingly be available in raw open access form, the challenge for the publisher is to provide suitable access and flexibility, assisting scholars to find, select, enrich, recombine, and cite the work of others. The repositories themselves should be maintained by public institutions capable of guaranteeing open and equal long-term access to the results and resources of the scholarly work. The role of the scholars as a global community is to provide the source of new scholarly knowledge and a guarantee of its high intellectual quality.” (p.7).

Letzter Punkt ist dann auch der entscheidende: Der Geisteswissenschaftler bleibt – wie seit jeher –der Garant der hohen intellektuellen Qualität des produzierten Outputs. Diese Verantwortung können und sollen wir nicht abgeben – und der Anspruch auf diese Garantie existierte und existiert per se und ist letztendlich, so würde ich aus der Sicht der Handschriftenforscherin uns Sprachhistorikerin formulieren, unabhängig von der Medialität des Textträgers.

Wissenschaftliche Erzählformen, Buch und Medialität

Somit greifen solche Argumentationen zu kurz, die in der Debatte um das digitale Publizieren eine vermeintliche, toposhaft idealisierende Dichotomie von herkömmlich Gedrucktem (im Sinne von gedruckter Qualität) versus digitale Flüchtigkeit aufbauen. Der Historiker Martin Schulze Wessel hielt vor kurzem auf einer Veranstaltung in München zum Thema “Nachwuchswissenschaftler, Verlage, Bibliotheken & Open Access. Zeitgemäßes Publizieren in den Geisteswissenschaften” – bei feinfühlig differenzierender Argumentation – letztendlich an der traditionellen Sichtweise fest: “Die große Erzählung bedarf des gedruckten Buches, da bin ich ganz sicher”. Ihm ist gewiss hinsichtlich des Umstands zuzustimmen, dass die „große Erzählung“ weiterhin – im Gegensatz etwa zu Datenbanken, optischen Visualisierungen und anderen neuen Wissensrepräsentationen – im Fließtext am besten, und zwar auch mit hohem literarischem Anspruch darstellbar ist, und dieser Fließtext in Buchform gut vermittelbar ist, aber das muss heutzutage nicht mehr unbedingt oder ausschließlich auf Papier geschehen. Auch digitale Buch-Publikationen können prinzipiell und werden auch einen verdientermaßen gleichen qualitativen Anspruch im monographischen Bereich erfüllen.

Vor allem der Luzerner Mittelalterhistoriker Valentin Gröbner, der diese Art der Polarisierung inzwischen geradezu zu seinem Markenzeichen entwickelte, hat kürzlich in einem Gastbeitrag auf der Online-Zeitschrift Public History Weekly (13.02.2014) im Hinblick auf die neuen Publikationskulturen plakativ festgehalten:

“Lektion? Keine Erlösung durch die neuen Medien, und auch kein Weltuntergang. Die schnellen digitalen Übertragungskanäle mit ihrem ununterbrochenen Aufdatieren schaffen ihre langsamen analogen Vorgänger auf Papier nicht ab, im Gegenteil. Noch nie waren gedruckte Aufsätze und Bücher so notwendig wie heute, nämlich als Filter für stabile Resultate: Hochfrequente “heiße” Kommunikationsmedien – wie dieses hier – alimentieren und fördern “kühlere” Speicher mit längerer Haltbarkeit. Deswegen wird in den digitalen Formaten auch ununterbrochen auf Papierpublikationen verwiesen. Das gilt für wissenschaftliche Netzpublikationen ebenso wie für jeden brauchbaren Wikipedia-Eintrag. Und aus richtig guten Blogs werden – Bücher. Hallo, digitale Revolution, ist da jemand?”

Die Passage ist linguistisch interessant, denn sie baut metaphernreich einen Gegensatz auf, der eigentlich an fundamentalen Anachronismen scheitert: die Annahme, dass es Bücher offenbar nur in gedruckten Formen gibt bzw. geben darf – und dass nur das auf Papier Gedruckte offenbar das Filternde, das Stabile, das Elitäre und das letztendlich Qualitätsvolle darstellt.[1] Kurzum: die Argumentation müsste spätestens bei historischer Betrachtung wie ein Kartenhaus zusammenbrechen, da sie die Jahrhunderte, ja Jahrtausende vor der Einführung des Buchdruckes in Europa (wohl bewusst) aus dem Blickfeld nimmt. Sie scheitert somit letztendlich auch an der Grunddefinition des Buches. Ein Buch ist nicht per se ein auf Papier gedrucktes Garant für stabile Wissensvermittlung – sonst würden ganze Jahrhunderte Wissenserzeugung, Wissensvernetzung und Wissensweitergabe über das Pergament oder anderer Schriftträger ausgeblendet, und zwar solche Schriftkulturen, die mittels eines Schriftmediums erfolgreich funktionierten und im Mittelalter etwa Bücher produzierten, die per se keine zwei identischen Kopien des gleichen Textes erlaubten. Diese Verfahren der Buchproduktion erzeugten kollaborative und vielfach dynamische Wissensspeicher, die erst die Voraussetzungen schufen für die wissenschaftlichen Großunternehmungen ab dem Humanismus aufwärts. Diese mittelalterlichen Pergamenthandschriften, ja es sind Bücher, aber keine gedruckten, lehren den, der sich die Zeit nimmt aus der Vogelperspektive unserer digitalen Welt hineinzuschauen, dass wir es mit seltsamen Wiedererkennungswerten zu tun haben – und somit letztendlich auch das papierne Buch in einer longue durée hier seinen Platz noch einnehmen muss, ohne das endgültige A und O aller Dinge zu sein.

Alte BücherFreilich muss man, wenn man wissenschaftlich arbeiten will, nicht alles lesen, was im Netz steht, um nochmals den Titel eines Beitrages von Valentin Gröbner zu zitieren,[2] aber diese Frage stellt sich letztendlich für alles (inklusive der sogenannten “grauen Literatur”) auf Papier Gedruckte und davor Geschriebene, und somit wären wir wieder bei der Frage der Quellenkunde und Heuristik, die nur durch eine ganz immaterielle, und zwar intellektuelle Arbeit vollzogen werden kann. Insgesamt sollten wir die Vielfalt der neuen Publikations- und Kommunikationsformen im Netz wahrnehmen, mit den (noch) vorhandenen analogen kombinieren, in unsere wissenschaftlichen Arbeitsweisen integrieren, und auch deren positive Potentiale erkennen, von wissenschaftlichen Blogs, Mikropublikationen bis hin zu Online-Zeitschriften und Monographien, die selbstverständlich auch qualitativ hochwertig online veröffentlicht werden können, um nur einige zu nennen.

Hybridität und Digitalität

Vielleicht würde es auch einfach gut tun, unsere jetzige Hybridität zwischen analogen und digitalen Publikationskulturen zu erkennen, und im Kontext einer allgemeinen Digitalität entspannter damit umzugehen. Auch ich stehe gerne vor einem Regal und ziehe genau das (gedruckte) Buch zu einer bestimmten mittelalterlichen Bibliothek heraus, um darin konzentriert zu lesen oder einfach nur zu stöbern, – ich freue mich aber auch, wenn das gleiche Buch (oder eins, das ich eben nicht zur Hand habe) zum orts- und zeitungebundenen Lesen oder zum gezielten Durchsuchen digital verfügbar, und sogar eventuell von mir annotier- und mit anderen Quellen verlinkbar ist. Nicht zu schweigen von all den mittelalterlichen Handschriften, von denen ich jeden Tag dankbar bin, dass ich sie inzwischen zu Tausenden in hochqualitativer Auflösung und zum Teil in ihrem ursprünglichen – heute vielfach nicht mehr in der analogen Welt vorhandenen – Überlieferungskontext mit anderen Codices zusammen im Netz aufsuchen und benutzen kann.

(Die Ausführungen gehen auf einen Vortrag zurück, der auf Einladung von Marko Demantowski und Béatrice Ziegler am 24. März 2014 des Basler Kolloquium zur Didaktik der Geschichte und Politik gehalten wurde. Merci an Mareike Koenig und Georg Schelbert für Anregungen und Hinweise.)

 

[1] Die ganze Debatte erinnert zum Teil an die Diskussion um die deutsche Rechtschreibreform und das von manchen noch heute (vielleicht etwa auch in elitärem Habitus) praktizierte Festklammern an der alten Orthographie, wobei auch deren Unzulänglichkeiten beflissentlich ausgeblendet bzw. systematisch verdrängt werden.

Quelle: http://annotatio.hypotheses.org/376

Weiterlesen

Silke Baumann: Langzeitarchivierung innerhalb Virtueller Forschungsumgebungen im Bereich Digital Humanities (=Berliner Handreichungen zur Bibliotheks- und Informationswissenschaft Heft 353), Berlin 2014

http://edoc.hu-berlin.de/series/berliner-handreichungen/2014-353 In der vorliegenden Arbeit wird an einem konkreten Beispiel betrachtet werden, wie wissenschaftliche digitale Kooperation und die langfristige Speicherung der digitalen Daten im Bereich Digital Humanities aktuell umgesetzt werden bzw. welche Wünsche und Ansichten die ForscherInnen diesbezüglich haben. Zu diesem Zweck wurden WissenschaftlerInnen der Johannes Gutenberg-Universität Mainz zur Beantwortung eines Online- Fragebogens eingeladen. Einführend […]

Quelle: http://www.einsichten-online.de/2014/03/4990/

Weiterlesen