In Zukunft verbunden

Digitale Infrastrukturen für die Forschung

Digitale Forschungsinfrastrukturen zählen bereits heute zu den Grundbedingungen für exzellente Forschung. Für zukunftssichere Forschungsbedingungen sichert die MWS den Anschluss an die übergreifenden Informationsinfrastrukturen und gestaltet die Entwicklungen mit.

Die Zukunft der digitalen Forschungsinfrastrukturen

In Zeiten multidisziplinärer Verbundforschung mit digitalen Methoden in internationalen Teams lassen sich die dafür notwendigen Infrastrukturen (wie Analysesysteme, Datenzentren, Virtuelle Forschungsumgebungen, etc.) nicht mehr im eigenen Keller betreiben. Aber auch für kleine, fokussierte Vorhaben und die Einzelforschung ohne eigene Kapazitäten sind übergreifende und nachhaltige Angebote für die Forschung unverzichtbar. Auf institutioneller Ebene schließlich ist die Abdeckung der vielfältigen neuen Kompetenzen die größte Herausforderung.

In der Entwicklung dieser digitalen Forschungsinfrastrukturen findet derzeit ein Paradigmenwechsel statt. Bedingt durch Projektförderung und dezentrale Strukturen in den Wissenschaftssystemen ist eine durch Ungleichzeitigkeit und Zersplitterung geprägte Landschaft von Initiativen in der Findungs- oder Experimentierphase entstanden.

[...]

Quelle: http://mws.hypotheses.org/39412

Weiterlesen

Technische Grundlagen

Dieses Thema ist etwas komplexer. Eigentlich ist es sogar sehr komplex, dennoch werde ich versuchen, die Einheit so gut es geht, verständlich wiederzugeben.

Zunächst haben wir über Algorithmen gesprochen. Das sind formalisierte Handlungsabläufe, die eine Lösung zu einem Problem liefern kann. Man kann sie z.b. in einem Ablaufdiagramm darstellen. Die Schritte dabei sind: Start->Operation->Entscheidung->Ausgabe->Stop

Soetwas kann der Computer sehr gut, denn er ist eine universelle „Turingmaschine“, also eine Maschine, die einem Algorithmus folgt, der alle anderen Algorithmen ausführen kann.

[...]

Quelle: http://dguw.hypotheses.org/387

Weiterlesen

Max meets LISA spezial: New Science on the Blog?


Internationale Herausforderungen für wissenschaftliche Blogs

Wissenschaftliche Blogs haben sich zu einem Leitmedium entwickelt: Sie ermöglichen einfaches Publizieren, freien Zugang zu Forschungsdaten und innovative Formen der Darstellung. Mit der Offenheit stellen sich aber auch die Fragen nach Reputation, Qualitätssicherung und Mehrsprachigkeit. Was passiert, wenn Wissenschaftlerinnen und Wissenschaftler selbst zu Medienproduzenten werden? Müssen Wissenschaftskommunikatoren heute Community Manager sein, Moderatoren eines Dialogs von Wissenschaftlern untereinander und mit der breiteren Öffentlichkeit? Wie verändert sich Wissenschaftskommunikation, wenn es keine Zielgruppen mehr gibt, sondern sich alle in dialogischen Netzwerken bewegen? Welche Bedingungen brauchen wir, um die Potenziale der Sozialen Medien effektiv zu nutzen?

Auf dem 8. Forum Wissenschaftskommunikation haben am 1. Dezember 2015 Lars Fischer (Spektrum der Wissenschaft), Mareike König (Deutsches Historisches Institut Paris), Henning Krause (Helmholtz Gemeinschaft) und Nadia von Maltzahn (Orient-Institut Beirut) mit Gesche Schifferdecker (Geschäftsstelle der Max Weber Stiftung) Fragen digitaler Wissenschaftskommunikation diskutiert.

[...]

Quelle: http://mws.hypotheses.org/31910

Weiterlesen

Max meets LISA spezial: Höher, weiter, digital – wo bleibt die Wissenschaft?

Die Bandbreite an technischen Möglichkeiten sowie die Versuchung, diese für möglichst alle Lebensbereiche nutzbar zu machen, wird größer. Das gilt nicht zuletzt für die Wissenschaft, die von ihrem Selbstverständnis her nach immer mehr und letztlich nach höherer Erkenntnis strebt. Helfen soll ihr dabei die neue digitale Sphäre, bespielsweise über digitale Werkzeuge, Funktionen, Speicher oder Kommunkationsmittel. Kritiker sehen in dieser Entwicklung eine Gefahr für die Wissenschaft insgesamt, die sich in der schönen neuen digitalen Welt verliere und Forscherinnen und Forscher an den Rand ihrer Kapazitäten dränge. Ist das wirklich so? Sind die Chancen, die sich durch den Einzug des Digitalen ergeben, nicht größer als die Risiken? Zum Abschluss der Tagung Die Zukunft der Wissensspeicher haben wir mit der Historikerin Prof. Dr. Maren Lorenz und dem Kunsthistoriker Prof. Dr.

[...]

Quelle: http://mws.hypotheses.org/28316

Weiterlesen

(Digital) Humanities – revisited: Twitter und Blogs als Kommunikationswerkzeuge bei der Herrenhäuser Konferenz der VolkswagenStiftung 2013

Am 5. bis 7. Dezember fand in Hannover die Herrenhäuser Konferenz der VolkswagenStiftung zum Thema “Digitale Geisteswissenschaften” statt. Der englische Titel lautete “(Digital) Humanities Revisited – Challenges and Opportunities in the Digital Age“. Ich möchte hier keine weitere Zusammenfassung liefern, sondern nur eine Übersicht über die Vielfalt der Tweets und Blogartikel geben, die im Rahmen dieser Konferenz entstanden sind.

Bloggers Corner & Twitter

Werkzeuge des digitalen Historikers - iPad und Twitter

Werkzeuge des digitalen Historikers – iPad und Twitter

Vier Blogger/innen (Eva Bambach, Kim Albrecht, Michael Schmalenstroer und ich), wir freuten uns sehr über die großzügige Einladung der VolkswagenStiftung nach Hannover, bei der wir als ScienceBlogger unsere eigene „Bloggers Corner“ mit einer gemütlichen Couch beziehen durften. Dorthin luden wir nach und nach einige Konferenzteilnehmer/innen zum Kennenlernen ein, die wir über Twitter kannten oder vor Ort angesprochen haben. Hier zeigte sich nochmal das Potential zur Vernetzung, dass in dem Kurzmitteilungsdienst steckt, denn wer würde schließlich einfach jemanden bei einer Konferenz ansprechen, ohne wirklich zu wissen, wer derjenige ist. Bei Twitter liegt die Hürde zum Kennenlernen und Ansprechen vergleichsweise niedrig. Schon bald stellte sich bei der Konferenz heraus, dass nicht nur die ScienceBlogger, sondern auch viele Teilnehmer/innen in den sozialen Medien und in Blogs aktiv sind, so dass wir via Twitter eine Art „Metadiskurs“ parallel zu den Vortragenden der Konferenz halten konnten.

Podiumsdiskussion

Podiumsdiskussion

Dieser Metadiskurs verlief bei den meist sehr anregenden Vorträgen und Lightning Talks so, dass die Inhalte des Vortrags ergänzt oder kommentiert wurden. Es wurden Links hin- und her getweetet und Hinweise auf Hintergrundinformationen geliefert. Nur bei den Podiumsdiskussionen merkte man schnell, dass die Twitterer unter den Konferenzteilnehmern eine andere Meinung als die Teilnehmer der Podiumsdiskussion hatten und sich so der digitale Metadiskurs auf Twitter von der öffentlich geführten Diskussion im Raum entfernte.

Die Tweets während der Konferenz konnten mit dem Hashtag #dighum1213 gesammelt werden. Ich habe sie mittels TAGS 5.1 in einer Tabelle archiviert und mit dem TAGSExplorer eine Visualisierung erstellt. Ich versuche auch in den folgenden Wochen noch die nachfolgenden Tweets zu sammeln.

TAGS – v5.1 – #dighum1213 (zip)

Visualisierung der Tweets mit TagsExplorer

Wer weitere Visualisierungen anhand dieser Daten erstellt, darf gerne einen Kommentar mit Link hier hinterlassen.

Blogs

#dighum1213Während der Veranstaltung hat Michael Schmalenstroer ein Etherpad genutzt, also einen Texteditor, bei dem in Echtzeit mehrere Autoren gleichzeitig schreiben können, um damit die Blogs der Teilnehmer/innen zu sammeln. Es zeigte sich, dass viele Blogger dabei sind, wie die nachfolgende, nicht ganz vollständige Übersicht zeigt.

Übersicht über Blogartikel

"Big Data"-Vortrag von Viktor Mayer-Schönberger

“Big Data”-Vortrag von Viktor Mayer-Schönberger

Zuletzt möchte ich noch eine Linkliste mit den Blogs zur Verfügung stellen, die zur Konferenz in Hannover gebloggt haben, damit man eine kleine Übersicht über die bisher erschienenen Artikel bekommt.

8.12.2013, Michael Piotrowski, nlphist.hypotheses.org
Digital Humanities Defined

Michael Piotrowski zeigt sich verwundert über die ständigen Diskussionen über den Begriff “digital humanities” und wünscht sich stattdessen mehr produktive Ergebnisse aus diesem Forschungsgebiet. Dazu liefert er eine enge und eine weite Definition des Begriffs, darauf hoffend, dass die fruchtlosen Diskussionen um diese Begriffe und Definitionen bald beendet sein mögen.

9.12.2013, Michael Schmalenstroer, schmalenstroer.net
#dighum1213 oder die Mathematisierung der Geisteswissenschaften

Michael Schmalenstroer, ebenfalls von der VolkswagenStiftung als ScienceBlogger eingeladen, problematisiert ebenfalls das Selbstverständnis der digital humanities und arbeitet gut die besonderen Schwierigkeiten für Nachwuchswissenschaftler/innen und Studierende in diesen Gebieten heraus. Patrick Sahle fordert im Kommentar, dass wir nicht nur eine Mathematisierung der Geisteswissenschaft brauchen, sondern auch eine “‘Vergeisteswissenschaftlichung‘ der Informatik.“

9.12.2013, Philipp Nordmeyer, criticalbits.org
Destroy the Digital Humanities! #dighum1213
Digital Humanities Revisited Conference #dighum1213

Gleich zwei Artikel liefert Philipp Nordmeyer. Er glaubt, dass die Digital Humanities nur eine Art “think tank” für die Geisteswissenschaften im Allgemeinen sein sollen, die eine Transformation herbeiführen um am Ende selbst zerstört, bzw. absorbiert zu werden.

9.12.2013, Ian Milligan, ianmilligan.ca
Herrenhausen Lightning Talk on Historians and Web Archives

Ian Milligan hat sein “Lightning Talk” online gestellt. Dieses Format diente vor allem Nachwuchswissenschaftlern aus der ganzen Welt ihre Forschung in 3 Minuten zu präsentieren. Danach bestand die Möglichkeit am entsprechenden Poster im persönlichen Gespräch mehr Details zu erfahren. Ich fand dieses Format sehr gelungen, da es vor allem in den Momenten nachmittags, wo die Konzentration etwas nachlässt, erfrischend wirkte.

9.12.2013, Sabine Scherz, games.hypotheses.org
Digital Humanities Revisited in Hannover

Auch Sabine Scherz hatte einen Travel Grant der VolkswagenStiftung bekommen und die das Crowdsourcing-Spiel ARTigo vorgestellt, dass einen sehr ernsthaften wissenschaftlichen Hintergrund hat.

9.12.2013, VolkswagenStiftung, www.volkswagenstiftung.de
Was macht das Netz mit der Kultur?

Die VolkswagenStiftung liefert auf ihrer Webseite die vollständige Video-Aufzeichnung der Podiumsdiskussion zwischen der Kulturwissenschaftlerin Mercedes Bunz, die an der Leuphana Universität Lüneburg das Hybrid Publishing Lab leitet, Bettina Wagner-Bergelt, Stellvertreterin des Direktors des Bayerischen Staatsballetts, sowie Jürgen Kaube, Leiter des Ressorts „Geisteswissenschaften“ der Frankfurter Allgemeinen Zeitung. Die Diskussion wurde von Jürgen-M. Edelmann moderiert. Es wäre spannend die parallel geführte, kontroverse Twitter-Diskussion einzublenden, leider ist mir kein Tool dafür bekannt.

10.12.2013, Eva Bambach, www.scilogs.de/denkmale
“Digital Humanities Revisited” in Hannover

Eva Bambach, Bloggerin bei Scilogs und Journalistin beschreibt ihre Eindrücke von der Konferenz un d unterscheidet in ihrem Blog drei zentrale Themen der digital humanities: Zugang/Kommunikation, Tools und user-generated content.

16.12.2013, Lilian Landes, http://rkb.hypotheses.org
(Digital) Humanities Revisited – Challenges and Opportunities in the Digital Age. Oder: Wie man Gräben isst.

Eine pointierte Zusammenfassung der Konferenz liefert Lilian Landes im Blog „Rezensieren, Komentieren, Bloggen“, die in ihrem Beitrag den Graben selbst innerhalb der „digital humanities community“ aufzeigt, den man dank des guten Caterings der VolkswagenStiftung interdisziplinär aufessen konnte, indem man sich austaucht, kommuniziert und so die bestehenden Gräben überwindet.

18.12.2013, Georgios Chatzoudis, www.lisa.gerda-henkel-stiftung.de
(Digital) Humanities revisited, Ein Blick zurück auf die internationale Konferenz in Schloss Herrenhausen

Georgios Chatzoudis vom Portal LISA der Gerda Henkel Stiftung sammelte kleine Beiträge und Video-Eindrücke mit einer Flipkamera während der Konferenz. Auch die ScienceBlogger sind dabei, ab der Minute 26.

Weitere Artikel werden nach und nach hier ergänzt.

Quelle: http://mws.hypotheses.org/8227

Weiterlesen

re:publica 2013 – Nerds im Elfenbeinturm


Vom 6.-8. Mai waren Charlotte Jahnz und Sascha Foerster für die Max Weber Stiftung in Berlin bei der Konferenz re:publica 2013. Sie begann vor 7 Jahren als Blogger-Treffen und hat sich mittlerweile zur wichtigsten europäischen Internet-Konferenzen mit über 5000 Teilnehmern und mehreren hundert Rednern entwickelt. 

Session "Geschichte des Computers" (CC-BY 3.0 Sascha Foerster)

Session “Geschichte des Computers” (CC-BY 3.0 Sascha Foerster)

Aus der Fülle des Programms möchte ich einige interessante Vorträge, Projekte und Themen der Konferenz vorstellen und persönlich kommentieren, besonders in Hinblick darauf, wie die digitalen Entwicklungen Wissenschaft verändern. Falls entsprechende Aufzeichnungen vorhanden sind, werden diese verlinkt. Weitere Themen, Thesen und Zusammenfassungen von Vorträgen können gerne in den Kommentaren ergänzt werden. Mehr Informationen zur Konferenz gibt es unter http://re-publica.de. Dies ist natürlich eine persönliche Auswahl aus der Vielzahl der Themen, die bei der Konferenz behandelt wurden. Wer Konferenzmitschnitte anschauen möchte, findet hier eine Übersichtsseite mit den Sessions und den entsprechenden Videos zum Anschauen.

Open Data, Open Access und Digital Humanities

Nicht nur in der Verwaltung sondern auch in der Forschung fallen viele Daten an, die oft nach Abschluss des Projekts verloren gehen. Im Vortrag “Die maschinenlesbare Regierung” wurde gefordert solche Daten, die bei öffentlich geförderten Projekten anfallen, unter einer verbreiteten freien Lizenz, zum Beispiel “CreativeCommons” (bzw. ähnliche) und maschinenlesbar zugänglich zu machen. Zum einen ermögliche dies die genauere Replikation und Überprüfung von Studien, zum anderen könnten diese Daten für weitere innovative und gesellschaftsdienliche Zwecke genutzt werden. Persönliche Daten sollen dabei geschützt bleiben und nicht veröffentlicht werden.

Nach Möglichkeit sollen bekannte und verbreitete freie Lizenzen für die Datenveröffentlichung verwendet werden. Maschinenlesbar bedeutet, dass diese Daten nicht als PDF “ausgedruckt” (Zitat: “Schnarchdaten”), sondern in Rohformaten veröffentlicht werden, die automatisiert gelesen und weiterverarbeitet werden können. PDF-Dateien sind für solche Zwecke denkbar schlecht geeignet, da die Rohinformationen dort erst wieder aufwendig extrahiert werden müssen.

Es wurden Forderungen gestellt, die Veröffentlichung von Verwaltungs- und Forschungsdaten gesetzlich verpflichtend zu machen. Entsprechende Gesetze sollen baldmöglichst “installiert werden”.

Links:

re:publica 2013 Session: Die maschinenlesbare Regierung – Eine kritische Analyse zur Gegenwart von Open Data und Open Goverment in Deutschland

Definition von “Offenes Wissen”
http://opendefinition.org/okd/deutsch/

http://de.wikipedia.org/wiki/Open_Data

re:publica 2013 Aufzeichnung: How radical are Open Access and the Digital Humanities?
http://www.youtube.com/watch?v=-9d0KM1I0aw

re:publica 2013 Aufzeichnung: OpenData, was hat das mit mir zu tun?
http://www.youtube.com/watch?v=QBSNr6UXIJg

re:publica 2013 Aufzeichnung: Datenbeifreiung, selbst gemacht. (Tools für Open Data)
http://www.youtube.com/watch?v=vWerZQFj4Xc

Crowdfounding, Crowdsourcing und Wissenschaftskommunikation

Ein Beispiel für gute Wissenschaftskommunikation war die Session zur Grundlagenforschung des CERN. Im Vortrag zeigten Henning Krause (Helmholtz-Gemeinschaft) und seine Kolleginnen und Kollegen vom CERN, wie es zur Entdeckung des Higgs-Teilchens kam. Fast alle Institute nutzen die Kanäle Blogs, Facebook, Twitter, teils auch Podcasts oder öffentliche Google Hangouts zur Wissenschaftskommunikation. In der Diskussion wurde später kritisch nachgehakt, ob die Entdeckung des Higgs-Teilchens den enormen finanziellen Aufwand von 6 Milliarden Euro für den Teilchenbeschleuniger LHC rechtfertige. Gerade wegen des hohen finanziellen Aufwands spiele es eine wichtige Rolle, der Öffentlichkeit die Forschungsergebnisse zu vermitteln und so weiter für die Notwendigkeit der Grundlagenforschung zu werben, wurde erwidert. Da am CERN durch Tim Berners-Lee auch die Grundlagen für das WWW geschaffen wurden, konnte man mit Verständnis unter den technikbegeisterten Zuschauern rechnen. Die enorme Datenverarbeitungskapazität, die nur durch ein weltweites Cluster von Rechner bereit gestellt werden können, zeigten auch, dass durch Grundlagenforschung aktuelle technische Entwicklungen voran gebracht werden können.

Zwischen den Sessions gab es immer wieder Gelegenheit persönlich mit Kollegen zu sprechen, unter anderem habe ich mit Thorsten Witt gesprochen, der für “Wissenschaft im Dialog” das Projekt www.sciencestarter.de leitet. Crowdfounding fordert Wissenschaftler/innen dazu auf, sich und ihre Forschung aktiv zu präsentieren, um so Forschungsgelder von einer interessierten Öffentlichkeit zu sammeln. Einerseits gibt es Befürchtungen der Popularisierung von Forschung, andererseits wird so von Anfang an die Wissenschaftskommunikation gefördert. Auch kleinere Projekte bekommen so eine Chance auf Förderung. Neue Projektvorschläge werden gesucht, besonders auch aus den Geistes- und Sozialwissenschaften.

Eine weitere Möglichkeit, die Crowd für die Forschung zu nutzen, besteht darin, ähnlich wie bei der Wikipedia, Forscher/innen dazu zu animieren, sich gegenseitig bei der Lösung von Forschungsproblemen zu unterstützen bzw. Freiwillige zu animieren bei einem interessanten Projekt zu helfen. Ein vergleichsweise einfacher Weg dazu kann eine offene wissenschaftliche Frage in einem Blogbeitrag sein (siehe z.B. die offene Frage und folgende Diskussion im dk-blog), die von anderen Lesern beantwortet wird. Es kann sich aber auch im Großprojekte wie die Digitalisierung historischer Werke handeln, die auch von Nicht-Experten unterstützt wird. Auch hier sind noch Experimente nötig um die entsprechenden Möglichkeiten und Risiken auszuloten.

Thorsten Witt organisiert übrigens ein SciCamp zum Thema “Wissenschaft im Netz”, das am 1. und 2. Juni 2013 in Berlin stattfinden wird.

Links:

re:publica 2013 Aufzeichnung: Faszination Grundlagenforschung: Higgs, Big Data und Teilchenphysik
http://www.youtube.com/watch?v=ceARb5FRy8A

http://www.sciencestarter.de

Passend zum Thema Öffentlichkeitsarbeit und Partizipation:
www.hellojed.de: “Public History: Mehr Öffentlichkeit? Bessere Öffentlichkeit?”

Ähnliche Themen:

re:publica 2013 Aufzeichnung: In, Side, Out of Science (Partizipation in der Wissenschaft)
http://www.youtube.com/watch?v=JZI3peYWGUU

re:publica 2013 Aufzeichnung: Horst Zuse, Die Geschichte des Computers
http://www.youtube.com/watch?v=YAh4Jr5dJcQ

Wikipedia und WikiData

Der Vortrag zu Wikipedia und besonders die kritischen Nachfragen aus dem Publikum zeigen, welche Schwachstellen die Wikipedia momentan hat. Einerseits besteht aus Sicht der Administratoren ein Großteil der Arbeit aus Löschung von unsinnigen Beiträgen, Rückgängigmachung von Vandalismus und Entfernung von Fehlern, die besonders gefährlich sind, da viele, besonders Medien aber auch Wissenschaftler, diese Fehler gegenseitig abschreiben und weiterverbreiteten. Dies wurde an verschiedenen Beispielen gezeigt, u.a. an einem Zahlendreher bei der Länge des Rheins oder einem Eintrag zur Berliner Karl-Marx-Allee. Andererseits werden so auch oft Beiträge und Änderungen gelöscht, die korrekt sind, was zu enormen Frust bei den Nutzern und Autoren führt. Gerade Wissenschaftler, die Spezialisten in ihrem Gebiet sind und Spezial-Artikel durch ihre Expertise auf ein höheres Niveau heben könnten, wenden sich aufgrund der langwierigen Diskussionen mit Administratoren um kleine Anpassungen wieder ab. Dabei sind sich prinzipiell alle Seiten einig, wie wichtig das Projekt Wikipedia ist.

Meiner Meinung nach ist es nicht einfach beide Fehlerarten (falsche Informationen, falsche Löschungen) gleichermaßen zu reduzieren, doch das wird die Aufgabe sein, die die Wikipedia zu lösen hat, um weder (freiwillig arbeitende) Administratoren noch qualitativ hochwertige (ebenfalls freiwillig arbeitend) Beiträger/innen  zu verlieren.

Eine interessante Neuentwicklung ist das Projekt “WikiData“, dass eine Datenbank-Infrastruktur für die Wikipedia bereitstellt. Vielverspechend ist die Möglichkeit, Daten über verschiedene Artikel hinweg an einer zentralen Stelle aktualisieren zu können. Welchen Nutzen dies für Wissenschaftler/innen hat und welche Fragen sich mit diesen Datensätzen beantworten lassen, wird sich erst zeigen, wenn mehr Daten zur Verfügung stehen und einige Forscher damit experimentiert haben. Wer sich für WikiData interessiert, kann schon mal die API testen. Beispielsweise lassen sich auch historische Daten und Fakten in der Datenbank festhalten.

Links:

re:publica 2013 Aufzeichnung: Wikipedia: wo User geblockt, Artikel gelöscht und Reputationen zerstört werden
http://www.youtube.com/watch?v=5iSAl_krauA

http://www.wikidata.org/w/api.php

Digitalisierung und Langzeitarchivierung

Unter dem provokativen aber ernst gemeinten Titel “Das Buch muss überwunden werden – Digitales Utopia oder eher El Dorado?” stand der Vortrag über die “nächste Evolutionsstufe des Buches” und den gegenwärtigen Stand der Digitalisierung. Die Vortragenden vertraten eine klare Position für eine Digitalisierung bis hin zur Abschaffung des Buches in seiner physischen Form. Es wurden Projekte wie die “Deutsche Digitale Bibliothek” und “Europeana.eu“ vorgestellt und die urheberrechtlichen Hintergründe und Probleme erklärt.

Besonders Bücher zwischen 1850 bis 1950 seien vom Papierzerfall bedroht. Die Probleme der digitalen Langzeitarchivierung seien viel besser lösbar bzw. bereits gelöst. Alle Bücher zu digitalisieren, würde nach Schätzungen der Vortragenden 120 Millionen Euro kosten. Selbst wenn es viermal so teuer wäre, so wurde argumentiert, würde es immer noch durch die öffentliche Hand zu stemmen sein.

Zwei Nutzungsszenarien böten sich nach der Digitalisierung an: Zum Ersten könne man die Bücher einfach lesen. Zum Zweiten ließe sich erst nach Digitalisierung eine Volltextsuche durchführen, wie sie beispielsweise bereits von Google ngram angeboten wird.

Auch die Langzeitarchivierung von Blogs ist ein bisher nicht wirklich gelöstes Problem. Zwar gibt es die “Wayback Machine” des “Internet Archives”, doch geht dabei der dynamische Charakter der Blogs verloren, da diese ja meist auf ein Datenbanksystem zurückgreifen. Bereits 45% der Blogs aus der Zeit des Irakkriegs seien verloren gegangen – trotz des bestehenden “Internet Archives”. Das EU-geförderte Projekt “Blogforever” soll hier Abhilfe schaffen, indem es die dynamischen erstellten Blogs archivieren hilft. Es soll in Zukunft als OpenSource-Paket und als Webdienst verfügbar sein.

Ein digitales Archiv des analogen Alltags wird im Projekt “digIT – Graben, Retten, Teilen” beim WDR erstellt. Die Mitarbeiter/innen sammeln vor Ort analoge Videos und Fotos ein, digitalisieren diese und stellen eine Kopie auf ihrer Webseite. Als Beispiel wurde ein Video der Brückenverschiebung 1976 in Düsseldorf gezeigt. Im Workshop suchten die Mitarbeiter nach Ideen für ein besseres Tagging des Materials der Offliner, gegebenenfalls mit Hilfe von Onlinern.

Als Nachteil habe ich auch hier empfunden, dass keine freien Lizenzen verwendet werden, sondern eine Eigenentwicklung des WDR, bei der nur nicht-kommerzielle Archive und Bildungsträger das Material nutzen dürfen. Nicht allen Zuhörern war klar, was CC-Lizenzen sind, wie ein nachfragender Nebenmann mir bewies. Bei einer Nutzung von freien Lizenzen könnten die Digitalisate beispielsweise auch in der Wikipedia eingebunden werden. Bei Beendigung des Projekts werden so die Daten vermutlich nur noch für die eigene Mitarbeiter im WDR-Archiv zu finden sein.

Links:

re:publica 2013 Aufzeichnung: Das Buch muss überwunden werden – Digitales Utopia oder eher El Dorado?
http://www.youtube.com/watch?v=oOcOTE2IP34

re:publica 2013 Session: Blogforever

re:publica 2013 Session: digit.WDR.de – Graben, retten, teilen

Nestor : Digitale Langzeitarchivierung

Internet Archive: Wayback Machine

Best of Blogs, reclaim.fm und Owncloud

Dass Blogs schon lange mehr sind als Online-Tagebücher von Teenager, hat sich noch nicht überall herumgesprochen. Die Best-of-Blog-Awards, vergeben von der Deutschen Welle, zeigen, welche Bedeutung Blogs mittlerweile für die freie Meinungsäußerung weltweit haben. Auch die wissenschaftliche Blogplattform Hypotheses.org, deren deutschen Ableger de.hypotheses.org wir bei der Max Weber Stiftung managen, war nominiert.

Verweisen möchte ich auch auf den Überraschungsvortrag von Sascha Lobo, in dem das Tool reclaim.fm vorgestellt wurde. Es ist noch in der Entwicklung, soll aber dabei helfen die eigenen Daten aus Facebook, Twitter und anderen kommerziellen Diensten zurück in das selbstkontrollierte WordPress-Blog zu bringen, eine Entwicklung, die ich persönlich begrüße. Insgesamt wird immer wieder der Wunsch geäußert aus den kommerziell orientierten sozialen Medien zurück in die Blogosphäre zu kehren. Dort hat man Kontrolle über die eigenen Daten und wird nicht von Großkonzernen für bessere Werbeplatzierungen ausspioniert. Doch vermutlich wird diese Henne-Ei-Diskussion weitergehen, so lange die meisten Kontakte sich in kommerziellen Netzwerken befinden.

Eine freie Alternative zu Dropbox und Co. ist Owncloud. Man kann damit Dateien auf den eigenen Rechnern belassen und trotzdem über verschiedene Geräte synchronisieren, bzw. im Internet teilen. Es ist also eine selbstkontrollierte Datenwolke, bei der man keine “Allgemeinen Geschäftsbedingungen” zum eigenen Nachteil bestätigen muss, ohne dabei irgendeinen funktionellen Nachteil zu haben.

Links:

re:publica 2013 Aufzeichnung: The Bobs Six Winners
http://www.youtube.com/watch?v=EcsaUnQgvhM

re:publica 2013 Aufzeichnung: Sascha Lobo: Überraschungsvortrag II
http://www.youtube.com/watch?v=Raas1BhSIbs

Passend dazu:
http://schmalenstroer.net/blog/2013/05/reclaim-fm-die-eigene-social-media-sicherung/

re:publica 2013 Aufzeichnung: crushing data silos with Owncloud
http://www.youtube.com/watch?v=CwhKl0qvcfA

Workshops: Content, SocialCRM, Social Media

Im Rahmen der re:publica 2013 wurde auch die Konferenz re:campaign abgehalten, die einen Schwerpunkt auf NGOs legt, aber auch für Stiftungen und anderen Organisationen im Internet waren interessante Anregungen dabei.

Die Erstellung einer Content-Strategie für NGO’s wurde im entsprechenden Workshop mit folgenden Schritten beschrieben: Zuerst muss man die bestehenden eigenen Inhalte der Organisationen kennen lernen. Danach sollten Benutzerprofile der Rezipienten erstellt werden, zum Beispiel durch Interviews oder Umfragen. Die Fragen “Was wollen und was brauchen die Nutzer?” sollen so beantwortet werden. Anhand der Organisationsziele lässt sich dann bestimmen, welche konkreten Botschaften gesendet werden sollen. Damit Inhalte (Content) in Organisationen produziert und verteilt werden können, müssen Prozesse und Arbeitsabläufe geplant und strukturiert werden. Dazu gehören auch Kontrollmechanismen und festgelegte Verantwortlichkeiten. Schließlich wird entschieden, auf welchen Plattformen und wie die Inhalte verbreitet werden. Welche Medienformate eignen sich für welche Plattform? Insgesamt sollte es nicht zu textlastig werden. Einstiegsvideos helfen, Emotionen zu wecken, Storytelling macht die Inhalte interessant.

Im Workshop “Von SocialMedia zu SocialCRM” wurden Anregungen und Ideen gesammelt, wie Organisation besser mit ihrem Umfeld interagieren können. Klassische Instrumente der Kundenpflege greifen oft zu kurz, da sie die Sozialen Medien außer Acht lassen. Schwierigkeiten sind unter anderem, dass sich Organisationsziele nicht eins zu eins in die Sozialen Medien übertragen lassen, dass Soziale Medien heterogene Systeme sind, dass die Erfolgsmessung bei Sozialen Medien schwierig zu definieren ist und dass die Folgen nur schwer messbar sind. Es wurde angeregt, dass Mitarbeiter stärker als Menschen hervortreten und die Impulse aus der Community besser aufgegriffen werden sollen.

Die Folien des Workshops “10 Fehler die wir alle machen!” finden sich zum Nachlesen bei Slideshare. Auch hier waren interessante Anregungen für die Social-Media-Strategie von Organisationen dabei.

Links:

re:publica 2013 Workshop: Content Strategy für NGOs – Webinhalte erst strategisch planen, dann publizieren

re:publica 2013 Workshop: Von Social Media Management zu Social CRM

re:publica 2013 Workshop: 10 Fehler die wir alle machen! – Nonprofits und Social Media Stand 2013

Fazit

Insgesamt meinte ich bei den technologiebegeisterten Vortragenden Ungeduld und Frustrationen zu spüren. Vermutlich kämpfen sie schon lange mit den Widerständen und erreichen doch nur geringe  Fortschritte, sowohl in Forschung als auch in Verwaltung. Deren Vertreter verwiesen in der Diskussion wiederum auf Schwierigkeiten bei der Umstellung, Sorgen über die Folgen oder kritisierten und blockierten insgesamt die digitalen Projekte.

Immer, wenn ich mit Menschen außerhalb der re:publica sprach, merkte ich meist schnell, dass die Themen und Stichwörter der Konferenz nur den Wenigsten etwas sagen. Nicht alle wissen, was eine CC-Lizenz ist, und vielen “Nerds” fehlt das Verständnis dafür, das andere nicht genau so gut Bescheid wissen, wie sie selbst, die sie mit mindestens zwei Bildschirmen parallel einem Vortrag folgen. Andererseits gibt es immer noch Vorurteile, wie “Blogs sind doch nur Meinungen von Teenagern” und es wird abgetan, dass dort mittlerweile auch wissenschaftliche Ergebnisse publiziert werden (siehe de.hypotheses.org). Dabei darf man Meinungen keinesfalls gering schätzen, wie man an Beispielen von eingeschränkter Meinungsfreiheit sieht und von Menschen, die sich diese Meinungsfreiheit im Netz, auch gerade durch Blogs, wieder erkämpft haben.

tl;dr: Es bleibt noch viel Aufklärungsarbeit zu leisten. Nerds, kommt raus aus eurem Elfenbeinturm!

Quelle: http://mws.hypotheses.org/2838

Weiterlesen

Frische Blogs eingetroffen! Alles aus dem Orient-Institut Beirut und zum Dreißigjährigen Krieg

Noch vor Weihnachten starten zwei neue wissenschaftliche Weblogs auf Weber 2.0. Zum einen begrüßen wir das Stiftungsinstitut aus Beirut, das unter dem Titel Mish ma32ool Wissenswertes und Aktuelles aus dem Nahen Osten bloggt. Außerdem hat unser Kollege Michael Kaiser ein Forschungsjournal zum 30jährigen Krieg begonnen, das kurz und bündig dk-blog heißt. Beide Neuzugänge  – auf die wir wirklich ein wenig stolz sind – wollen wir hier kurz dem geneigten Publikum vorstellen.

Alaa Awad: The Battle Mural (formerly on Tahrir Square, Cairo). All rights reserved by the artist

Artist: Alaa Awad
Title: The Battle Mural
(former) location: Tahrir Square, Cairo.
All rights reserved by the artist

Was verbirgt sich hinter dem Titel Mish ma32ool? Es handelt sich dabei um einen geläufigen arabischen Ausdruck, geschrieben im Stil der arabischen Bloggerszene. Auf Deutsch wird er “mish ma’ul” ausgesprochen. Der Ausdruck schwankt zwischen einem ungläubigen „Gibt’s doch gar nicht!“  und „Unglaublich“ oder sogar „Unvernünftig“. Auch das Titelbild des Weblogs ist eine Besonderheit: Es zeigt eine Arbeit des ägyptischen Künstlers Alaa Awad, die auf dem Tahrir-Platz in Kairo zu sehen war, bevor sie durch das Militär zerstört wurde. Die Mitarbeiterinnen und Mitarbeiter des Orient Instituts Beirut, das 2010 auch ein Büro in Kairo eröffnet hat, werden unter diesem Signet auf Englisch über die wissenschaftlichen Aktivitäten, aber teils auch über die allgemeine Umbruchssituation im Nahen Osten schreiben. Bereits im Blog zu lesen sind Neuigkeiten vom großen Kongress “Inverted Worlds” und ein Workshopbericht zur Arbeiterorganisation.

dkblog - Quellen, Literatur, Interpretationen zum Dreißigjährigen Krieg

dkblog – Quellen, Literatur, Interpretationen zum Dreißigjährigen Krieg

Mit dem dk-blog betritt ein anerkannter Experte zum Dreißigjährigen Krieg publizistisches Neuland. Michael Kaiser, zuständig für die Open-Access-Plattform perspectivia.net, teilt hier sein Wissen und neue Ideen zu einem genuinen Forschungsfeld der Geschichtswissenschaft. Er selber schreibt dazu:

Ich selbst beschäftige mich seit rund 20 Jahren mit Themen des Dreißigjährigen Kriegs. Das Interesse ist nie erlahmt, im Gegenteil. Doch ungeachtet der vielen und intensiven Auseinandersetzungen mit Problemen dieser Zeit bleibt vieles rätselhaft: Nicht nur das Wissen ist im Laufe der Jahre beständig gewachsen, sondern ebenso die Einsicht in die Vielschichtigkeit der hier berührten historischen Phänomene. Aber je mehr ich forsche, desto komplexer (und faszinierender!) stellt sich die Thematik dar. [...]

Warum dann aber die Öffentlichkeit eines Blogs? Sicher spielt die Selbstvergewisserung im Sinne einer Zusammenstellung von Material eine Rolle. Aber warum sollen diese ersten rohen Schnipsel nicht auch anderen Impulse geben? Und möglicherweise regen sie andere an, auf meine offenen Fragen zu reagieren und Probleme zu lösen, an denen ich mich abarbeite. Im Zentrum stehen weiterhin die Phänomene des Dreißigjährigen Kriegs, aber vielleicht ergibt sich ein Wechselspiel zwischen dem einsamen Arbeiten des Historikers und neuen Kooperationen, bis hin zu kollaborativen Ansätzen.

Wir wünschen allen Leserinnen und Lesern ebenso wie den Schreibenden von Mish ma32ool und dk-blog viel Vergnügen und Erkenntnisgewinn!

Quelle: http://mws.hypotheses.org/1713

Weiterlesen

Der veſte Buchſtab. Digitale Editionen, ihre Erstellung und Darbietung

  Am 29. und 30.  November 2012 fand in der Geschäftsstelle der Max Weber Stiftung das Arbeitstreffen „digital humanities. Wissenschaftliche Datenbanken und Editionsprojekte“ statt. Zwar gibt es gibt noch keinen Königsweg, der in diesem weiten Bereich zu allen Zielen führt. Umso wichtiger sind Übergangsmöglichkeiten von einem Weg zum anderen. Die Überlieferung von Worten ist das wertvollste Kulturgut überhaupt. Bauten und Bilder, Geschmeide, Melodien und Maschinen können uns nützen, uns freuen, uns staunen und schaudern lassen ‒ aber sie reden nie so zu uns wie Worte, von Mensch zu Mensch. Kein Wunder, dass wir gerade auch dieser Überlieferung digitale Dauer zu geben bestrebt sind, kein Wunder aber auch, dass bei der Ausführung des Vorhabens Schwierigkeiten begegnen. Lösungen solcher Schwierigkeiten war das Arbeitstreffen gewidmet, freilich mit Schwerpunktsetzung: Es ging um schriftliche Überlieferung und das Eingeben, Abspeichern, Aufbereiten und Anzeigen von zugehörigen Metadaten (im weiteren Sinn verstanden, worunter auch schon das Transkript zu einer Abbildung fällt). Und es war wirklich fesselnd zu sehen, wie vielfältige und ausgefeilte Lösungsansätze vorgestellt, gelegentlich auch ‒ freundlich und erfreulich lebhaft ‒ gegenübergestellt wurden und wie sie einander ergänzen oder befruchten konnten.   Aus einer Hölderlinhandschrift mit der im Titel angeführten Stelle. Die Transkription (d oder D oder …?) ist ein primär philologisches, nur sekundär technisches Problem. Dazu unten etwas. (Quelle: Württembergische Landesbibliothek Stuttgart: Hs. Homburg.G,2-7: Blatt 6v: Zeile 6. http://digital.wlb-stuttgart.de/purl/bsz346526833. Lizenz CC BY-NC-ND.) FuD, vertreten von Marina Lemaire und Gisela Minn vom Trierer Kompetenzzentrum, zeigte sich als System mit einem erprobten Kern und einer Vielzahl von entwickelten oder in Entwicklung befindlichen Schnittstellen, um so gut wie alle Editionsschritte zu unterstützen ‒ von der kollaborativen Erfassung in einer MySQL-Datenbank der Uni Trier bis zur Veröffentlichung im Netz oder Druck ‒, aber auch den Wechsel hin zu anderen Systemen anbieten zu können. So gab Sebastian Felten vom DHI London einen interessanten Einblick ins Projekt „Pauper Letters and Petitions for Poor Relief in Germany and Great Britain, 1770 – 1914“ und wie dort sowohl FuD als auch das ‒ noch zu erwähnende ‒ DENQ zusammen genutzt werden, das eine zur Eingabe, das andere zur Anzeige im Netz. BASYS-Invenio, vorgestellt von Thekla Kleinschmidt und Branimir Kolev vom Bundesarchiv, wurde und wird auf der Grundlage von Islandora entwickelt, um Archivalien in einem riesigen Gesamtbestand von einigen hundert Terabytes rasch finden und anzeigen zu können. Eingebaut ist eine sehr lesefreundliche Anzeige in Gestalt des Internet-Archive-Viewers, zudem mit einer maschinellen Texterkennung über Tesseract, was eine Suche im Text der jeweils angezeigten Abbildung ermöglicht. Bei den meisten Bundesarchivalien, gedruckt im 20. bis 21. Jahrhundert, zeitigt eine maschinelle Texterkennung gute Ergebnisse. Peter Stadler stellte die Carl-Maria-von-Weber-Gesamtausgabe vor, die in bewunderungswürdig konsequenter und harmonischer Verbindung von philologischen Kardinaltugenden und modernen XML-Techniken erarbeitet wird: Mit Gründlichkeit und Genauigkeit und der echt philologischen Liebe zum Wort wird aus der sichtbaren Überlieferung, dem Bild, ein lesbarer, und zwar maschinenlesbarer Text, der bis zur Anzahl der Striche bei Unterstreichungen alles von der Überlieferung aufhebt, was irgendwie sinnunterscheidend sein könnte. Ruth und Borries von dem Bussche vom Düsseldorfer Unternehmen Fafalter skizzierten dagegen eine Lösung auf der Grundlage von HTML5, das mit RDF-Annotation angereichert wird ‒ eine Verbindung von Sinn- und Gestaltebene, die früher gemieden wurde, jetzt aber im Verlagswesen und überhaupt im geschäftlichen Umfeld mehr und mehr Anklang findet. Auch, um Netzseiten mit mehr maschinenlesbarem Inhalt im Sinne des „semantic web“ zu erstellen, ist HTML5 mit RDF-Anzeichnung die fortgeschrittenste Lösung. Charlotte Schubert von der Universität Leipzig führte eAQUA vor und machte anhand von Beispielen aus ihrer eigenen Forschung deutlich, welchen außerordentlichen Nutzen ein Korpus von diesem Umfang und Lemmatisierungsgrad, zudem versehen mit den Anzeigemöglichkeiten der Kookkurrenzanalyse und der raumzeitlichen Belegverteilung haben kann. Torsten Schrade von der Digitalen Akademie Mainz stellte einen editorischen Arbeitsablauf vor, der von Ausgangsdokumenten in verschiedenen (und nicht immer günstigen) Formaten hin zum Content-Management-System Typo3 führt. Eine besondere Herausforderung ist im Fall des Beispielprojektes „Medieval Ashkenaz“ die Mischung hebräischer und deutscher Teile, also links- und rechtsläufiger Schriftrichtung, was in besonders schweren Fällen mit einem Zusammenspiel aus weicher Auszeichnung (mit <span dir=”rtl”> … </span>) und harten Steuerzeichen (U+202B für ‘ab hier linksläufig’ und U+202A für ‘ab hier rechtsläufig’) gelöst wird. Die Steuerzeichen werden elegant über das CSS, nämlich über eine an die Anzeichnung dir gebundene content-Eigenschaft eingefügt. DENQ, vorgestellt von Jörg Hörnschemeyer (dem Entwickler) und Jan-Peter Grünewälder vom DHI Rom, ist ebenda entwickelt worden, also gleichsam innerhalb der Max Weber Stiftung. Ein Kernbestandteil ist die XML-Datenbank eXist. Gezeigt wurden eine Suche über mehrere Korpora, auch als Ähnlichkeitssuche auf der Grundlage des Lewenstein-Algorithmus, ferner die Anzeige von Belegen in räumlicher Verteilung, unterlegt mit einer geographischen Karte, sowie die Möglichkeit, die Abbildung eines Textes in Ausschnitte zu zerlegen, die im SVG-Format gespeichert und den je entsprechenden Textausschnitten zugeordnet werden können, was noch in Entwicklung ist. Es konnte aber bereits eine gerade für diese Aufgabe äußerst nützliche maschinelle Vorsegmentierung gezeigt werden, die schon erstaunlich gut war. Zur Dateneingabe sonst: In DENQ wurde oder wird für jedes gewünschte Format eine Überführung in eXist entwickelt. Unter anderem möglich ist die Nutzung eines vertrauten Editors wie Word, in dem dann über Formatvorlagen recht bequem eine semantische Auszeichnung bis auf die Ebene des Zeichens hinab vorgenommen werden kann. Es ist bewundernswert, wie viel Funktionalität und Flexibilität auf schmaler Personalbasis entwickelt und ermöglicht worden ist. TextGrid, vorgestellt von Oliver Schmid von der Technischen Universität Darmstadt, ist vielleicht das komplexeste der vertretenen Systeme und bietet einen zumal gemessen am Projektalter großen Umfang an Funktionen sowie Teilprogrammen, die modular entwickelt und vom Nutzer modular eingebunden werden können. Die Eingabeumgebung, TextGridLab, funktioniert als reines Java-Programm ohne Installation (wenn das Java-Runtime-Environment auf dem Rechner installiert ist, was ja meist zutrifft) und auch offline. Das TextGridRep wiederum dient sowohl der gemeinsamen Arbeit an derselben Datenbank, als auch der Langzeitarchivierung und der Veröffentlichung im Netz mit Suchmöglichkeiten. Zwei vielleicht miteinander zusammenhängende Eindrücke vom Arbeitstreffen: Erstens. Es gibt noch keinen Königsweg, der zu allen Zielen führt; umso wichtiger sind Übergangsmöglichkeiten von einem Weg zum anderen. Zweitens. Gerade als Austauschformat ist XML noch immer und bis auf weiteres „die reine Lehre“, wie Gregor Horstkemper von der Bayerischen Staatsbibliothek in seiner Moderation scherzte. Andererseits wurden hin und wieder die Unzulänglichkeiten von XML in den Randbereichen seiner Verwendung deutlich: Wann immer man Geltungsbereiche auszeichnen will, die unterbrochen sind oder einander überlappen, also nicht in die hierarchische Verschachtelung von XML-Dokumenten passen, muss man zu Behelfen greifen, von denen keiner der Standard ist ‒ die TEI-Richtlinien stellen mehrere gleichberechtigt nebeneinander. Und schlimmer: Um die Behelfslösung einzulesen, etwa bei Abfragen, muss man einen eigenen Parser schreiben (adé Standardkonformität) oder auf Reguläre Ausdrücke zurückgreifen (was sonst als blankes Versagen bei der XML-Verarbeitung gilt) oder XPointer verwenden, was noch kaum umgesetzt und überdies mit einem Patent belastet ist, das bei Sun lag, jetzt also bei Oracle liegen müsste (vgl. http://www.w3.org/TR/xptr-framework/, http://www.w3.org/2002/06/xptr_IPR_summary.html). Oracle hat bekanntlich schon wegen eines anderen von Sun geerbten Patentes einen Rechtsstreit begonnen. Dennoch: Stadler, Leiter der TEI-Interessengruppe „Correspondence“, hat XML mit pädagogischem Impetus hochgehalten: Geisteswissenschaftler sollen mit XML umgehen können, weil der Umgang mit Texten, Textstruktur und Textsemantik zum Kernbereich der Geisteswissenschaft gehört, weil die dabei anfallenden Entscheidungen auch nur der Fachwissenschaftler, kein hilfreich herbeieilender Techniker treffen kann und weil der Umgang mit XML auch gar nicht so schwierig ist wie die wirklich harten Probleme ‒ die sind bei einer Edition stets philologischer Natur. Wenn man von der XML-Frage verallgemeinernd absieht, wird der Impetus ein aufklärerischer: Es geht dann um den Ausgang des Geisteswissenschaftlers aus einer selbstverschuldeten Unmündigkeit, was Datenverarbeitung angeht. Besteht diese Unmündigkeit? Und ist sie selbstverschuldet ‒ aus denselben Ursachen, die Kants berühmter Aufsatz nennt? Hier liegt ein Problem, das unangenehmer ist als etwa das vergleichsweise harmlose Ansinnen, die Geisteswissenschaften im Social Web zu verankern. Dr. Stefan Müller ist Referent für Datenbanken in der Geschäftsstelle der Max Weber Stiftung in Bonn, Redaktion Perspectivia.  

Quelle: http://mws.hypotheses.org/1571

Weiterlesen

Deutsche Geschichte in Dokumenten und Bildern


Das 2002 begonnene Großprojekt „Deutsche Geschichte in Dokumenten und Bildern / German History in Documents and Images“ (DGDB/GHDI) ist abgeschlossen. Bei DGDB handelt es sich um eine digitale Quellensammlung zur Geschichte Deutschlands von 1500 bis zur Gegenwart. Das zweisprachige Projekt umfasst etwa 1.700 Primärtexte (im deutschen Original und englischer Übersetzung) und 2.400 Bildquellen, die von namhaften Fachvertretern zusammengestellt wurden.

Das Projekt ist unterteilt in zehn Zeitabschnitte und bietet neben einer Einführung in die zentralen Entwicklungen der deutschen Sozial-, Politik- und Kulturgeschichte des betreffenden Zeitabschnittes, ausgewählte Quellen – sowohl in englischer als auch in deutscher Sprache –, ausgewählte Bildquellen der Zeit und solche, die sich auf diese beziehen, und ausgewähltes Kartenmaterial.

Die Dokumente und Bildquellen wurden in Kategorien eingeteilt und sind so durch Stichwort- und Autorensuche leicht zugänglich. Gerade außerhalb Deutschlands bietet DGDB ein Angebot, Dokumente, die sonst kaum verfügbar sind, zu nutzen. Zudem wurden alle deutschsprachigen Dokumente der Quellensammlung für das Projekt ins Englische übersetzt.

2010 erhielt DGDB den James Harvey Robinson Prize der American Historical Association für das beste Lehrmittel im Bereich Geschichte. Die Webseite wird mittlerweile täglich von ca. 10.000 Benutzern aus aller Welt aufgerufen. Ermöglicht wurde das Projekt durch die Unterstützung der Max Kade Stiftung, der ZEIT-Stiftung Ebelin und Gerd Bucerius und den Friends of the GHI Washington.

Das Angebot ist unter www.germanhistorydocs.ghi-dc.org abrufbar.

Quelle: http://mws.hypotheses.org/1175

Weiterlesen