DH Leipzig stellt Fragmentary Texts Editor in Perseids vor

perseids_banner31Das Projekt Perseus zur Edition und Annotation klassischer Dokumente, an dem der Alexander von Humboldt-Lehrstuhl für Digital Humanities am Leipziger Insitut für Informatik beteiligt ist, hat in seine kollaborative Arbeitsoberfläche Perseids jetzt einen “Fragmentary Texts Editor” integriert, der die Annotation von Zitaten und Wiederverwendung von Texten durch Autoren ermöglicht. Nähere Informationen hier.

Quelle: http://dhd-blog.org/?p=3730

Weiterlesen

Von Daten zu Erkenntnissen: Digitale Geisteswissenschaften als Mittler zwischen Information und Interpretation

Vom 23.-27.2.2015 findet die zweite Jahrestagung des Verbandes der “Digital Humanities im deutsprachigen Raum” organisiert durch das Zentrum für Informationsmodellierung – Austrian Centre for Digital Humanities an der Universität Graz statt.

In Workshops, Vorträgen, Panels und Diskussionen soll dabei den zentralen Fragen nachgegangen werden,

(a) welcher Mehrwert sich für Erkenntnisprozesse in den Geisteswissenschaften durch den Einsatz von digitalen Methoden in der Forschung ergibt,

(b) welche Bedeutung Daten in der Generierung von Wissen in den Geisteswissenschaften in der Zukunft spielen werden und

(c) welche disziplinübergreifenden Synergien für die Theoriebildung aus den in den Digitalen Geisteswissenschaften entwickelten Methoden, Techniken und Infrastrukturen zu erwarten sind.

Besuchen Sie die Konferenzwebsite unter dhd2015.uni-graz.at!

 

Quelle: http://dhd-blog.org/?p=3736

Weiterlesen

EHRI Community Hub: ein Community Hub für Holocaust ForscherInnen

EHRIDas EHRI Community Hub bietet einen virtuellen Ort, an dem holocaustinteressierte ForscherInnen und DokumentationsexpertInnen zusammen arbeiten können.

EHRI Community Hub ermöglicht BenutzerInnen eigene Profile zu erstellen und Profile anderer ForscherInnen mit ähnlichen Interessen zu entdecken und Arbeitsgruppen mit anderen KollegInnen zu erstellen. Hier können sie auch Dokumente und Projektergebnisse von EHRI finden, kommentieren und diskutieren.

Weitere Informationen über den Hub in Englisch: http://bit.ly/1pVkA1Q

Registrierung: http://bit.ly/1luuC8E

Quelle: http://dhd-blog.org/?p=3708

Weiterlesen

Osloer Munch-Museum lanciert Crowdsourcing für Coding der Briefe an Edvard Munch

Foto: Munch-Museum, Oslo / Norway

Foto: Munch-Museum, Oslo / Norway

Die Briefe und Texte von Norwegens bedeutendstem bildenden Künstler Edvard Munch (1863-1944), der viele Jahre auch in Deutschland lebte und arbeitete, sind bereits online, ediert und kommentiert. Nun legt das Osloer Munch-Museum nach: Per Crowdsourcing geht es nun auch an die Briefe an Munch, die digital in Text und Bild veröffentlicht und per XML/TEI erschlossen werden sollen. Nach dem Vorbild des erfolgreichen Crowdprojekts Transcribe Bentham werden via Wiki die automatisiert erfassten Briefabschriften mit den Scans der Originalbriefe abgeglichen; anschließend erfolgt die Erschließung mit XML/TEI Level 4. Vorbildlich hat man hier erklärt, dokumentiert und unterstützt, um auch in Sachen “Spitze Klammern” gänzlich unerfahrenen Freiwilligen die Möglichkeit zur Mitwirkung zu geben – ein perfekter Einstieg ins Textcoding. So stehen u.a. deutschsprachige Videotutorials und ein komfortables Editionsfenster mit umfangreicher Werkzeugleiste bzw. -schaltflächen für die bequeme (und fehlerminimierte) Codierung zur Verfügung. Nach Freigabe durch die Redaktion werden die fertig bearbeiteten Briefe auf http://www.emunch.no der Öffentlichkeit zugänglich gemacht.  Ein gelungenes Modell, das auch in Deutschland vermehrt Schule machen könnte.

Laut Hilde Bøe, Projektleiterin und Redakteurin von http://emunch.no/, stellt das Projekt im skandinavischen Raum den ersten Versuch einer solchen Teamarbeit zwischen Museum und Publikum dar. Im Munch-Museum ist man gespannt, wie diese Art digitaler Gemeinschaftsarbeit  – in den digitalen Geisteswissenschaften im Ausland zunehmend populär – angenommen wird. «Wir benötigen Freiwillige, die Handschriften in norwegischer, dänischer, schwedischer, französischer und nicht zuletzt in deutscher Sprache lesen können, denn etwa die Hälfte der Briefe an Munch ist deutschsprachig,» so Bøe. Freiwillige sollten außerdem die Bereitschaft zum digitalen Arbeiten in einem Wiki mitbringen, benötigen ansonsten jedoch keine Vorkenntnisse.

Unbenannt

Gut verständliche Erläuterungen und Richtlinien, Online-Support und Videotutorials erleichtern den Einstieg ins Wiki.

 

Das Arbeitsfenster mit Werkzeugleiste, Transkription und Faksimile.

 

«Das Museum besitzt rund 5.800 an Edvard Munch adressierte Briefe, und es ist fantastisch, dass diese jetzt zusammen mit den Briefen Munchs im Internet zugänglich gemacht werden», meint die leitende Konservatorin des Museums, Ute Kuhlemann Falck. «Es handelt sich um historisches Quellenmaterial, das nicht nur für die Munch-Forschung von Interesse ist, sondern auch für andere Forschungsfelder, die wir noch gar nicht absehen können.»

Die andere Seite der Korrespondenz zugänglich zu machen, trägt dazu bei, Munchs eigene Texte zu erläutern, auszuloten und zu nuancieren – ein sehr wichtiger Schritt, so Forschungsbibliothekar Lasse Jacobsen. Man hofft, durch die Arbeit auch weitere Briefautoren zu identifizieren – enthält die Korrespondenz doch einen Teil bislang nicht namentlich zugeordneter Verfasser. Unter den zahlreichen bekannten Namen finden sich u.a. Julius Meyer-Graefe, Gustav und Luise Schiefler, Harry Graf Kessler, August Macke, Elisabeth Förster-Nietzsche, Christian Krohg, August Strindberg und Stèphane Mallarmé.

Wiki: http://www.emunch.no/wiki/index.php/Briefe_an_Edvard_Munch
Einführung und Erläuterungen, Videotutorials: http://www.emunch.no/wiki/index.php/Erste_Schritte
Richtlinien für Transkription und Erschließung: http://www.emunch.no/wiki/index.php/Richtlinien
Direkt zum Archiv: http://www.emunch.no/wiki/index.php/Handschriften
eMunch – Edvard Munchs Texte (digitales Archiv): http://www.emunch.no/

Quelle: http://dhd-blog.org/?p=3668

Weiterlesen

Gesellschaftliche Innovationen: Wissenstransfer Universität – Gesellschaft

Wissenschaft hat strenge Regeln und die unterscheiden sich auch noch von Disziplin zu Disziplin. Zumeist werden die Ergebnisse in Fachzeitschriften veröffentlicht und diskutiert. Ob und wie sie im konkreten gesellschaftlichen Umfeld realisiert werden, welchen Einfluss sie auf Entwicklung und Veränderung haben – das zeigt sich in den meisten Fällen nur in natur- und ingenieurwissenschaftlichen Anwendungen. Gentechnik und Nanotechnologie, Elektromobilität oder Laseranwendungen – das sind Themenfelder, die z.T. als Fortschritt bejubelt, z.T. aber auch verteufelt und bekämpft werden.

Was aber ist mit sozial- und geisteswissenschaftlicher Forschung? Wie finden deren Ergebnisse ihren Weg in die Gesellschaft? Kann man von “sozialen Innovationen” sprechen? Ist solch ein Wandel wissenschaftlich induziert oder untersucht umgekehrt die Wissenschaft Ursachen, Hintergründe und Folgen von sozialen Veränderungen?

In der LMU werden diese und andere Fragen am 14. und 15. Juli diskutiert. Nicht nur interessante Vorträge und Präsentationen, auch Workshops werden angeboten und erlauben es, die eigenen Fragen und Überzeugungen im kleineren Kreise einzubringen.

 

Quelle: http://resilienz.hypotheses.org/177

Weiterlesen

Erstausgabe RIDE – Review Journal for Digital Editions

Das Institut für Dokumentologie und Editorik (IDE) freut sich, die Publikation der ersten Ausgabe einer neuen Rezensionszeitschrift, RIDE, bekannt zu geben. RIDE ist digitalen Editionen und Ressourcen gewidmet und will ein kritisches Forum zur Besprechung digitaler Editionen schaffen. Es soll helfen, die gängige Praxis zu verbessern und die zukünftige Entwicklung voranzutreiben. RIDE-Rezensenten sind deshalb angehalten, nicht nur die traditionellen Leistungen und Probleme von Editionen im Allgemeinen zu besprechen, sondern auch die sich weiter entwickelnde Methodologie und ihre technischen Implikationen zu berücksichtigen.

Bereits die soeben veröffentlichte erste Ausgabe enthält Besprechungen aus verschiedenen Fachbereichen, z.B. Philosophie, Kunstgeschichte, Philologie, die für Sie interessant sein könnten. Neben den ausführlichen Rezensionen bietet jeweils ein Factsheet einen schnellen Einblick in die besprochene Digitale Eidtion.

Alle Rezensionen und weitere Informationen finden Sie hier: http://ride.i-d-e.de

Mehr zu RIDE, unseren Zielen und unserer Vorgehensweise, finden Sie im Editorial: http://ride.i-d-e.de/about/editorial/

Wir freuen uns außerdem über Beiträge für die nächsten Ausgaben. Alle Informationen finden Sie hier: http://ride.i-d-e.de/reviewers/

Quelle: http://dhd-blog.org/?p=3662

Weiterlesen

Coding da Vinci – Preisverleihung

mitgeteilt von Wolfgang Peters-Kottig, Konrad-Zuse-Zentrum für Informationstechnik Berlin (ZIB).

Wir möchten Sie im Namen aller Veranstalter herzlich zur öffentlichen Präsentation und Preisverleihung von Coding da Vinci, dem ersten Kulturdaten-Hackathon, am 6. Juli 2014 in das Jüdische Museum Berlin einladen.

Während des erfolgreichen Auftaktwochenendes von Coding da Vinci Ende April haben die etwa 150 Teilnehmer/innen auf Basis der von 16 Kulturinstitutionen zur Verfügung gestellten offenen Kulturdaten erste Ideen für neue Anwendungen entworfen. Jetzt befinden sich die Teams im “10-Wochen-Sprint”. Sie entwickeln ihre Projekte weiter, um sie im Juli anschaulich zu präsentieren! Die fünf besten Projekte werden von einer Jury prämiert.

Wir würden uns daher sehr freuen, Sie und Ihre Freunde und Kollegen am 6. Juli 2014 ab 10:30 Uhr im Jüdischen Museum (Lindenstr. 9-14, 10969 Berlin) zur Preisverleihung begrüßen zu dürfen!

Melden Sie sich bitte hier zur Coding da Vinci – Preisverleihung an: http://codingdavinci.de/anmeldung/
Weitere Informationen zum Programm: http://codingdavinci.de/programm/

Wenn Sie schauen möchten, welche Institutionen Daten zur Verfügung gestellt haben, können Sie das hier auf der Coding da Vinci Webseite tun.
Wenn Sie sich einen ersten Eindruck über die Projekte verschaffen wollen, schauen Sie auf unser Hackdash, dort finden Sie erste Skizzen dazu.

Leiten Sie diese Information bitte auch in Ihre Netzwerke weiter!
Und folgen Sie uns auf twitter: @codingdavinci – Hashtag: #codingdavinci

Quelle: http://dhd-blog.org/?p=3651

Weiterlesen

Aktendigitalisierung für Anfänger. Oder: Die kurze Geschichte einer rasanten technischen Entwicklung

Wie lange wird die Digitalisierung der „Deutschen Nachkriegskinder“-Studie dauern? Durch die schnellen technischen Entwicklungen muss diese Frage stets neu und besser beantwortet werden. Am 5. Juni habe ich zusammen mit einer studentischen Hilfskraft versucht genau das auf dem aktuellen Stand der verfügbaren Technik herauszufinden. Dabei gebe ich auch einen Rückblick auf die bisher bestehenden Möglichkeiten.
Erst wenige Tage vorher habe ich entdeckt, dass in der Universitätsbibliothek Bonn ein sehr hübscher und neuer Buchscanner steht, mit dem jeder kostenlose Scans auf USB-Stick anfertigen kann. Noch vor wenigen Jahren kostete in der gleichen Bibliothek ein rein digitaler Scan genau so viel wie der Ausdruck auf Papier! Glücklicherweise sind diese Zeiten vorbei. Wir haben daher einen Vormittag lang verschiedene Unterlagen gescannt, die Zeit gemessen, Workflows und Einstellungen optimiert und dokumentiert.

Scanner anno dazumal (2009)

Aber gehen wir noch mal kurz zurück ins Jahr 2009, als ich zum ersten Mal mit der Forschungsgruppe „Deutsche Nachkriegskinder – revisited“ in Berührung kam. Damals war ich noch selbst studentische Hilfskraft. In meinem Büro stand ein Scanner zur Verfügung, der per Parallelschnittstelle an den Arbeitsrechner angeschlossen war: ein Kodak i80. Dieser Flachbettscanner kostete seinerzeit wohl eine kleine vierstelllige Summe, war jedoch schon zu meinem Arbeitsbeginn nicht mehr auf dem Stand der Technik und furchtbar langsam. Jeder Scan dauerte damit mindestens eine Minute, vom Einlegen des Blatts bis zum fertigen Scan auf dem Rechner. Meistens dauerte es viel länger. Ein ganzes Archiv damit zu digitalisieren würde einen Menschen sehr viel Lebenszeit rauben.

Smartphone-Scanner (2012)

Seit der Verbreitung von Smartphones mit guten Kameras erschloss es sich mir nicht mehr über eine Minute auf einen Scan zu warten, wenn ich sofort ein digitales Abbild der Akte erhalten kann. 2012 entdeckte ich ein  Crowdfunding-Projekt für eine Box, die es ermöglichte mit dem iPhone zu scannen, ohne die Kamera wackelig in der Hand zu halten, teils sogar mit eingebauter Beleuchtung. Ich baute mir zum Testen so selbst einen kleinen Smartphone-Scan-Automaten. Heutzutage gibt es solche fertige Boxen für wenig Geld.

Problematisch beim Smartphone-Scannen ist die fehlende Nachbearbeitung. Bilder sind oft verzerrt sein, die Farben und Lichtverhältnisse nicht korrekt wiedergegeben oder die Bilder sind unscharf, was man erst auf dem großen Bildschirm erkennen kann. Doch mit neuen Apps, die das Foto mit Algorithmen zu einem perfekten Scan zuschneiden, Farben und Licht optimieren, ist all das kein Problem mehr.

Im Alltag benutze ich keinen Scanner mehr, sondern die Scanbot-App der Bonner Entwickler von doo. Die Papierränder werden automatisch erkannt und das Bild automatisch nach der Scharfstellung und Dokumenterkennung ausgelöst. Danach landet das Bild sofort und ebenfalls automatisch in meiner Dropbox. Also muss ich nur noch meine Kamera ausrichten und danach kann ich das Ergebnis auf meinem Rechner begutachten.

Automatische Dokumenterkennung
Nachbearbeitung und Upload

Natürlich ist die Qualität dieser Bilder sehr unterschiedlich und hängt trotz aller Algorithmen sehr von den externen Lichtverhältnissen ab. Manchmal wird das Bild auch verzerrt, weil man die Kamera nicht perfekt gerade über das Blatt Papier gehalten hat. Trotzdem, mit der Handykamera und einer optimierten App könnte ich in meinen Tests etwa alle 30 Sekunden einen akzeptablen Scan erstellen.

Scannen mit dem Zeutschel zeta (2014)

Vor einem Jahr ist mir dann zum ersten Mal der Scanner der Firma Zeutschel bei Twitter über den Weg gelaufen. Ich war überrascht, dass eine Buchscanner-Firma mit sozialen Medien arbeitet. Um ehrlich zu sein, gibt es den Zeutschel zetal schon seit 2011 auf dem Markt. Doch erst eine Woche vor diesem Beitrag habe ich ihn dann endlich in der Bibliothek entdeckt und wollte ihn ausprobieren. Einen solchen Buchscanner kann man sich leider nicht selbst basteln und er liegt auch nicht im studentischen Budget. Umso schöner, dass die ULB Bonn ihn angeschafft hat.

Das Design des zeta erinnert ein wenig an Apple, zumindest ist es sehr hübsch für einen Buchscanner, die sonst eher funktionell gestaltet sind. Die einzige, aber dafür enorm störende Schwachstelle ist der Touchscreen, der leider nicht von Apple stammt. Das Betriebsystem ist Windows 7, das bekamen wir bei einem Absturz des Programms zu Gesicht. Wer  Multi-Touch-Gesten und eine funktionierende Bildschirmtastatur gewohnt ist, wird enttäuscht. Buchstaben muss man mehrfach drücken, die Tastatur hat keine Umlaute und das Anpassen des Scanbereichs ist nur nach mehrfachem Probieren zu nutzen, trotz Multitouchfähigkeit des Bildschirms ist das wirklich enttäuschend für so ein hochpreisiges Gerät.

Wenn man aber etwas mit dem zeta gearbeitet hat, merkt man, dass einige Algorithmen im Hintergrund die Arbeit des Buchscanners unbemerkt erleichtern. Finger, die das Blatt festhalten, werden aus dem Bild heraus gerechnet und es schien mir, als würde der Scanner eine Wahrscheinlichkeit berechnen, wo die nächste Buchseite ist, damit er die Zuschnitte nicht bei jedem Scan neu festlegen muss.

Die Scans kann man in den Formaten .jpg, .tif oder .pdf speichern, sie haben eine Auflösung von 300 dpi, unter gewissen Einstellungen auch bis zu 600 dpi. Bei PDF-Dateien besteht die Möglichkeit mehrerer Scans in eine Datei zu speichern (Multisite). Auch die Zuschnitte lassen sich per Einstellung optimieren (nur links, nur rechts, automatisch teilen oder nicht teilen).

Der Scanvorgang selbst ist wirklich sehr komfortabel und blitzschnell. Mit den Fingern fixiert man das Blatt, tippt sobald eine grüne LED leuchtet auf die Scanbuttons, die an mehreren Stellen ergonomisch erreichbar sind und kontrolliert danach das Ergebnis auf dem Touchscreen. Sobald der nächste Scan gestartet wird, wird das vorherige Bild auf dem USB-Stick gesichert. Nur beim letzten Scan muss man aufpassen, dass man das Speichern nicht vergisst, bevor man den USB-Stick entfernt.

Nachdem wir alle Einstellungen einmal ausprobiert haben und einen optimalen Workflow zu zweit entwickelten (einer sortiert die Aktenblätter, legt sie auf den Scanner und fixiert sie, der andere scannt, kontrolliert, korrigiert und löst den nächsten Scan aus), haben wir die Zeit gemessen, die wir brauchten um eine Beispielakte zu scannen. In einer Stunde konnten wir 184 Aktenseiten scannen. Die Konzentration lässt mit der Zeit etwas nach, dafür gibt es Übungseffekte, die den gesamten Vorgang beschleunigen.

Scanbeispiele

Hollerithschlüssel für den Lehrerbericht
Anleitung von 1953 zur Durchführung und Auswertung der psychologischen Untersuchungen
Akte für die Konstitutionsdaten
Akte für die psychologischen Untersuchungsergebnisse
Unterzeichentest

Ergebnis

Um die Dauer der gesamten Digitalisierung aller Akten abschätzen, müssen wir wissen, wie viele Aktenblätter es gibt. Im Schnitt sind etwa 100 Aktenblätter pro Akte enthalten. Insgesamt haben wir 4095 Akten wiedergefunden, was bedeutet, dass bis zu 409.500 Aktenblätter gescannt werden müssten.

Schätzung der notwendigen Arbeitsstunden zur Digitalisierung von 409.500 Aktenblätter mit klassischem Scanner, Smartphone und Buchscanner

Schätzung der Arbeitsstunden zur Digitalisierung von 409.500 Aktenblätter mit klassischem Scanner, Smartphone und Buchscanner

Nach meiner Schätzung sind also mit aktueller Technik für die Digitalisierung der Nachkriegskinder-Akten 4451 Arbeitsstunden nötig. Das errechnet sich aus 184 Aktenblätter, die pro Stunde mit zwei Personen gescannt werden können, bei einer Anzahl von 409.500 zu scannenden Aktenblätter.

Diese Zahlen sind nur grobe Schätzwerte und können sich durch Übung, bessere Workflows und bessere Technologien in kurzer Zeit wieder verändern. Nicht eingerechnet ist die Zeit für die Verschlagwortung und Anreicherung mit Metadaten, die vermutlich noch einmal das Doppelte der Zeit kosten wird.

Über Anregungen, Erfahrungen, Hinweise auf andere Artikel, best practices und Kommentare, aus denen wir mehr über Digitalisierung lernen können, würden wir uns freuen. Eine Einführung, die ich mir als nächstes genauer anschauen werde, ist die “Checkliste Digitalisierung”, die unter folgendem Link abgerufen werden kann:

http://dx.doi.org/10.12752/2.0.001.1

Ein weiterer Linktipp aus dem Archivamtblog: Marcus Stumpf, Digitalisierungsstrategien in Deutschland – Versuch einer Bestandsaufnahme, 8.5.2014: http://archivamt.hypotheses.org/668

Disclaimer: Es gibt keinen zu erklärenden Interessenkonflikt, da dieser Artikel aus privatem Interesse geschrieben wurde.

Quelle: http://zakunibonn.hypotheses.org/1119

Weiterlesen

IANUS-Ressourcen werden nun persistent refenziert

IANUS, das Forschungsdatenzentrum für die Archäologien und Altertumswissenschaften, hat eine technische Hürde beim Aufbau des Online-Archives erfolgreich gemeistert. Dank einer Kooperation mit da|ra erhalten ab sofort die wichtigsten Ergebnisse des Projektes, die über die Homepage von IANUS veröffentlicht werden, einen Digital Object Identifier (DOI). Damit können die elektronischen Ressourcen vergleichbar mit ISBN-Nummern dauerhaft und eineindeutig zitiert werden. Auch alle zukünftig bei IANUS archivierten Forschungsdaten werden einen solchen persistenten Identifikator erhalten.
IANUS ist ein von der Deutschen Forschungsgemeinschaft gefördertes und vom Deutschen Archäologischen Institut koordiniertes Projekt, dessen Ziel der Aufbau eines nationalen Forschungsdatenzentrums für die Archäologien und Altertumswissenschaften in Deutschland ist.

http://www.ianus-fdz.de/news/73

ianus-fdz

 

Quelle: http://dhd-blog.org/?p=3633

Weiterlesen

Anmeldefrist verlängert: Zweitägiger Workshop – Forschungsdaten für Andere. Lizenzen und Werkzeuge für Historiker

Das Leibniz-Institut für Europäische Geschichte in Mainz richtet im Rahmen von DARIAH-DE (Digital Research Infrastructure for the Arts and Humanities) einen zweitägigen Workshop zur Lizenzierung von Forschungsdaten aus und lädt dazu Historikerinnen und Historiker ein, die selbst über Forschungsdaten verfügen, planen diese zu veröffentlichen und nun nach einer geeigneten Lizenz für ihre Daten suchen. Hier der Link zum Programm!

Anmeldungen sind ab sofort bis zum 09.06.2014 über das Registrierungsformular möglich. Der Workshop ist auf max. 18 Personen beschränkt, die Vergabe der Plätze und eine Zusage über eine Teilnahme erfolgt in der Reihenfolge der Anmeldungen. Die TeilnehmerInnen werden gebeten, Ihren eigenen Computer/Laptop mitzubringen, um an den Hands-On-Sessions aktiv teilnehmen zu können.

Quelle: http://dhd-blog.org/?p=3607

Weiterlesen