China-News: Eine Zeitungsmeldung vom 28. April 1734

Welche Meldungen aus/über China finden sich in den Zeitungen Europas? ‘Sensationen’ oder ‘Merkwürdigkeiten’? Nachrichten über Naturkatastrophen? Über Erfahrungen von Europäern in China? Die Suche nach diesen Nachrichten, die häufig eher Kürzestmeldungen sind, gleicht der Suche nach der sprichwörtlichen Stecknadel im Heuhaufen. Aber … seit einigen Wochen bietet ANNO (Austrian Newspapers Online) die Möglichkeit der Volltextsuche in ausgewählten Titeln. Die Volltextsuche ist im Beta-Stadium, derzeit sind “knapp 200.000 Zeitungsausgaben mit knapp 2 Millionen Seiten von 1704-1872″ [1] durchsuchbar.  Zur Qualität heißt es:

Der Volltext basiert auf OCR-gelesenen Daten. Bei OCR (Optical Character Recognition) handelt es sich um ein automatisiertes Verfahren, weshalb es in manchen Texten zu einer sehr hohen Fehlerdichte kommen kann. Die Suche gestaltet sich oft etwas anders als etwa bei manuell abgetippten Texten. [...].[2]

Wienerisches Diarium 28.4.1734

Wienerisches Diarium 28.4.1734 | ANNO

Das lädt zum Experimentieren ein – denn unterschiedlichen Transkriptionen (wie etwa ‘Pecking’ oder ‘Pekin’ neben ‘Peking’ für Beijing 北京), sind bei der Arbeit mit Texten, die vor dem Zweiten Weltkrieg publiziert wurden, selbstverständlich. Aber Versuche (oder eher Spielereien – denn mehr ist es noch nicht – mit “ſ” (langem ‘s’)/”f” oder “ß”/”B” oder “C”/”S” etc. sind viel spannender, denn: Afien ift fuper.[3] ”

Sucht man “Chinese”, so ist der erste Treffer 1734 – April – 28: Wienerisches Diarium[4] – Seite 4.

Werfen wir einen Blick auf den Text – ein Klick auf das entsprechende Icon rechts oben zeigt den OCR-Text((Wienerisches Diarium Num. 34 (28.4.1734), 3f. Online: ANNO)).

Die kurze Meldung ist nicht besonders spannend – sie bringt zwei unterschiedliche Themen: Erdbeben in Beijing 1733 (und in den 3 Jahren davor) und den Krieg gegen die ‘Tartar(e)n’.

Zu den Erdbeben: Der Catalog of Damaging Earthquakes in the World (Through 2010) des International Institute of Seismology and Earthquake Engineering, Building Research Institute listet für die Zeit zwischen 1730 und 1733 eine Reihe von Erdbeben in China, darunter auch das Dongchuan 東川-Beben (Prov. Yunnan) vom 2.8.1733 (Stärke 7.8), aber nur wenige für den Raum Beijing.

  • 1730 Winter: China: Shandong – Stärke 5
  • 1730.09.30: China: Beijing – Stärke 6.5
  • 1731.11.30: China: Beijing – Stärke ? – 100000 Tote

Das Beben von 1730 hatte  schwere Schäden verursacht, das vom 30.11.1731 wohl 100000 Todesopfer gefordert.

Mit dem ‘Krieg gegen die Tartar(e)n’ ist wohl der Feldzug gegen die Dzungaren in der Yongzheng 雍正-Ära (1722-1735 ((Der Yongzheng 雍正-Kaiser Yinzhen  (1678-1735, regierte 1722-1735) hatte – wie schon sein Vater, der Kangxi-康熙-Kaiser Xuanye 玄燁 (1654-1722, regierte 1661-1722) vor ihm – versucht, die Position Chinas in der Äußeren Mongolei mit militärischen Mitteln zu sichern. Trotz der drückenden Übermacht der Qing-Streitkräfte konnten sich die zwar kleinen, aber sehr mobilen Verbände der Dzungaren zunächst behaupten, es gelang ihnen sogar, die Qing an den Rand der Niederlage zu bringen. Erst ein ‘Überläufer’, der sich auf die Seite der Qing-Dynastie geschlagen hatte, besiegte die Dszungaren.

Aber das ist hier eigentlich nebensächlich – es geht um Digitalisate und Volltext(e).

 OCR-Text Transkription
[S.3] Mm »st hier bmft «tK Ptckng / des )( » haupv 
[S. 4] Haupt, stadt in China / unter dem -offen
 Marti» des vorigen l?zz. jahres des in,
 haltS / wie man 4. jähre nach einander heft
 tige erdbeben daselbst verfpühret hätte / da
 dann die anzahl deren dabey auf manchen
 lky art umgekommenen Personen sich gegen
 2. Millionen beliefe. Der krieg gegen die
 Tartarn würde in dortigen gegenden auch
 «och immer fortgesetzet / doch es hatten
 sich zoo. Tartarn / unter allerhand vor,
 wände / mit ihren gmchen Familien auf die
 feite deren Chineftw gezogen / und dies
 ft hatten w einer nacht, alle Chinesische
 fchild < wachten listiger weife «r «ordet /und
 dadurch die gantze Chinesische Armee et-
 «er untemchmung deren Tartaren ausge ­
 setzet. Das daeauf vorgefallene Treffen,
 war so hitzig/ unvsö blutig gewesen/ den
 Weichen niemals w dortigen Landes ges«
 Den worden, 50000. Chinese» waren da,
 bey umgekommen, und ein General/
 welcher denen Tartarn in die Hände qe.
 saSen / war sogleich jäminerlich iv Stücken
 »erhamn worden.
[S. 3] Man hat hier briefe aus Pecking / der 
[S.4] Haupt=stadt in China / unter dem 20sten 
Martii des vorigen 1733. jahres des in-
halts / wie man 4. jahre nach einander heft
ige erdbeben daselbst verspühret hätte / da 
dann die anzahl deren dabey auf mancher
ley art umgekommenen personen sich gegen 
2. millionen beliefe. Der krieg gegen die 
Tartarn w[ue]rde in dortigen gegenden auch 
noch immer fortgesetzet / doch es hatten 
sich 300. Tartarn / unter allerhand vor
wande / mit ihren gantzen Familien an die 
seite deren Chinesern gezogen / und diese 
hatten in einer nacht / alle Chinesische 
schild=wachten listiger weise ermordet / und 
dadurch die gantze Chinesische Armee ei
ner unternehmung deren Tartaren ausge
setzet. Das darauf vorgefallene Treffen 
war so hitzig / und so blutig gewesen / der
gleichen niemals in dortigen Landen gese
hen worden / 50000. Chineser waren da
bey umgekommen / und ein General / 
welcher denen Tartarn in die H[ae]nde ge
fallen / war sogelich j[ae]mmerlich in Stücken 
zerhauen worden.

Das blaßorange markierte Wort ‘Chinese’ liefert den Treffer in der Volltextsuche, das blaßblau markierte ‘Chinesern’ wird nicht erkannt, denn da steht im OCR-Text ‘Chineftw’. Gleiche Typen auf einer Seite (also demselben Papier) knapp untereinander, kein Schatten (wie das in der jeweils inneren Spalte im Bereich des Möglichen wäre). Der Befund überrascht wenig – und es ließen sich vermutlich zahllose ähnliche Beispiele finden BTW: Das blassgrün markierte ‘Pecking’ wird bei einer Suche nach ‘Peking’ ebenfalls nicht gefunden, ein Blick in den OCR-Text zeigt warum: Dort steht ‘Ptckng’.

Big Data zum Greifen nahe?
Oder doch nicht?

  1. S. ANNO Suchhilfe
  2. S. ANNO Suchhilfe <abgerufen am 8.7.2013.>
  3. S. auch: Im Netz der (un)begrenzten Möglichkeiten.
  4. Das Wienerische Diarium war quasi der Vorgänger der Wiener Zeitung, es erschien 1703 bis 1779, ab 1780 erscheint das Blatt als Wiener Zeitung.

Quelle: http://mindthegaps.hypotheses.org/796

Weiterlesen

China-News: Eine Zeitungsmeldung vom 28. April 1734

Welche Meldungen aus/über China finden sich in den Zeitungen Europas? ‘Sensationen’ oder ‘Merkwürdigkeiten’? Nachrichten über Naturkatastrophen? Über Erfahrungen von Europäern in China? Die Suche nach diesen Nachrichten, die häufig eher Kürzestmeldungen sind, gleicht der Suche nach der sprichwörtlichen Stecknadel im Heuhaufen. Aber … seit einigen Wochen bietet ANNO (Austrian Newspapers Online) die Möglichkeit der Volltextsuche in ausgewählten Titeln. Die Volltextsuche ist im Beta-Stadium, derzeit sind “knapp 200.000 Zeitungsausgaben mit knapp 2 Millionen Seiten von 1704-1872″ [1] durchsuchbar.  Zur Qualität heißt es:

Der Volltext basiert auf OCR-gelesenen Daten. Bei OCR (Optical Character Recognition) handelt es sich um ein automatisiertes Verfahren, weshalb es in manchen Texten zu einer sehr hohen Fehlerdichte kommen kann. Die Suche gestaltet sich oft etwas anders als etwa bei manuell abgetippten Texten. [...].[2]

Wienerisches Diarium 28.4.1734

Wienerisches Diarium 28.4.1734 | ANNO

Das lädt zum Experimentieren ein – denn unterschiedlichen Transkriptionen (wie etwa ‘Pecking’ oder ‘Pekin’ neben ‘Peking’ für Beijing 北京), sind bei der Arbeit mit Texten, die vor dem Zweiten Weltkrieg publiziert wurden, selbstverständlich. Aber Versuche (oder eher Spielereien – denn mehr ist es noch nicht – mit “ſ” (langem ‘s’)/”f” oder “ß”/”B” oder “C”/”S” etc. sind viel spannender, denn: Afien ift fuper.[3] ”

Sucht man “Chinese”, so ist der erste Treffer 1734 – April – 28: Wienerisches Diarium[4] – Seite 4.

Werfen wir einen Blick auf den Text – ein Klick auf das entsprechende Icon rechts oben zeigt den OCR-Text((Wienerisches Diarium Num. 34 (28.4.1734), 3f. Online: ANNO)).

Die kurze Meldung ist nicht besonders spannend – sie bringt zwei unterschiedliche Themen: Erdbeben in Beijing 1733 (und in den 3 Jahren davor) und den Krieg gegen die ‘Tartar(e)n’.

Zu den Erdbeben: Der Catalog of Damaging Earthquakes in the World (Through 2010) des International Institute of Seismology and Earthquake Engineering, Building Research Institute listet für die Zeit zwischen 1730 und 1733 eine Reihe von Erdbeben in China, darunter auch das Dongchuan 東川-Beben (Prov. Yunnan) vom 2.8.1733 (Stärke 7.8), aber nur wenige für den Raum Beijing.

  • 1730 Winter: China: Shandong – Stärke 5
  • 1730.09.30: China: Beijing – Stärke 6.5
  • 1731.11.30: China: Beijing – Stärke ? – 100000 Tote

Das Beben von 1730 hatte  schwere Schäden verursacht, das vom 30.11.1731 wohl 100000 Todesopfer gefordert.

Mit dem ‘Krieg gegen die Tartar(e)n’ ist wohl der Feldzug gegen die Dzungaren in der Yongzheng 雍正-Ära (1722-1735 ((Der Yongzheng 雍正-Kaiser Yinzhen  (1678-1735, regierte 1722-1735) hatte – wie schon sein Vater, der Kangxi-康熙-Kaiser Xuanye 玄燁 (1654-1722, regierte 1661-1722) vor ihm – versucht, die Position Chinas in der Äußeren Mongolei mit militärischen Mitteln zu sichern. Trotz der drückenden Übermacht der Qing-Streitkräfte konnten sich die zwar kleinen, aber sehr mobilen Verbände der Dzungaren zunächst behaupten, es gelang ihnen sogar, die Qing an den Rand der Niederlage zu bringen. Erst ein ‘Überläufer’, der sich auf die Seite der Qing-Dynastie geschlagen hatte, besiegte die Dszungaren.

Aber das ist hier eigentlich nebensächlich – es geht um Digitalisate und Volltext(e).

 OCR-Text Transkription
[S.3] Mm »st hier bmft «tK Ptckng / des )( » haupv 
[S. 4] Haupt, stadt in China / unter dem -offen
 Marti» des vorigen l?zz. jahres des in,
 haltS / wie man 4. jähre nach einander heft
 tige erdbeben daselbst verfpühret hätte / da
 dann die anzahl deren dabey auf manchen
 lky art umgekommenen Personen sich gegen
 2. Millionen beliefe. Der krieg gegen die
 Tartarn würde in dortigen gegenden auch
 «och immer fortgesetzet / doch es hatten
 sich zoo. Tartarn / unter allerhand vor,
 wände / mit ihren gmchen Familien auf die
 feite deren Chineftw gezogen / und dies
 ft hatten w einer nacht, alle Chinesische
 fchild < wachten listiger weife «r «ordet /und
 dadurch die gantze Chinesische Armee et-
 «er untemchmung deren Tartaren ausge ­
 setzet. Das daeauf vorgefallene Treffen,
 war so hitzig/ unvsö blutig gewesen/ den
 Weichen niemals w dortigen Landes ges«
 Den worden, 50000. Chinese» waren da,
 bey umgekommen, und ein General/
 welcher denen Tartarn in die Hände qe.
 saSen / war sogleich jäminerlich iv Stücken
 »erhamn worden.
[S. 3] Man hat hier briefe aus Pecking / der 
[S.4] Haupt=stadt in China / unter dem 20sten 
Martii des vorigen 1733. jahres des in-
halts / wie man 4. jahre nach einander heft
ige erdbeben daselbst verspühret hätte / da 
dann die anzahl deren dabey auf mancher
ley art umgekommenen personen sich gegen 
2. millionen beliefe. Der krieg gegen die 
Tartarn w[ue]rde in dortigen gegenden auch 
noch immer fortgesetzet / doch es hatten 
sich 300. Tartarn / unter allerhand vor
wande / mit ihren gantzen Familien an die 
seite deren Chinesern gezogen / und diese 
hatten in einer nacht / alle Chinesische 
schild=wachten listiger weise ermordet / und 
dadurch die gantze Chinesische Armee ei
ner unternehmung deren Tartaren ausge
setzet. Das darauf vorgefallene Treffen 
war so hitzig / und so blutig gewesen / der
gleichen niemals in dortigen Landen gese
hen worden / 50000. Chineser waren da
bey umgekommen / und ein General / 
welcher denen Tartarn in die H[ae]nde ge
fallen / war sogelich j[ae]mmerlich in Stücken 
zerhauen worden.

Das blaßorange markierte Wort ‘Chinese’ liefert den Treffer in der Volltextsuche, das blaßblau markierte ‘Chinesern’ wird nicht erkannt, denn da steht im OCR-Text ‘Chineftw’. Gleiche Typen auf einer Seite (also demselben Papier) knapp untereinander, kein Schatten (wie das in der jeweils inneren Spalte im Bereich des Möglichen wäre). Der Befund überrascht wenig – und es ließen sich vermutlich zahllose ähnliche Beispiele finden BTW: Das blassgrün markierte ‘Pecking’ wird bei einer Suche nach ‘Peking’ ebenfalls nicht gefunden, ein Blick in den OCR-Text zeigt warum: Dort steht ‘Ptckng’.

Big Data zum Greifen nahe?
Oder doch nicht?

  1. S. ANNO Suchhilfe
  2. S. ANNO Suchhilfe <abgerufen am 8.7.2013.>
  3. S. auch: Im Netz der (un)begrenzten Möglichkeiten.
  4. Das Wienerische Diarium war quasi der Vorgänger der Wiener Zeitung, es erschien 1703 bis 1779, ab 1780 erscheint das Blatt als Wiener Zeitung.

Quelle: http://mindthegaps.hypotheses.org/796

Weiterlesen

Digital Humanities? E-Humanities? Social Humanities?

https://digitalhumanities.princeton.edu/files/2013/03/Screen-shot-2013-03-14-at-10.43.36-AM.pngAngeregt durch den re:publica-Vortrag von Nishant Shah, durch die Digital Humanities Summer School Switzerland 2013 und zahlreiche Diskussionen, die sich sämtlich damit beschäftigten, was die Digital Humanities eigentlich sind und sein wollen, ließ mich diese Frage in den letzten Wochen nicht wieder los. Trotz oder gerade wegen zahlreicher Blogs, Forschungsprojekte und Tagungen unterschiedlichster Fragestellungen scheint das Verständnis von den Digital Humanities zur Zeit sehr uneinheitlich. Nach Marjorie Burghart werden sie durch oratores, bellatores, laboratores als drei Ordnungen vertreten, repräsentieren jedoch kein einheitliches Weltbild, was es erheblich erschwert, Grundlagen für Studiengänge oder Arbeitsweisen in diesem Bereich zu entwickeln und etablieren. Angelehnt an die zwei Phasen der DH nach dem Manifest von Schnapp und Presner und die darauf aufbauende dritte Phase von Berry, würde ich den drei Ordnungen gern die drei Weltbilder der Digital Humanities zur Seite stellen. Diese derzeitigen Formen und Auffassungen von den neuen Geisteswissenschaften sind einer der Gründe für die damit verbundenen Unsicherheiten. Sie basieren darauf, dass die Humanities 2.0 sowohl als digital(isiert)e Geisteswissenschaften in virtuellen Forschungsinfrastrukturen, als enhanced Humanities und als soziale Geisteswissenschaften bezeichnet werden. Jedoch sind diese drei Bedeutungen nicht gleichzusetzen und stellen völlig verschiedene Aspekte der Geisteswissenschaften im Kontext des Social Web in den Mittelpunkt.

digitalisieren, digitalisieren, digitalisieren

Bücher, Handschriften, historische und Kunstobjekte – die Digitalisierungsprojekte allein in Deutschland werden zunehmend unzählbar. Kleine und große Sammlungen werden als Teil des “Digitalisierungswahns” in verschiedene Formen von Datenbanken übertragen, die zumeist online frei zugänglich sind. Herausragende Beispiele sind die Deutsche Digitale Bibliothek, der Bereich Digital Heritage mit dem Namen OpenGLAM der Open Knowledge Foundation oder Europeana mit derzeit allein ca. 28 Millionen digitalisierten und mit Metadaten aufbereiteten Objekten. Die Zugänglichmachung primär für die Forschung, aber auch für die Öffentlichkeit, steht dabei im Mittelpunkt. Die EU, die DFG oder das BMBF fördern zunehmend Projekte, die sich OpenData als public mission auf die Fahne geschrieben haben. Dabei spielt nicht nur eine Rolle, dass öffentlich finanzierte Forschung auch öffentlich zugängliche Ergebnisse hervorbringen sollte, sondern auch, dass die wissenschaftliche Arbeit mit digitalen Objekten in vielen Punkten erheblich erleichtert wird. Dies entspricht der ersten Phase nach Schnapp und Presner, die sich durch Digitalisierungen und die Entwicklung entsprechender Datenbanken und Abfrage-Tools, durch Online-Publikationen und die Aufassung der OpenSciences charakterisiert.

Derartige Projekte lassen sich wunderbar dem Namen Digital Humanities zuordnen, da ihre Hauptaufgabe vor allem in der Digitalisierung selbst besteht. Dies bestätigt auch die Studie von InfoClio für ähnliche Vorhaben in der Schweiz. Eine solche Aufgabe bringt aber noch zahlreiche Probleme mit sich, sei es in Bezug auf Langzeitarchivierung und semantische Aufbereitung, Lizensierung oder andere rechtliche Fragen bezüglich der Daten selbst. Gerade aufgrund der Vielfalt und der heterogenen Herangehensweisen der verschiedenen Projekte an diese Aufgabe, stellt vor allem die Semantic einen wichtigen Punkt dar: auch wenn die meisten digitalen Bücher und Sammlungen prinzipiell im Netz aufzufinden sind, ist das Handling ihrer Online-Versionen nicht immer einfach und eindeutig. Zudem sind nur die wenigsten Datenbanken untereinander verknüpft oder unter einem gemeinsamen Interface vereint, sodass sie nur schwerlich übergreifend für wissenschaftliche Fragestellungen genutzt werden können. Basis hierfür wäre eine vereinheitlichte semantische Aufbereitung, die es erlaubt, die verschiedenen Datensammlungen zusammenzubringen und auf unterschiedliche Aspekte hin zu durchsuchen. Dafür sind jedoch eine zugrundeliegende Standardsprache und ein Einheitsformat notwendig, die nicht nur wegen der Vielzahl an Publikationssprachen, sondern auch wegen der unterschiedlichen Methoden und Sichtweisen der einzelnen Disziplinen nur schwer zu finden sind. Auch wenn diese anspruchsvolle und schwierige Aufgabe gelöst sein sollte, ist eine fleißig befüllte Vielzahl an Datenbanken zwar Digital, aber keineswegs Humanities – trotz der Informationen zu bedeutendem Kulturgut.

enhanced Humanities und Toolification

Vor allem die nationalen und internationalen Großprojekte befassen sich bisher mit der Differenz zwischen den klassischen Geisteswissenschaften und den DH. Entsprechend der zweiten Phase nach Schnapp und Presner stehen hierbei zusätzlich zur quantitativen Digitalisierung auch die Möglichkeiten der qualitativen Nutzung der auf diese Weise erzeugten, aufbereiteten und gespeicherten Daten im Vordergrund. Diese Phase ist experimentiertfreudig, überträgt das klassische geisteswissenschaftliche Handwerkszeug in die digitale Welt und bildet entsprechend den dortigen Gegebenheiten auch neue Methoden heraus. In Deutschland ist hier wohl an erster Stelle DARIAH zu nennen, wo digitale Forschungsumgebungen für die geisteswissenschaftliche Arbeit mit digitalen Daten entwickelt werden. Im Bereich digitalisierter Publikationen, die – zumindest in Bezug auf gemeinfreie Bücher – in der Zwischenzeit in Form von PDFs in großen Mengen zur Verfügung stehen, sind die Nutzungstools primär lingustischer Natur. Hierfür gibt es bereits eine Vielfalt an Software, so unter anderem Clarin, Maxqda, Vard2 oder den Classical Text Editor.

Das weite Feld der inhaltlichen Auswertung steht, unter anderem aufgrund der Semantik, noch weitgehend offen. Diese ist nicht nur für die Verknüpfung der Datenbanken von Bedeutung, sondern vor allem für die Überführung der Inhalte und der Informationen zu den Büchern und Objekten in eigene Datensätze. Stehen auch diese zur Verfügung, wird es möglich sein, über sprachliche Aspekte hinaus die in den Fachrichtungen bewährten Methoden anzuwenden und neue, speziell auf Daten ausgerichtete Fragestellungen zu entwickeln. Mit einer solchen erweiterten geisteswissenschaftlichen Nutzbarkeit von Digitalisaten werden aus den Digital die Enhanced Humanities. Diese Unterscheidung trifft auch das BMBF in seiner Studie zu den Forschungsinfrastrukturen der Geistes- und Sozialwissenschaften und erachtet die E-Humanities als besonders förderungswert. Mit ihnen könnten zum Beispiel digitalisierte Inschriftencorpora nicht nur auf Worthäufigkeiten, sondern auch auf bestimmte Zeitstellungen, Herkunfts- und Kulturkontexte, Materialien, Fundumstände u. Ä. hin befragt werden. Auch können für Neufunde Vergleiche oder in den Geschichtswissenschaften Quellen gleicher Zeitstellung direkt aufgerufen werden. Dariah und die Labs der OpenKnowledgeFoundation stellen mit dem Geobrowser und Timeliner bereits Tools zur geographischen Darstellungen von Entwicklungen, Reiserouten, Fundverteilungen und jeglichen anderen, auf Karten umsetzbaren wissenschaftlichen Ergebnissen zur Verfügung. Die Datengrundlage kann dafür aus den Datenbanken übernommen oder selbst eingespeist werden. Eine für die Geisteswissenschaften eher ungewöhnliche, aber sehr zukunftsträchtige Platform ist Crowdcrafting, bei der wissenschaftliche Projekte Citizen Science und das „Wissen der Massen“ für die Gewinnung neuer Erkenntnisse nutzen können.

Social Humanities

Auch die vielversprechenden und wissenschaftlich höchst spannenden Projekte im Bereich der E-Humanities allein nutzen die Möglichkeiten des Web 2.0 nicht in vollem Umfang. Was noch himzukommt, ist das kommunikative, kooperative und offene Wikinomics-Prinzip, das Berry als dritte Phase der DH bezeichnet. Dabei geht es nicht nur um Open Access zu den Ergebnissen der Forschung, den die EU bereits zum Thema des Horizon 2020 gemacht hat, um Vernetzung und Interdisziplinarität, sondern auch darum, die Welt der Wissenschaften selbst transparenter, flexibler und offener zu gestalten. Dies geht über Online-Publikationen im PDF-Format jedoch weit hinaus, sondern soll den Wissenschaftsprozess an sich öffnen. Anliegen ist es, die Interaktion mit der Öffentlichkeit auf der einen und die interne Kommunikation auf der anderen Seite auszubauen, den Elfenbeinturm in Richtung Agora zu verlassen und die althergebrachten Hierarchien und Wertesysteme neu zu überdenken. Twitter und Blogs oder Academia.edu und Facebook erweitern die Möglichkeiten des Austausches und auch neue Wege der Profilierung innerhalb der Wissenschaft und öffnen zugleich den Blick auf die Bedürfnisse der Menschen außerhalb. Sie ermöglichen eine gleichberechtigte Kommunikation und auch Hilfestellungen bei Forschungsfragen oder Vermittlungsproblemen. Hinzu kommen Tools, die das Management von großen, auch internationalen Projekten vereinfachen, sowie Social-Reading-Angebote. Hier geht mit textus geht wiederum die OpenKnowledge Foundation einen neuen Weg, indem sie die Möglichkeiten der Literaturarbeit von readmill und ähnlichen Diensten für die Wissenschaft nutzbar macht und online zur Verfügung stellt. Querverweise, Kommentare, Zitationen und Zusammenarbeit können so auch von Gruppen direkt am Text erarbeitet werden. Derartige Projekte und Social-Media-Dienste vereinen die Datenauswertung der E-Humanities mit dem Charakter des Web 2.0 zu den Social Humanities.

Humanities 2.0?

Der Begriff der Digital Humanities wird derzeit sehr heterogen benutzt. Im wohl verbreitetsten und auch in den Medien genutzten Sinne umfasst er vor allem den Bereich der Digitalisierung. Bei diesem stehen jedoch nicht die geisteswissenschaftlichen Anforderungen im Vordergrund, wie auch ein Artikel der FAZ zeigt. Unter dem Titel „Auf der Suche nach einem Zweck“ erscheint es darin eher so, also versuchten die Geisteswissenschaften auf diesem Weg eine Annäherung an die quantitativen Daten und Methoden der Naturwissenschaften, um ihre Reputation als Wissenschaften zu verbessern. Die sozialen, philosophischen, kulturellen oder politischen Fähigkeiten eines Geisteswissenschaftlers schlicht auf Technologien zu übertragen, ist dabei jedoch beinahe Blasphemie. Stattdessen macht es die den Geisteswissenschaften eigenen Charakterzüge  wesentlich zukunftsträchtiger, neue methodische Ansätze für die E-Humanities zu finden und die Social Humanities auszubauen. Insgesamt führen die drei Weltbilder der DH aufgrund ihrer Gemeinsamkeiten und Unterschiede, durch Engagement und innovative, kreative Herangehensweisen gemeinsam zu fruchtbaren Diskussionen und der Entwicklung neuer, spannender Methoden und Forschungsmöglichkeiten und der Etablierung einer gemeinsamen Auffassung von den Humanities 2.0.

Quelle: http://kristinoswald.hypotheses.org/829

Weiterlesen

Archivnachlass von Emmanuel Herzog von Croÿ (1718-1784) inventarisiert und digitalisiert

DÜL_NEml_219_0002Am 11. Juli 2013 um 18 Uhr präsentiert das DHIP zusammen mit dem LWL-Archivamt für Westfalen das elektronische Inventar des Nachlasses von Emmanuel Herzog von Croÿ im Erbdrostenhof in Münster. Emmanuel de Croÿ, Feldherr, Diplomat und aufgeklärter Grandseigneur, interessierte sich für alle Entdeckungen und Erfindungen seiner Zeit, sei es auf dem Gebiet der Natur- und Geisteswissenschaften, Literatur, Volkswirtschaft oder Kunst und Musik.

Ein Jahr lang haben die beiden Institutionen in diesem Kooperationsprojekt ausgewählte Teilbestände aus dem Croÿ’schen Archiv in Dülmen (Westfalen) inventarisiert und digitalisiert. Insgesamt handelt es sich um etwa 30.000 Digitalisate von gut 50.000 Seiten, darunter die wertvollen Memoiren des Herzogs über sein Leben am französischen Hof und in den Feldzügen des Österreichischen Erbfolgekrieges und des Siebenjährigen Krieges, Korrespondenzen und Privatakten sowie zahlreiche Dossiers über seine Recherchen und weltanschauliche Betrachtungen.

Diese für die Forschung über den Hochadel, die Politik und die Kulturgeschichte Europas im 18. Jahrhundert äußerst wichtigen Archivalien können dank der freundlicher Genehmigung von Rudolph Herzog von Croÿ der Forschung online zur Verfügung gestellt werden. Aus dem Inventar heraus wird direkt auf das jeweilige Digitalisat verlinkt. Alle Digitalisate werden gemeinfrei, d.h. ohne Rechtebeschränkung bereit gestellt (Creative Commons Public Domaine Mark 1) und sind frei verfügbar[1].

Die offizielle Vorstellung des Projekts und des Online-Inventars wird von Lektüren von Textauszügen aus dem Archiv sowie musikalischen Intermezzi aus der Zeit des Emmanuel de Croÿ umrahmt. Nach dieser Vorstellung wird das Inventar für die Öffentlichkeit freigeschaltet.

Ergänzung, 13.7.2013: Link zum Inventar und zu den Digitalisaten: http://www.archive.nrw.de/LAV_NRW/jsp/findbuch.jsp?archivNr=451&id=2158&tektId=365

Einführung: Dr. Wolfgang Kirsch (Direktor des Landschaftsverbandes Westfalen-Lippe), Dr. Stefan Martens (Stellvertretender Direktor des DHIP), Rudolph Herzog von Croÿ.

Präsentation des Archivs: Dr. Antje Diener-Staeckling (LWL-Archivamt für Westfalen), Florence de Peyronnet-Dryden (DHIP).

Musikalische Umrahmung: Caroline Kirchhoff (Cembalo)

_____________

Abbildung: Notizen von Emmanuel Herzog von Croÿ über das Attentat von Robert François Damiens auf König Ludwig XV., 1757, Creative Commons Public Domaine Mark 1.

  1. Mit Dank an Klaus Graf für seine Hinweise in dieser Sache, insbesondere für den Hinweis auf seinen Artikel: Die Public Domain und die Archive, in: Schmitt, Heiner (Hrsg.): Archive im digitalen Zeitalter: Überlieferung, Erschließung, Präsentation ; 79. Deutscher Archivtag in Regensburg. Fulda 2010, S. 177-185 <http://archiv.ub.uni-heidelberg.de/artdok/1790/>.

Quelle: http://dhdhi.hypotheses.org/1879

Weiterlesen

Die FAZ zu den Erwartungen an die “Labore der digitalen Geisteswissenschaften”

Im Wissenschaftsteil der heutigen Ausgabe der Frankfurter Allgemeinen Zeitung referiert Moritz Neuffer einige Einsichten der Tagung Collecting Ideas – The Idea of Collecting, die vom 16. bis zum 18. Mai im Literaturarchiv im Marbach stattfand. Er stellt dabei unter anderem auch eine Rolle der Digitalen Geisteswissenschaften heraus:

“Wo Bestände nicht aus der Ferne sichtbar, die Wege ins Archiv weit und teuer sind, werden Zugänge versperrt. Entsprechend hoch sind die Erwartungen an Digitalisierungsprozesse und die Schaffung von neuen Zugangspfaden, wie sie derzeit in den Laboren der digitalen Geisteswissenschaften entwickelt werden.”

Wir befinden uns dabei eindeutig auf der Ebene der Bestandsvermittlung bzw. der Entwicklung von Zugängen über digitale Kanäle. Diese Eröffnung (und die damit verbundene Transformation) der Bestände wirkt, wie Moritz Neuffer anhand eines Tagungsbeitrags von Ronald Schuchard herausstellt, nicht etwa als Substitut für die materiellen Originale sondern weckt vielmehr – jedenfalls nach den geschilderten Erfahrungen – “einen Hunger nach der Präsenzerfahrung von und mit den Quellen.” Die Aura des Originals könnte folglich entgegen mancher gegenteiliger Erwartungen angesichts seiner digitalen Verwandelbarkeit wenigstens als zeitstabil erweisen.

Zu durchdenken bleibt hier weniger das ob und auch nicht so sehr das wie, sondern tatsächlich das Spannungsverhältnis von Medialität, Materialität und der damit verbundenen Lesbarkeit dessen, was in den Infrastrukturen und Analysewerkzeugen der Digitalen Geisteswissenschaften verarbeitet wird. Dazu zählt übrigens auch eine Metareflektion der Bedingungen des Zustandekommens dieser Werkzeuge und Kanäle.

Paraphrasiert Moritz Neuffer den Diskutanten On Barak mit der Aussage:

“Wo sammelnde Institutionen Wissen und kulturelle Erzählungen produzierten, sei es politisch geboten, diese Produktionsverfahren offenzulegen.”

so gilt dies gleichwohl für die Strukturen, die aus dem Digital-Humanities-Umfeld für die geisteswissenschaftliche Arbeit entwickelt werden. Die Festlegung eines Zugangspfades bedeutet unvermeidlich eine Eingrenzung unter bestimmten Bedingungen und lenkt damit die Zugänglichkeit. Für die, die diese Pfade benutzen, ist es ungemein wichtig, zu wissen, was sie auf diesen erreichen können. Und womöglich sogar noch wichtiger, zu wissen, was nicht. Die Aufgabe einer entsprechend spezialisierten STS-Forschung (Science, Technology and Society) liegt aus meiner Aussicht genau darin, diese Offenlegung der Bedingungen hinter den digitalen Zugängen und Werkzeugen als eine Art Begleittext vorzunehmen.

Quelle: Moritz Neuffer: Die guten ins Töpfchen und die schlechten – in ein anderes. In: Frankfurter Allgemeine Zeitung, 05.06.2013, S. N5

Berlin, 05.06.2013 / @bkaden

Quelle: http://dhd-blog.org/?p=1810

Weiterlesen

Link-Hint Nr. 15 [31.05.2013]: Das digitale Bildarchiv des Bundesarchivs — 200.000 Fotographien seit 1860

http://www.bild.bundesarchiv.de Über 200.000 Fotographien aus der Zeit seit 1860 sowie knapp 90.000 Materialien des Bundespresseamtes enthält das digitale Bildarchiv des Bundesarchivs. Dass ein repräsentativer Querschnitt aus dem Bestand an Fotographien ausgewählt wurde ist lobenswert, wenn auch eine Angabe nicht aufgenommener Bilder zu wünschen wäre. Das Portal, welches zahlreiche wirkmächtige Funktionalitäten bietet, ist leider wenig intuitiv […]

Quelle: http://www.einsichten-online.de/2013/05/4454/

Weiterlesen

re:publica 2013 – Nerds im Elfenbeinturm


Vom 6.-8. Mai waren Charlotte Jahnz und Sascha Foerster für die Max Weber Stiftung in Berlin bei der Konferenz re:publica 2013. Sie begann vor 7 Jahren als Blogger-Treffen und hat sich mittlerweile zur wichtigsten europäischen Internet-Konferenzen mit über 5000 Teilnehmern und mehreren hundert Rednern entwickelt. 

Session "Geschichte des Computers" (CC-BY 3.0 Sascha Foerster)

Session “Geschichte des Computers” (CC-BY 3.0 Sascha Foerster)

Aus der Fülle des Programms möchte ich einige interessante Vorträge, Projekte und Themen der Konferenz vorstellen und persönlich kommentieren, besonders in Hinblick darauf, wie die digitalen Entwicklungen Wissenschaft verändern. Falls entsprechende Aufzeichnungen vorhanden sind, werden diese verlinkt. Weitere Themen, Thesen und Zusammenfassungen von Vorträgen können gerne in den Kommentaren ergänzt werden. Mehr Informationen zur Konferenz gibt es unter http://re-publica.de. Dies ist natürlich eine persönliche Auswahl aus der Vielzahl der Themen, die bei der Konferenz behandelt wurden. Wer Konferenzmitschnitte anschauen möchte, findet hier eine Übersichtsseite mit den Sessions und den entsprechenden Videos zum Anschauen.

Open Data, Open Access und Digital Humanities

Nicht nur in der Verwaltung sondern auch in der Forschung fallen viele Daten an, die oft nach Abschluss des Projekts verloren gehen. Im Vortrag “Die maschinenlesbare Regierung” wurde gefordert solche Daten, die bei öffentlich geförderten Projekten anfallen, unter einer verbreiteten freien Lizenz, zum Beispiel “CreativeCommons” (bzw. ähnliche) und maschinenlesbar zugänglich zu machen. Zum einen ermögliche dies die genauere Replikation und Überprüfung von Studien, zum anderen könnten diese Daten für weitere innovative und gesellschaftsdienliche Zwecke genutzt werden. Persönliche Daten sollen dabei geschützt bleiben und nicht veröffentlicht werden.

Nach Möglichkeit sollen bekannte und verbreitete freie Lizenzen für die Datenveröffentlichung verwendet werden. Maschinenlesbar bedeutet, dass diese Daten nicht als PDF “ausgedruckt” (Zitat: “Schnarchdaten”), sondern in Rohformaten veröffentlicht werden, die automatisiert gelesen und weiterverarbeitet werden können. PDF-Dateien sind für solche Zwecke denkbar schlecht geeignet, da die Rohinformationen dort erst wieder aufwendig extrahiert werden müssen.

Es wurden Forderungen gestellt, die Veröffentlichung von Verwaltungs- und Forschungsdaten gesetzlich verpflichtend zu machen. Entsprechende Gesetze sollen baldmöglichst “installiert werden”.

Links:

re:publica 2013 Session: Die maschinenlesbare Regierung – Eine kritische Analyse zur Gegenwart von Open Data und Open Goverment in Deutschland

Definition von “Offenes Wissen”
http://opendefinition.org/okd/deutsch/

http://de.wikipedia.org/wiki/Open_Data

re:publica 2013 Aufzeichnung: How radical are Open Access and the Digital Humanities?
http://www.youtube.com/watch?v=-9d0KM1I0aw

re:publica 2013 Aufzeichnung: OpenData, was hat das mit mir zu tun?
http://www.youtube.com/watch?v=QBSNr6UXIJg

re:publica 2013 Aufzeichnung: Datenbeifreiung, selbst gemacht. (Tools für Open Data)
http://www.youtube.com/watch?v=vWerZQFj4Xc

Crowdfounding, Crowdsourcing und Wissenschaftskommunikation

Ein Beispiel für gute Wissenschaftskommunikation war die Session zur Grundlagenforschung des CERN. Im Vortrag zeigten Henning Krause (Helmholtz-Gemeinschaft) und seine Kolleginnen und Kollegen vom CERN, wie es zur Entdeckung des Higgs-Teilchens kam. Fast alle Institute nutzen die Kanäle Blogs, Facebook, Twitter, teils auch Podcasts oder öffentliche Google Hangouts zur Wissenschaftskommunikation. In der Diskussion wurde später kritisch nachgehakt, ob die Entdeckung des Higgs-Teilchens den enormen finanziellen Aufwand von 6 Milliarden Euro für den Teilchenbeschleuniger LHC rechtfertige. Gerade wegen des hohen finanziellen Aufwands spiele es eine wichtige Rolle, der Öffentlichkeit die Forschungsergebnisse zu vermitteln und so weiter für die Notwendigkeit der Grundlagenforschung zu werben, wurde erwidert. Da am CERN durch Tim Berners-Lee auch die Grundlagen für das WWW geschaffen wurden, konnte man mit Verständnis unter den technikbegeisterten Zuschauern rechnen. Die enorme Datenverarbeitungskapazität, die nur durch ein weltweites Cluster von Rechner bereit gestellt werden können, zeigten auch, dass durch Grundlagenforschung aktuelle technische Entwicklungen voran gebracht werden können.

Zwischen den Sessions gab es immer wieder Gelegenheit persönlich mit Kollegen zu sprechen, unter anderem habe ich mit Thorsten Witt gesprochen, der für “Wissenschaft im Dialog” das Projekt www.sciencestarter.de leitet. Crowdfounding fordert Wissenschaftler/innen dazu auf, sich und ihre Forschung aktiv zu präsentieren, um so Forschungsgelder von einer interessierten Öffentlichkeit zu sammeln. Einerseits gibt es Befürchtungen der Popularisierung von Forschung, andererseits wird so von Anfang an die Wissenschaftskommunikation gefördert. Auch kleinere Projekte bekommen so eine Chance auf Förderung. Neue Projektvorschläge werden gesucht, besonders auch aus den Geistes- und Sozialwissenschaften.

Eine weitere Möglichkeit, die Crowd für die Forschung zu nutzen, besteht darin, ähnlich wie bei der Wikipedia, Forscher/innen dazu zu animieren, sich gegenseitig bei der Lösung von Forschungsproblemen zu unterstützen bzw. Freiwillige zu animieren bei einem interessanten Projekt zu helfen. Ein vergleichsweise einfacher Weg dazu kann eine offene wissenschaftliche Frage in einem Blogbeitrag sein (siehe z.B. die offene Frage und folgende Diskussion im dk-blog), die von anderen Lesern beantwortet wird. Es kann sich aber auch im Großprojekte wie die Digitalisierung historischer Werke handeln, die auch von Nicht-Experten unterstützt wird. Auch hier sind noch Experimente nötig um die entsprechenden Möglichkeiten und Risiken auszuloten.

Thorsten Witt organisiert übrigens ein SciCamp zum Thema “Wissenschaft im Netz”, das am 1. und 2. Juni 2013 in Berlin stattfinden wird.

Links:

re:publica 2013 Aufzeichnung: Faszination Grundlagenforschung: Higgs, Big Data und Teilchenphysik
http://www.youtube.com/watch?v=ceARb5FRy8A

http://www.sciencestarter.de

Passend zum Thema Öffentlichkeitsarbeit und Partizipation:
www.hellojed.de: “Public History: Mehr Öffentlichkeit? Bessere Öffentlichkeit?”

Ähnliche Themen:

re:publica 2013 Aufzeichnung: In, Side, Out of Science (Partizipation in der Wissenschaft)
http://www.youtube.com/watch?v=JZI3peYWGUU

re:publica 2013 Aufzeichnung: Horst Zuse, Die Geschichte des Computers
http://www.youtube.com/watch?v=YAh4Jr5dJcQ

Wikipedia und WikiData

Der Vortrag zu Wikipedia und besonders die kritischen Nachfragen aus dem Publikum zeigen, welche Schwachstellen die Wikipedia momentan hat. Einerseits besteht aus Sicht der Administratoren ein Großteil der Arbeit aus Löschung von unsinnigen Beiträgen, Rückgängigmachung von Vandalismus und Entfernung von Fehlern, die besonders gefährlich sind, da viele, besonders Medien aber auch Wissenschaftler, diese Fehler gegenseitig abschreiben und weiterverbreiteten. Dies wurde an verschiedenen Beispielen gezeigt, u.a. an einem Zahlendreher bei der Länge des Rheins oder einem Eintrag zur Berliner Karl-Marx-Allee. Andererseits werden so auch oft Beiträge und Änderungen gelöscht, die korrekt sind, was zu enormen Frust bei den Nutzern und Autoren führt. Gerade Wissenschaftler, die Spezialisten in ihrem Gebiet sind und Spezial-Artikel durch ihre Expertise auf ein höheres Niveau heben könnten, wenden sich aufgrund der langwierigen Diskussionen mit Administratoren um kleine Anpassungen wieder ab. Dabei sind sich prinzipiell alle Seiten einig, wie wichtig das Projekt Wikipedia ist.

Meiner Meinung nach ist es nicht einfach beide Fehlerarten (falsche Informationen, falsche Löschungen) gleichermaßen zu reduzieren, doch das wird die Aufgabe sein, die die Wikipedia zu lösen hat, um weder (freiwillig arbeitende) Administratoren noch qualitativ hochwertige (ebenfalls freiwillig arbeitend) Beiträger/innen  zu verlieren.

Eine interessante Neuentwicklung ist das Projekt “WikiData“, dass eine Datenbank-Infrastruktur für die Wikipedia bereitstellt. Vielverspechend ist die Möglichkeit, Daten über verschiedene Artikel hinweg an einer zentralen Stelle aktualisieren zu können. Welchen Nutzen dies für Wissenschaftler/innen hat und welche Fragen sich mit diesen Datensätzen beantworten lassen, wird sich erst zeigen, wenn mehr Daten zur Verfügung stehen und einige Forscher damit experimentiert haben. Wer sich für WikiData interessiert, kann schon mal die API testen. Beispielsweise lassen sich auch historische Daten und Fakten in der Datenbank festhalten.

Links:

re:publica 2013 Aufzeichnung: Wikipedia: wo User geblockt, Artikel gelöscht und Reputationen zerstört werden
http://www.youtube.com/watch?v=5iSAl_krauA

http://www.wikidata.org/w/api.php

Digitalisierung und Langzeitarchivierung

Unter dem provokativen aber ernst gemeinten Titel “Das Buch muss überwunden werden – Digitales Utopia oder eher El Dorado?” stand der Vortrag über die “nächste Evolutionsstufe des Buches” und den gegenwärtigen Stand der Digitalisierung. Die Vortragenden vertraten eine klare Position für eine Digitalisierung bis hin zur Abschaffung des Buches in seiner physischen Form. Es wurden Projekte wie die “Deutsche Digitale Bibliothek” und “Europeana.eu“ vorgestellt und die urheberrechtlichen Hintergründe und Probleme erklärt.

Besonders Bücher zwischen 1850 bis 1950 seien vom Papierzerfall bedroht. Die Probleme der digitalen Langzeitarchivierung seien viel besser lösbar bzw. bereits gelöst. Alle Bücher zu digitalisieren, würde nach Schätzungen der Vortragenden 120 Millionen Euro kosten. Selbst wenn es viermal so teuer wäre, so wurde argumentiert, würde es immer noch durch die öffentliche Hand zu stemmen sein.

Zwei Nutzungsszenarien böten sich nach der Digitalisierung an: Zum Ersten könne man die Bücher einfach lesen. Zum Zweiten ließe sich erst nach Digitalisierung eine Volltextsuche durchführen, wie sie beispielsweise bereits von Google ngram angeboten wird.

Auch die Langzeitarchivierung von Blogs ist ein bisher nicht wirklich gelöstes Problem. Zwar gibt es die “Wayback Machine” des “Internet Archives”, doch geht dabei der dynamische Charakter der Blogs verloren, da diese ja meist auf ein Datenbanksystem zurückgreifen. Bereits 45% der Blogs aus der Zeit des Irakkriegs seien verloren gegangen – trotz des bestehenden “Internet Archives”. Das EU-geförderte Projekt “Blogforever” soll hier Abhilfe schaffen, indem es die dynamischen erstellten Blogs archivieren hilft. Es soll in Zukunft als OpenSource-Paket und als Webdienst verfügbar sein.

Ein digitales Archiv des analogen Alltags wird im Projekt “digIT – Graben, Retten, Teilen” beim WDR erstellt. Die Mitarbeiter/innen sammeln vor Ort analoge Videos und Fotos ein, digitalisieren diese und stellen eine Kopie auf ihrer Webseite. Als Beispiel wurde ein Video der Brückenverschiebung 1976 in Düsseldorf gezeigt. Im Workshop suchten die Mitarbeiter nach Ideen für ein besseres Tagging des Materials der Offliner, gegebenenfalls mit Hilfe von Onlinern.

Als Nachteil habe ich auch hier empfunden, dass keine freien Lizenzen verwendet werden, sondern eine Eigenentwicklung des WDR, bei der nur nicht-kommerzielle Archive und Bildungsträger das Material nutzen dürfen. Nicht allen Zuhörern war klar, was CC-Lizenzen sind, wie ein nachfragender Nebenmann mir bewies. Bei einer Nutzung von freien Lizenzen könnten die Digitalisate beispielsweise auch in der Wikipedia eingebunden werden. Bei Beendigung des Projekts werden so die Daten vermutlich nur noch für die eigene Mitarbeiter im WDR-Archiv zu finden sein.

Links:

re:publica 2013 Aufzeichnung: Das Buch muss überwunden werden – Digitales Utopia oder eher El Dorado?
http://www.youtube.com/watch?v=oOcOTE2IP34

re:publica 2013 Session: Blogforever

re:publica 2013 Session: digit.WDR.de – Graben, retten, teilen

Nestor : Digitale Langzeitarchivierung

Internet Archive: Wayback Machine

Best of Blogs, reclaim.fm und Owncloud

Dass Blogs schon lange mehr sind als Online-Tagebücher von Teenager, hat sich noch nicht überall herumgesprochen. Die Best-of-Blog-Awards, vergeben von der Deutschen Welle, zeigen, welche Bedeutung Blogs mittlerweile für die freie Meinungsäußerung weltweit haben. Auch die wissenschaftliche Blogplattform Hypotheses.org, deren deutschen Ableger de.hypotheses.org wir bei der Max Weber Stiftung managen, war nominiert.

Verweisen möchte ich auch auf den Überraschungsvortrag von Sascha Lobo, in dem das Tool reclaim.fm vorgestellt wurde. Es ist noch in der Entwicklung, soll aber dabei helfen die eigenen Daten aus Facebook, Twitter und anderen kommerziellen Diensten zurück in das selbstkontrollierte WordPress-Blog zu bringen, eine Entwicklung, die ich persönlich begrüße. Insgesamt wird immer wieder der Wunsch geäußert aus den kommerziell orientierten sozialen Medien zurück in die Blogosphäre zu kehren. Dort hat man Kontrolle über die eigenen Daten und wird nicht von Großkonzernen für bessere Werbeplatzierungen ausspioniert. Doch vermutlich wird diese Henne-Ei-Diskussion weitergehen, so lange die meisten Kontakte sich in kommerziellen Netzwerken befinden.

Eine freie Alternative zu Dropbox und Co. ist Owncloud. Man kann damit Dateien auf den eigenen Rechnern belassen und trotzdem über verschiedene Geräte synchronisieren, bzw. im Internet teilen. Es ist also eine selbstkontrollierte Datenwolke, bei der man keine “Allgemeinen Geschäftsbedingungen” zum eigenen Nachteil bestätigen muss, ohne dabei irgendeinen funktionellen Nachteil zu haben.

Links:

re:publica 2013 Aufzeichnung: The Bobs Six Winners
http://www.youtube.com/watch?v=EcsaUnQgvhM

re:publica 2013 Aufzeichnung: Sascha Lobo: Überraschungsvortrag II
http://www.youtube.com/watch?v=Raas1BhSIbs

Passend dazu:
http://schmalenstroer.net/blog/2013/05/reclaim-fm-die-eigene-social-media-sicherung/

re:publica 2013 Aufzeichnung: crushing data silos with Owncloud
http://www.youtube.com/watch?v=CwhKl0qvcfA

Workshops: Content, SocialCRM, Social Media

Im Rahmen der re:publica 2013 wurde auch die Konferenz re:campaign abgehalten, die einen Schwerpunkt auf NGOs legt, aber auch für Stiftungen und anderen Organisationen im Internet waren interessante Anregungen dabei.

Die Erstellung einer Content-Strategie für NGO’s wurde im entsprechenden Workshop mit folgenden Schritten beschrieben: Zuerst muss man die bestehenden eigenen Inhalte der Organisationen kennen lernen. Danach sollten Benutzerprofile der Rezipienten erstellt werden, zum Beispiel durch Interviews oder Umfragen. Die Fragen “Was wollen und was brauchen die Nutzer?” sollen so beantwortet werden. Anhand der Organisationsziele lässt sich dann bestimmen, welche konkreten Botschaften gesendet werden sollen. Damit Inhalte (Content) in Organisationen produziert und verteilt werden können, müssen Prozesse und Arbeitsabläufe geplant und strukturiert werden. Dazu gehören auch Kontrollmechanismen und festgelegte Verantwortlichkeiten. Schließlich wird entschieden, auf welchen Plattformen und wie die Inhalte verbreitet werden. Welche Medienformate eignen sich für welche Plattform? Insgesamt sollte es nicht zu textlastig werden. Einstiegsvideos helfen, Emotionen zu wecken, Storytelling macht die Inhalte interessant.

Im Workshop “Von SocialMedia zu SocialCRM” wurden Anregungen und Ideen gesammelt, wie Organisation besser mit ihrem Umfeld interagieren können. Klassische Instrumente der Kundenpflege greifen oft zu kurz, da sie die Sozialen Medien außer Acht lassen. Schwierigkeiten sind unter anderem, dass sich Organisationsziele nicht eins zu eins in die Sozialen Medien übertragen lassen, dass Soziale Medien heterogene Systeme sind, dass die Erfolgsmessung bei Sozialen Medien schwierig zu definieren ist und dass die Folgen nur schwer messbar sind. Es wurde angeregt, dass Mitarbeiter stärker als Menschen hervortreten und die Impulse aus der Community besser aufgegriffen werden sollen.

Die Folien des Workshops “10 Fehler die wir alle machen!” finden sich zum Nachlesen bei Slideshare. Auch hier waren interessante Anregungen für die Social-Media-Strategie von Organisationen dabei.

Links:

re:publica 2013 Workshop: Content Strategy für NGOs – Webinhalte erst strategisch planen, dann publizieren

re:publica 2013 Workshop: Von Social Media Management zu Social CRM

re:publica 2013 Workshop: 10 Fehler die wir alle machen! – Nonprofits und Social Media Stand 2013

Fazit

Insgesamt meinte ich bei den technologiebegeisterten Vortragenden Ungeduld und Frustrationen zu spüren. Vermutlich kämpfen sie schon lange mit den Widerständen und erreichen doch nur geringe  Fortschritte, sowohl in Forschung als auch in Verwaltung. Deren Vertreter verwiesen in der Diskussion wiederum auf Schwierigkeiten bei der Umstellung, Sorgen über die Folgen oder kritisierten und blockierten insgesamt die digitalen Projekte.

Immer, wenn ich mit Menschen außerhalb der re:publica sprach, merkte ich meist schnell, dass die Themen und Stichwörter der Konferenz nur den Wenigsten etwas sagen. Nicht alle wissen, was eine CC-Lizenz ist, und vielen “Nerds” fehlt das Verständnis dafür, das andere nicht genau so gut Bescheid wissen, wie sie selbst, die sie mit mindestens zwei Bildschirmen parallel einem Vortrag folgen. Andererseits gibt es immer noch Vorurteile, wie “Blogs sind doch nur Meinungen von Teenagern” und es wird abgetan, dass dort mittlerweile auch wissenschaftliche Ergebnisse publiziert werden (siehe de.hypotheses.org). Dabei darf man Meinungen keinesfalls gering schätzen, wie man an Beispielen von eingeschränkter Meinungsfreiheit sieht und von Menschen, die sich diese Meinungsfreiheit im Netz, auch gerade durch Blogs, wieder erkämpft haben.

tl;dr: Es bleibt noch viel Aufklärungsarbeit zu leisten. Nerds, kommt raus aus eurem Elfenbeinturm!

Quelle: http://mws.hypotheses.org/2838

Weiterlesen

Einzigartiges open access-Projekt – finnische Kriegsfotos im Internet

Am 25.4. veröffentlichte die finnische Armee über 160 000 sog. TK-Fotos aus dem Zweiten Weltkrieg im Internet. Diese Fotos sind während des Winter- (1939/40) und Fortsetzungskriegs (1941–44) von offiziellen Fotografen der finnischen Armee aufgenommen worden. Sie umfassen sowohl Kriegsfotos von der Front als auch solche von der Heimatfront.Die Fotos sind für jeden Interessierten unter der Adresse www.sa-kuva.fi zugänglich und können als druckfertige Dateien heruntergeladen werden. Das Digitalisierungsprojekt, welches 3,5 Jahre gedauert hat, wurde am nationalen Feiertag der Veteranen bekanntgegeben und erweckte sofort so großes Interesse, dass die Internetseiten erneut geschlossen werden musste, weil die Server unter der Belastung zusammenbrachen. Inzwischen funktioniert die Webseite wieder.

Dieses Großprojekt hat dazu geführt, dass Finnland momentan die Führungsposition hat, was den Onlinezugang von bedeutenden Bildarchiven angeht. Nirgendwo sonst in der Welt gibt es ähnlich umfassende kostenlose Bildarchive: z.B. in Deutschland kann zwar ein Teil der deutschen PK-Fotos (PK=Propagandakompanie) auf der Webseite des Bundesarchivs angesehen werden, aber druckfertige Versionen sind immer noch kostenpflichtig. Vielleicht regt das Beispiel Finnlands auch andere Länder an, ihm Folge zu leisten.

Die finnische Armee macht deutlich, dass die Informationen zu den Bildern in manchen Fällen Fehler oder Lücken enthalten und das man um diese weiß. Zwar haben die Informationsblätter zu den Fotos den Krieg überlebt, und diese Informationen wurden beim Digitalisieren als Bildertexte angegeben, doch enthalten diese Papiere eben Fehler, welche jetzt einfach übernommen wurden. Um diesem Manko entgegenzuwirken, gibt es im Portal ein digitales Formular, das die Zusendung von zusätzlichen Informationen ermöglicht. Die zugeschickten Informationen werden geprüft und gegebenfalls übernommen. Somit wird dieses Bildarchiv möglicherweise im Laufe der Zeit zu einer nationalen Wikipedia der Kriegsfotos.

Was ich persönlich aber als problematisch empfinde, ist die Entscheidung der Armee, die etwa 200 grausamsten Fotos, die Leichen o.Ä. zeigen, nicht im Archiv zu veröffentlichen. Zwar können diese Bilder weiterhin in der Bildstelle der Armee angesehen werden, aber da ein Teil der Bilder bereits auf diversen Websites zu finden ist, wäre es wohl möglich gewesen, diese Bilder zu veröffentlichen, damit sie nicht gefundenes Fressen für verschiede Verschwörungstheoretiker werden können. Sollte man mit dieser Selbstzensur Kindern vor schrecklichen Bildmaterial schützen wollen, wäre es aber technisch durchaus möglich, eine getrennte, passwortgeschützte Archivseite aufzubauen, auf der diese Fotos gezeigt werden könnten. Der einmal gültige Zugangscode könnte automatisch nach Angabe des Geburtsdatums zugeschickt werden.

Beispiel für eine Bildrückseite

Beispiel für eine Bildrückseite mit Notizen
Foto: Olli Kleemola

Natürlich vermisse ich auch die im Internetarchiv fehlenden Bildrückseiten (siehe Abbildung). Um die bestmögliche Bildqualität zu erreichen, wurden die Bilder von den Negativen digitalisiert. Das ist auch gut so, aber dabei wurde leider übersehen, welche Fülle an Informationen die Originalabzüge der Bilder, die immer noch in der Bildstelle der Armee aufbewahrt werden, enthalten. Auf den Rückseiten der Abzüge gibt es Stempel, die zeigen, ob das Bild von der Zensur genehmigt wurde oder nicht. Es gibt auch Markierungen, die offenbaren, wohin das Bild für Veröffentlichung geschickt wurde. Weiter gibt es öfters auch propagandistische Bildtitel, die von der Zensurbehörde anhand der Hintergrundinformationen geschrieben wurden, und die sonst nirgends überliefert sind. Wenn man die Abzugsrückseiten auch scannen und ins Netz stellen würde, ließe sich das Archiv noch besser zu Forschungszwecken verwenden.

Hierbei ist aber anzumerken, dass das Archiv bereits jetzt eine wahre Goldgrube für Historiker ist. Wenn man bedenkt, dass die finnischen Kriegsfotografen keine reinen Propagandisten waren, sondern auch viel kulturgeschichtlich und volkskundlich wertvolles Material produziert haben, wird einem klar, dass die Verwendungszwecke des Fotoarchivs beinahe grenzenlos sind!

Quelle: http://nordichistoryblog.hypotheses.org/1585

Weiterlesen

Archivwesen: Digitale Archive und Bibliotheken. Neue Zugangsmöglichkeiten und Nutzungsqualitäten, hrsg. v. Hartmut Weber und Gerald Maier

http://www.landesarchiv-bw.de/web/47364 Zum Schutz der authentischen Quellenüberlieferung der Archive, vor allem aber um Unikate unabhängig vom Verwahrungsort und von Öffnungszeiten der Forschung und dem interessierten Bürger zugänglich zu machen, bietet sich digitale Technologie zunehmend als Problemlösung an. Liefert die Digitalisierung vom Zerfall bedrohter Archivalien und Bücher tatsächlich einen sicheren Langzeitspeicher, oder stellt sie vielmehr ein attraktives […]

Quelle: http://www.einsichten-online.de/2013/05/4402/

Weiterlesen

DHd-Blog: Online-Volltexte zu Johann Friedrich Blumenbach

Seit Juli 2012 stehen die Digitalisate fast aller Publikationen Blumenbachs über die online-Fassung der Blumenbach-Bibliographie (http://www.blumenbach-online.de/fileadmin/wikiuser/Daten_Digitalisierung/Bibliographie/Bibliographie.html) zur Verfügung, die im Rahmen des Projekts “Johann Friedrich Blumenbach – online” der Akademie der Wissenschaften zu Göttingen entstanden sind. Die Digitalisate sind als pdf-Dateien verfügbar und können direkt von der Bibliographie aus herunter geladen werden. Außerdem können inzwischen […]

Quelle: http://www.einsichten-online.de/2013/04/4056/

Weiterlesen