Open Peer Review – letzter Tag


Letzter Tag im Open Peer Review-Projekt “historyblogosphere. Bloggen in den Geschichtswissenschaften“, das gemeinsam mit Peter Haber derzeit bei Oldenbourg und wunderbar betreut von Julia Schreiner läuft. Nach den letzten Wochen mit Hochs und Tiefs, manchmal langen Leerläufen und dann wieder intensiven Kommentier-Phasen kann man jetzt schon einige Lehren aus diesem Pilotprojekt ziehen. Dies ist nicht der Platz für die Details dazu, allerdings ist absehbar, dass wir künftig mit vielen veränderten Arbeitsweisen rechnen dürfen, wenn sich solche Review- und Publikationsprojekte etablieren. Die deutschsprachige Blogosphäre spielt hier wohl nur eine untergeordnete Rolle, doch neuerdings geänderte Förderrichtlinien der DFG und des FWF in punkto Open Access werden doch dazu beitragen, dass immer mehr Geschichtswissenschaft im Netz sichtbar wird.

Quelle: http://holocaustwebsites.hypotheses.org/103

Weiterlesen

Der veſte Buchſtab. Digitale Editionen, ihre Erstellung und Darbietung

  Am 29. und 30.  November 2012 fand in der Geschäftsstelle der Max Weber Stiftung das Arbeitstreffen „digital humanities. Wissenschaftliche Datenbanken und Editionsprojekte“ statt. Zwar gibt es gibt noch keinen Königsweg, der in diesem weiten Bereich zu allen Zielen führt. Umso wichtiger sind Übergangsmöglichkeiten von einem Weg zum anderen. Die Überlieferung von Worten ist das wertvollste Kulturgut überhaupt. Bauten und Bilder, Geschmeide, Melodien und Maschinen können uns nützen, uns freuen, uns staunen und schaudern lassen ‒ aber sie reden nie so zu uns wie Worte, von Mensch zu Mensch. Kein Wunder, dass wir gerade auch dieser Überlieferung digitale Dauer zu geben bestrebt sind, kein Wunder aber auch, dass bei der Ausführung des Vorhabens Schwierigkeiten begegnen. Lösungen solcher Schwierigkeiten war das Arbeitstreffen gewidmet, freilich mit Schwerpunktsetzung: Es ging um schriftliche Überlieferung und das Eingeben, Abspeichern, Aufbereiten und Anzeigen von zugehörigen Metadaten (im weiteren Sinn verstanden, worunter auch schon das Transkript zu einer Abbildung fällt). Und es war wirklich fesselnd zu sehen, wie vielfältige und ausgefeilte Lösungsansätze vorgestellt, gelegentlich auch ‒ freundlich und erfreulich lebhaft ‒ gegenübergestellt wurden und wie sie einander ergänzen oder befruchten konnten.   Aus einer Hölderlinhandschrift mit der im Titel angeführten Stelle. Die Transkription (d oder D oder …?) ist ein primär philologisches, nur sekundär technisches Problem. Dazu unten etwas. (Quelle: Württembergische Landesbibliothek Stuttgart: Hs. Homburg.G,2-7: Blatt 6v: Zeile 6. http://digital.wlb-stuttgart.de/purl/bsz346526833. Lizenz CC BY-NC-ND.) FuD, vertreten von Marina Lemaire und Gisela Minn vom Trierer Kompetenzzentrum, zeigte sich als System mit einem erprobten Kern und einer Vielzahl von entwickelten oder in Entwicklung befindlichen Schnittstellen, um so gut wie alle Editionsschritte zu unterstützen ‒ von der kollaborativen Erfassung in einer MySQL-Datenbank der Uni Trier bis zur Veröffentlichung im Netz oder Druck ‒, aber auch den Wechsel hin zu anderen Systemen anbieten zu können. So gab Sebastian Felten vom DHI London einen interessanten Einblick ins Projekt „Pauper Letters and Petitions for Poor Relief in Germany and Great Britain, 1770 – 1914“ und wie dort sowohl FuD als auch das ‒ noch zu erwähnende ‒ DENQ zusammen genutzt werden, das eine zur Eingabe, das andere zur Anzeige im Netz. BASYS-Invenio, vorgestellt von Thekla Kleinschmidt und Branimir Kolev vom Bundesarchiv, wurde und wird auf der Grundlage von Islandora entwickelt, um Archivalien in einem riesigen Gesamtbestand von einigen hundert Terabytes rasch finden und anzeigen zu können. Eingebaut ist eine sehr lesefreundliche Anzeige in Gestalt des Internet-Archive-Viewers, zudem mit einer maschinellen Texterkennung über Tesseract, was eine Suche im Text der jeweils angezeigten Abbildung ermöglicht. Bei den meisten Bundesarchivalien, gedruckt im 20. bis 21. Jahrhundert, zeitigt eine maschinelle Texterkennung gute Ergebnisse. Peter Stadler stellte die Carl-Maria-von-Weber-Gesamtausgabe vor, die in bewunderungswürdig konsequenter und harmonischer Verbindung von philologischen Kardinaltugenden und modernen XML-Techniken erarbeitet wird: Mit Gründlichkeit und Genauigkeit und der echt philologischen Liebe zum Wort wird aus der sichtbaren Überlieferung, dem Bild, ein lesbarer, und zwar maschinenlesbarer Text, der bis zur Anzahl der Striche bei Unterstreichungen alles von der Überlieferung aufhebt, was irgendwie sinnunterscheidend sein könnte. Ruth und Borries von dem Bussche vom Düsseldorfer Unternehmen Fafalter skizzierten dagegen eine Lösung auf der Grundlage von HTML5, das mit RDF-Annotation angereichert wird ‒ eine Verbindung von Sinn- und Gestaltebene, die früher gemieden wurde, jetzt aber im Verlagswesen und überhaupt im geschäftlichen Umfeld mehr und mehr Anklang findet. Auch, um Netzseiten mit mehr maschinenlesbarem Inhalt im Sinne des „semantic web“ zu erstellen, ist HTML5 mit RDF-Anzeichnung die fortgeschrittenste Lösung. Charlotte Schubert von der Universität Leipzig führte eAQUA vor und machte anhand von Beispielen aus ihrer eigenen Forschung deutlich, welchen außerordentlichen Nutzen ein Korpus von diesem Umfang und Lemmatisierungsgrad, zudem versehen mit den Anzeigemöglichkeiten der Kookkurrenzanalyse und der raumzeitlichen Belegverteilung haben kann. Torsten Schrade von der Digitalen Akademie Mainz stellte einen editorischen Arbeitsablauf vor, der von Ausgangsdokumenten in verschiedenen (und nicht immer günstigen) Formaten hin zum Content-Management-System Typo3 führt. Eine besondere Herausforderung ist im Fall des Beispielprojektes „Medieval Ashkenaz“ die Mischung hebräischer und deutscher Teile, also links- und rechtsläufiger Schriftrichtung, was in besonders schweren Fällen mit einem Zusammenspiel aus weicher Auszeichnung (mit <span dir=”rtl”> … </span>) und harten Steuerzeichen (U+202B für ‘ab hier linksläufig’ und U+202A für ‘ab hier rechtsläufig’) gelöst wird. Die Steuerzeichen werden elegant über das CSS, nämlich über eine an die Anzeichnung dir gebundene content-Eigenschaft eingefügt. DENQ, vorgestellt von Jörg Hörnschemeyer (dem Entwickler) und Jan-Peter Grünewälder vom DHI Rom, ist ebenda entwickelt worden, also gleichsam innerhalb der Max Weber Stiftung. Ein Kernbestandteil ist die XML-Datenbank eXist. Gezeigt wurden eine Suche über mehrere Korpora, auch als Ähnlichkeitssuche auf der Grundlage des Lewenstein-Algorithmus, ferner die Anzeige von Belegen in räumlicher Verteilung, unterlegt mit einer geographischen Karte, sowie die Möglichkeit, die Abbildung eines Textes in Ausschnitte zu zerlegen, die im SVG-Format gespeichert und den je entsprechenden Textausschnitten zugeordnet werden können, was noch in Entwicklung ist. Es konnte aber bereits eine gerade für diese Aufgabe äußerst nützliche maschinelle Vorsegmentierung gezeigt werden, die schon erstaunlich gut war. Zur Dateneingabe sonst: In DENQ wurde oder wird für jedes gewünschte Format eine Überführung in eXist entwickelt. Unter anderem möglich ist die Nutzung eines vertrauten Editors wie Word, in dem dann über Formatvorlagen recht bequem eine semantische Auszeichnung bis auf die Ebene des Zeichens hinab vorgenommen werden kann. Es ist bewundernswert, wie viel Funktionalität und Flexibilität auf schmaler Personalbasis entwickelt und ermöglicht worden ist. TextGrid, vorgestellt von Oliver Schmid von der Technischen Universität Darmstadt, ist vielleicht das komplexeste der vertretenen Systeme und bietet einen zumal gemessen am Projektalter großen Umfang an Funktionen sowie Teilprogrammen, die modular entwickelt und vom Nutzer modular eingebunden werden können. Die Eingabeumgebung, TextGridLab, funktioniert als reines Java-Programm ohne Installation (wenn das Java-Runtime-Environment auf dem Rechner installiert ist, was ja meist zutrifft) und auch offline. Das TextGridRep wiederum dient sowohl der gemeinsamen Arbeit an derselben Datenbank, als auch der Langzeitarchivierung und der Veröffentlichung im Netz mit Suchmöglichkeiten. Zwei vielleicht miteinander zusammenhängende Eindrücke vom Arbeitstreffen: Erstens. Es gibt noch keinen Königsweg, der zu allen Zielen führt; umso wichtiger sind Übergangsmöglichkeiten von einem Weg zum anderen. Zweitens. Gerade als Austauschformat ist XML noch immer und bis auf weiteres „die reine Lehre“, wie Gregor Horstkemper von der Bayerischen Staatsbibliothek in seiner Moderation scherzte. Andererseits wurden hin und wieder die Unzulänglichkeiten von XML in den Randbereichen seiner Verwendung deutlich: Wann immer man Geltungsbereiche auszeichnen will, die unterbrochen sind oder einander überlappen, also nicht in die hierarchische Verschachtelung von XML-Dokumenten passen, muss man zu Behelfen greifen, von denen keiner der Standard ist ‒ die TEI-Richtlinien stellen mehrere gleichberechtigt nebeneinander. Und schlimmer: Um die Behelfslösung einzulesen, etwa bei Abfragen, muss man einen eigenen Parser schreiben (adé Standardkonformität) oder auf Reguläre Ausdrücke zurückgreifen (was sonst als blankes Versagen bei der XML-Verarbeitung gilt) oder XPointer verwenden, was noch kaum umgesetzt und überdies mit einem Patent belastet ist, das bei Sun lag, jetzt also bei Oracle liegen müsste (vgl. http://www.w3.org/TR/xptr-framework/, http://www.w3.org/2002/06/xptr_IPR_summary.html). Oracle hat bekanntlich schon wegen eines anderen von Sun geerbten Patentes einen Rechtsstreit begonnen. Dennoch: Stadler, Leiter der TEI-Interessengruppe „Correspondence“, hat XML mit pädagogischem Impetus hochgehalten: Geisteswissenschaftler sollen mit XML umgehen können, weil der Umgang mit Texten, Textstruktur und Textsemantik zum Kernbereich der Geisteswissenschaft gehört, weil die dabei anfallenden Entscheidungen auch nur der Fachwissenschaftler, kein hilfreich herbeieilender Techniker treffen kann und weil der Umgang mit XML auch gar nicht so schwierig ist wie die wirklich harten Probleme ‒ die sind bei einer Edition stets philologischer Natur. Wenn man von der XML-Frage verallgemeinernd absieht, wird der Impetus ein aufklärerischer: Es geht dann um den Ausgang des Geisteswissenschaftlers aus einer selbstverschuldeten Unmündigkeit, was Datenverarbeitung angeht. Besteht diese Unmündigkeit? Und ist sie selbstverschuldet ‒ aus denselben Ursachen, die Kants berühmter Aufsatz nennt? Hier liegt ein Problem, das unangenehmer ist als etwa das vergleichsweise harmlose Ansinnen, die Geisteswissenschaften im Social Web zu verankern. Dr. Stefan Müller ist Referent für Datenbanken in der Geschäftsstelle der Max Weber Stiftung in Bonn, Redaktion Perspectivia.  

Quelle: http://mws.hypotheses.org/1571

Weiterlesen

Nationalenzyklopädie versus Wikipedia – Norwegens Store Norske Leksikon: SNL.no


The Library: Encyclopedias, 1964
Flickr Commons, LSE Library (public domain)

Spätestens seit Anfang des neuen Jahrtausends kämpfen viele Verlage mit einbrechenden Verkaufszahlen ihrer Enzyklopädien und Lexika, wie zuletzt der Verlag Encyclopaedia Britannica, der 2010 aufgrund niedriger Nachfrage die letzte 32-bändige Ausgabe seines prestigeträchtigen Nachschlagewerks herausgegeben hat.

Druckausgabe des Store Norske Leksikon

Druckausgabe des Store Norske Leksikon

Auch in Norwegen kämpfte der durch die beiden größten Verlage des Landes, Aschehoug und Gyldendal, gegründete Kunnskapsforlaget mit sinkenden Umsätzen. 1978–1981 gab er die erste Ausgabe des Store Norske Leksikon [Großes Norwegisches Lexikon] heraus, das die beiden vorherigen großen Standardenzyklopädien Aschehougs konversasjonsleksikon und Gyldendals Store Konversasjonsleksikon vereinte. Die vierte Ausgabe von Store Norske Leksikon, die von 2005–2007 herausgegeben wurde, war bereits die letzte Printausgabe des Lexikons und wurde von einer kostenpflichtigen Online-Ausgabe  abgelöst. Doch auch die Online-Ausgabe erbrachte nicht die erhofften Gewinne, da sie in direkter Konkurrenz zum Enzyklopädiegiganten Wikipedia stand. 2010 kündigte Kunnskapsforlaget an, dass der Betrieb der Online-Version des Lexikons eingestellt werde, worauf eine Debatte über die Zukunft der ›norwegischen Nationalenzyklopädie‹ folgte. Ausgelöst wurde diese vor allem durch die Aussage der norwegischen Kulturministerin Anniken Huitfeldt, die sagte, sie halte es nicht für die Aufgabe des Staates, die Verantwortung für die Netzausgabe des Store Norske Leksikon zu übernehmen. In einem Interview mit dem norwegischen Fachblatt der Buchbranche Bok & Samfunn äußerte sie ferner: »Es braucht starke Argumente, damit der Staat sich an der Finanzierung eines nationalen Lexikons beteiligt. Eine solche Anfrage ist durch den Kunnskapsforlaget gekommen, und wir werden sie selbstverständlich genau abwägen, aber ich habe meine Zweifel daran, wie richtig das ist. Es wird um viel Geld gehen, und Netzlexika wie Wikipedia sind eine interessante Alternative. Ich bemerke, dass viele negativ gegenüber Wikipedia eingestellt sind, aber ich teile diese Auffassung nicht.«

Onlineversion des Store Norske Leksikon

Onlineversion des Store Norske Leksikon

Die humanistische Bildungsorganisation Fritt Ord [Freies Wort] und die Sparebankstiftelse DnB Nor übernahmen daraufhin das Lexikon und geben es seitdem in Zusammenarbeit mit den Universitäten, der norwegischen fachliterarischen Autorenvereinigung und der norwegischen Wissenschaftsakademie unter dem Projektnamen Norsk nettleksikon [Norwegisches Netzlexikon] heraus. SNL.no beinhaltet sowohl das Store Norske Leksikon als auch das Store Medisinske [Große Medizinische] und das Norsk Biografisk Leksikon [Norwegische Biografische Lexikon], alles drei fachliterarische Standardwerke. Die Zielsetzung des Projekts formuliert seine Redakteurin Ida Jackson wie folgt: »Das norwegische Netzlexikon arbeitet für Wissen für alle, ein freies Internet, digitale Bildung und Forschungsvermittlung auf gut Norwegisch.« Im Redaktionsblog des Lexikons, Lille Norske [Kleines Norwegisches], schreibt sie ferner: »Ein Lexikon ist kein Buch. Ein Lexikon ist keine Internetseite. Ein Lexikon ist Inhalt. Das Wichtige ist nicht schönes Papier oder ein Goldrücken. Das Wichtige sind nicht Teilen-Knöpfe zu Facebook und Twitter. Das Wichtige sind die Artikel, die Links zwischen den Kapiteln und die Metadaten zu den Artikeln. Es sind die Texte.«

An der hier nur kurz skizzierten Debatte um Store Norske Leksikon zeigen sich grundlegende Legitimationsprobleme der traditionsreichen Lexika und Enzyklopädien im Zeitalter von Wikipedia und Google. Gerade für eine solch kleine Nation wie Norwegen scheint der sich anbahnende Verlust der Nationalenzyklopädie so schmerzhaft zu sein, dass sogar nicht-staatliche Organisationen enorme Summen in die Hand nehmen – laut Aftenposten investierten Fritt Ord und Sparebankstiftelsen DnB Nor je 15 Millionen Kronen ins Lexikon –, um nicht vollkommen von einer ›Weltenzyklopädie‹ wie Wikipedia überschattet zu werden.

Funktionen von snl.no

Funktionen von snl.no

Neben der symbolischen Bedeutung des Lexikons ist es jedoch vor allem die Frage nach inhaltlicher Qualität, die die norwegische Debatte anfeuerte und die ähnliche Debatten außerhalb Norwegens bereits leitete und leiten wird; wie auch in Deutschland, wo die Brockhaus-Enzyklopädie vor ähnlichen Schwierigkeiten steht. Store Norske Leksikon und damit auch SNL.no ist im Gegensatz zu Wikipedia eine Primärquelle, aus der mit Angabe eines Autors zitiert werden kann und die durchweg ›echte‹ Literaturangaben enthält. Wikipedia hingegen wird kontinuierlich – und kostenlos – aktualisiert. Hierin liegt der wohl größte Vorsprung von Wikipedia vor SNL.no, den die norwegische Redaktion jedoch in zweierlei Hinsicht einholen will. Zum Einen sollen viele neue Akademiker für die Online-Publikationen des Store Norske Leksikon gewonnen werden: »Akademiker, Forscher und Fachautoren sollen lernen, dass das Netz ein Teil der Öffentlichkeit ist, kein Schimmelpilz hinter dem Sofa«, wirbt Ida Jackson. Zum Anderen bietet SNL.no die Möglichkeit, nach einer Registrierung Änderungsvorschläge und Aktualisierungen abzugeben – ähnlich wie bei Wikipedia –, die jedoch von einem der 300 Fachexperten und nicht nur per ›Schwarmintelligenz‹ redigiert werden. Genau in diesem Punkt liegt die eigentliche Innovation des internetbasierten Lexikons SNL.no. Es stellt nicht nur eine fundierte und qualitätsgesicherte Quelle für u.a. Schüler, Studenten und Wissenschaftler dar, es versucht zudem das Renommee eines traditionsreichen Nachschlagewerkes auf eine moderne Publikationsform zu übertragen und rüttelt an alten, behäbigen Verhaltensweisen einer Wissenschaftswelt ›von gestern‹. Die Hauptredakteurin von Store Norske Leksikon kündigt deshalb in einem Interview mit Aftenposten an: »Du wirst sehen können, ob ein emeritierter Professor wirklich an der Diskussion teilnimmt. Früher konnte man sich hinter einer lebenslaufbasierten Autorität verstecken. Aber das, was im Netz Legitimität verleiht, ist Handlung. Fachverantwortliche, die nicht antworten oder mehr als drei Tage brauchen, um zu antworten oder Anwesenheit zu zeigen, wollen wir immer los werden. Diejenigen, die sich so aufführen, wollen wir einfach nicht haben.«

Letztendlich ist der Fortbestand des kostenlosen SNL.no jedoch weiterhin von der Finanzierung abhängig und es bleibt zu hoffen, dass die derzeitige Kulturministerin Hadia Tajik sich mehr für das norwegische Online-Nachschlagewerk einsetzt als es ihre Vorgängerin getan hat und die Verantwortung für die Unterstützung eines so löblichen Bildungsprojekts auch beim Staat sieht.

Quelle: http://nordichistoryblog.hypotheses.org/1115

Weiterlesen

mediaevum.net: Hochschulschriften-Service der Universitätsbibliothek Wien

othes.univie.ac.at Frei zugängliche und im Volltext recherchierbare Qualifikationsarbeiten als Online-Veröffentlichungen der UB Wien. Ausgestattet mit üblichen Metadaten und persistenten URLs. Zum Bestand aus den Bereichen Geschichte und Kirchengeschichte: Kirchengeschichte, Dogmengeschichte Frühes Christentum Mittelalterliches Christentum Byzantinisches Reich Fränkisches Reich Frühes Mittelalter Hoch- und Spätmittelalter Unveränd. Zweitpubl. v. http://www.mediaevum.leilabargmann.de [28.01.2012]

Quelle: http://www.einsichten-online.de/2012/11/3626/

Weiterlesen

Open Access, Author-Fees und Impact

What authors want from open access publishing: Wiley author survey, 2012 from Wiley Science Newsroom Wiley hat seine Autoren zu Erfahrungen mit Open Access Publishing befragt. Knapp über 10'00 haben geantwortet und die Ergebnisse ... 1/3 hat bereits Open Access publiziert - immerhin. Fast 80% glauben, dass Open Access an Bedeutung gewinnt. Mehr als 1/4 der befragten gab an, dass sie aus

Quelle: http://geschichtsweberei.blogspot.com/2012/11/open-access-author-fees-und-impact.html

Weiterlesen

Wie man Nachwuchsförderung schlecht reden kann. Eine Replik auf Janina Reibold

  Ein Haar in der Suppe findet man immer. Aber was, wenn es ganze Haarbüschel sind? In der Frankfurter Allgemeinen Zeitung vom 31.10. lässt Janina Reibold kein gutes Haar an der Doktorandenwoche der Heidelberger Graduiertenakademie (“Bücher? Dass er nicht lacht! Ein kalifornischer Beratungsvortrag in Heidelberg”, leider nicht online, S. N3). Nach der Lektüre muss man davon ausgehen, dass deren Bemühungen vor allem einen Schwall an Anglizismen mit sich bringen. Die taugen dann prompt alle nichts, ganz egal ob sie “career service” oder “open access” heißen. Janina Reibold lässt ihrer Abneigung hier mit galoppierenden Anführungszeichen freien Lauf. Besonders hart trifft es die, nun ja, keynote lecture von John Willinsky. Hier hoffte Reibold offenbar auf Steve Jobs, fand aber nur einen Evangelisten der frohen Botschaften des Internets vor. Hinsichtlich ihrer eigenen Dissertation zum Aufklärer Johann Georg Hamann kann sie sich nur merklich schwer vorstellen, dass diese durch eine online vernetzte Wissenschaftsgemeinde verbessert werden könnte. Aber was spricht denn dagegen, wenn das Wissen den Gutenberg-Galaxis ins Internet hinüber reicht und hier im Übrigen in neuer Form auch bewahrt werden kann? Und mitnichten ist die Open-Access-Variante eines wissenschaftlichen Texts auch schon kommentierbar und verbesserbar. Die ersten Open Peer Review-Projekte, wie etwa historyblogosphere, kommen ja in Deutschland jetzt erst auf den Weg. Ganz davon abgesehen, dass hierzulande (fast) immer noch keine anerkannten Lösungen für frei zugängliches Wissen existieren, die sowohl das gedruckte Buch als auch die Onlinepräsenz des Geschriebenen umfassen. Ein deutsches aopen fehlt noch. Vermutlich wird man sich in Heidelberg sehr über den sichtlich undankbaren Text von Janina Reibold ärgern. Manch sinnvolle Kritik findet eher Gehör, wenn sie in halbwegs konziliantem und sachbezogenem Ton vorgetragen wird (das man so was als Blogger über einen FAZ-Geisteswissenschaften-Artikel schreiben muss!). Aber viel deprimierender scheint mir noch zu sein, dass mit galoppierenden Anführungszeichen alles halbwegs Zukunftsorientierte in Bausch und Bogen verworfen wird. Gut, dass kann bei der FAZ schon einmal passieren. Aber wo kommen wir denn hin, wenn der Nachwuchs sich angeekelt von den Förderstrukturen abwendet? Wer nur Haarbüschel – englisch floccus, tuft of hair, wisp – in der Suppe finden mag, muss auch nicht neu denken.    

Quelle: http://gab.hypotheses.org/392

Weiterlesen

Open Access Week 2012 – L’avenir de la communication scientifique

Les débats sur l'Open Access sont une sorte de boule de cristal dans laquelle l'observateur attentif peut lire l'avenir de la publication académique. Ou du moins il peut essayer d'en distinguer les contours, et d'examiner les scénarios du possible.

Car les discussions autours de l'Open Access sont particulièrement intéressantes. Elle se situent à l'intersection de nombreux domaines, notamment ceux de l'édition scientifique, des politiques de soutien à la recherche, de la communication scientifique, de la construction de l'autorité académique, des politiques documentaires, etc.

Weiterlesen

Quelle: http://www.infoclio.ch/de/node/27982

Weiterlesen

Die ersten elf Bände der Pariser Historische Studien online verfügbar

Wie im Juni angekündigt, beginnt nun die Online-Stellung der seit 1962 im DHIP erscheinende Reihe »Pariser Historischen Studien« (PHS). Die digitalen Ausgaben der PSH erscheinen als pdf auf der Publikationsplattform der Max Weber Stiftung perspectivia.net im Open Access. Alle bisher erschienen Bände werden nach und nach in einem Rhythmus von circa 10 Bänden pro Monat retrodigitalisiert. Neuerscheinungen werden mit einer moving wall von 36 Monaten eingestellt. Bereits verfügbar sind die Bände 90, 93, 89, 86–87 sowie 81–83 (siehe unten). Im Katalog der Bibliothek des DHIP werden die Links in den einzelnen Titelaufnahmen der Bücher und Aufsätze angegeben:

V. Nies, »Apaisement« in Asien. Frankreich und der Fernostkonflikt 1937–1940
Volker Nies: »Apaisement« in Asien. Frankreich und der Fernostkonflikt 1937–1940, München (Oldenbourg) 2009 (Pariser Historische Studien, 93), ISBN 978-3-486-59012-8.
S. Schmidt, Frankreichs Außenpolitik in der Julikrise 1914. Ein Beitrag zur Geschichte des Ausbruchs des Ersten Weltkrieges
Stefan Schmidt: Frankreichs Außenpolitik in der Julikrise 1914. Ein Beitrag zur Geschichte des Ausbruchs des Ersten Weltkrieges, München (Oldenbourg) 2009 (Pariser Historische Studien, 90), ISBN 978-3-486-59016-6.
U. Pfeil (Hg.), Die Rückkehr der deutschen Geschichtswissenschaft in die »Ökumene der Historiker«
Ulrich Pfeil (Hg.): Die Rückkehr der deutschen Geschichtswissenschaft in die »Ökumene der Historiker«. Ein wissenschaftsgeschichtlicher Ansatz, München (Oldenbourg) 2008 (Pariser Historische Studien, 89), ISBN 978-3-486-58795-1.
P. Depreux (Hg.), Revolte und Sozialstatus von der Spätantike bis zur Frühen Neuzeit/Révolte et statut social de l’Antiquité tardive aux Temps modernes
Philippe Depreux (Hg.): Revolte und Sozialstatus von der Spätantike bis zur Frühen Neuzeit/Révolte et statut social de l’Antiquité tardive aux Temps modernes, München (Oldenbourg) 2008 (Pariser Historische Studien, 87), ISBN 978-3-486-58584-1.
U. Pfeil (Hg.), Das Deutsche Historische Institut Paris und seine Gründungsväter
Ulrich Pfeil (Hg.): Das Deutsche Historische Institut Paris und seine Gründungsväter. Ein personengeschichtlicher Ansatz. Mit einem Vorwort von Stefan Martens, München (Oldenbourg) 2007 (Pariser Historische Studien, 86), ISBN 978-3-486-58519-3.
B. Severin-Barboutie, Französische Herrschaftspolitik und Modernisierung. Verwaltungs- und Verfassungsreformen im Großherzogtum Berg (1806–1813)
Bettina Severin-Barboutie: Französische Herrschaftspolitik und Modernisierung. Verwaltungs- und Verfassungsreformen im Großherzogtum Berg (1806–1813), München (Oldenbourg) 2008 (Pariser Historische Studien, 85), ISBN 978-3-486-58294-1.
K. Fuchs, Zeichen und Wunder bei Guibert de Nogent. Kommunikation, Deutungen und Funktionalisierungen von Wundererzählungen im 12. Jahrhundert
Karin Fuchs: Zeichen und Wunder bei Guibert de Nogent. Kommunikation, Deutungen und Funktionalisierungen von Wundererzählungen im 12. Jahrhundert, München (Oldenbourg) 2008 (Pariser Historische Studien, 84), ISBN 978-3-486-58292-5.
S. Weiß (Hg.), Regnum et Imperium. Die französisch-deutschen Beziehungen im 14. und 15. Jahrhundert/Les relations franco-allemandes au XIVe et au XVe siècle
Stefan Weiß (Hg.): Regnum et Imperium. Die französisch-deutschen Beziehungen im 14. und 15. Jahrhundert/Les relations franco-allemandes au XIVe et au XVe siècle, München (Oldenbourg) 2008 (Pariser Historische Studien, 83), ISBN 978-3-486-58179-9.
G. Braun, S. Lachenicht (Hg.), Hugenotten und deutsche Territorialstaaten. Immigrationspolitik und Integrationsprozesse/Les États allemands et les huguenots. Politique d’immigration et processus d’intégration
Guido Braun, Susanne Lachenicht (Hg.): Hugenotten und deutsche Territorialstaaten. Immigrationspolitik und Integrationsprozesse/Les États allemands et les huguenots. Politique d’immigration et processus d’intégration, München (Oldenbourg) 2007 (Pariser Historische Studien, 82), ISBN 978-3-486-58181-3.
U. Pfeil (Hg.), Deutsch-französische Kultur- und Wissenschaftsbeziehungen im 20. Jahrhundert
Ulrich Pfeil (Hg.): Deutsch-französische Kultur- und Wissenschaftsbeziehungen im 20. Jahrhundert. Ein institutionengeschichtlicher Ansatz, München (Oldenbourg) 2007 (Pariser Historische Studien, 81), ISBN 978-3-486-58180-5.
R. Lützelschwab, Flectat cardinales ad velle suum? Clemens VI. und sein Kardinalskolleg. Ein Beitrag zur kurialen Politik in der Mitte des 14. Jahrhunderts
Ralf Lützelschwab: Flectat cardinales ad velle suum? Clemens VI. und sein Kardinalskolleg. Ein Beitrag zur kurialen Politik in der Mitte des 14. Jahrhunderts, München (Oldenbourg) 2007 (Pariser Historische Studien, 80), ISBN 978-3-486-58094-5.
Artikelaktionen

Quelle: http://dhdhi.hypotheses.org/1290

Weiterlesen

Versuchen Sie es doch erstmal mit einem Blog …

Auf die Frage, weshalb man (wissenschaftlich) bloggen soll, gibt es viele Antworten. Eine davon – eine, die regelmäßig auftaucht – bringt mich regelmäßig zum Grübeln, weshalb ich sie hier aufgreifen will. Das Argument nämlich, dass Bloggen eine gute „Schreibübung“ gerade etwa für Nachwuchswissenschaftler sei. Sozusagen ein Experimentierfeld, eine Übung, die der Lockerung von Zunge und Finger und dem Abbau von Schreibblockaden dient.

Dasselbe Argument ließe sich auf recensio.net und das dort angebotene Konzept der „Präsentationen“ übertragen, die im Verbund mit Kommentaren eine Art „lebendige Rezension“ bilden sollen. Auch hier könnte man sagen: „Liebe Leute, übt erstmal per Kommentar zu einem Kapitel, bevor Ihr irgendwann eine „echte“ Rezension über ein ganzes Buch schreibt“.

Einerseits freue ich mich über jeden neuen Wissenschaftsblogger und mindestens ebenso sehr über jeden, der – egal aus welchem Grund – den (kommunikativen, methodischen usw.) Mehrwert partikularen Rezensierens erprobt. Andererseits aber heißt das in der Konsequenz, dass ein Blogpost der kleine, ungewaschene Bruder des Aufsatzes und der Kommentar die rotznäsige Schwester der Rezension ist. Und wenn dieser Eindruck sich durchsetzt, stellt sich das Medium selbst ein Bein. Dann sind wir ganz schnell bei jenem Geist, den die Open-Access-Bewegung seit Jahren verzweifelt in die Flasche zurückzuargumentieren versucht: Das „Medium Internet“ – das es nie gab – ist eine gute Sache für all jene Texte, die nicht ausgereift und nicht fundiert genug sind, um es auf Papier zu schaffen.

Es ist unvermeidbar, dass dieser Eindruck in jener Phase des Übergangs entsteht, die vom Nebeneinander alter Wertekriterien (Etabliertheit von Verlagen und Redaktionen als Gatekeeper) und der Erprobung neuer Qualitätssicherungsprozesse geprägt ist. Da landen die weniger guten Qualifikationsschriften ungefiltert in universitären Repositorien, während die anderen vom (bröckelnden) Ruhm alter Verlagszeiten profitieren – und dazwischen noch keine stabilen, etablierten Angebote vorliegen.

Das Argument, dass Online-Publikationen zwar tendenziell minderen Werts seien, zum Schutz der Wälder und als Ort studentischer Fingerübungen dagegen ganz brauchbar, sollten wir nicht unnötig befeuern. Vielmehr gilt es, jene durch die Existenz des Internets geborenen neuen Textgenres als solche zu definieren und ihre eigene Identität zu stärken. Ein Blogpost erfüllt (in der Regel) andere Zwecke als ein Aufsatz. Wer wissenschaftlich bloggt, sollte (in der Regel) einen anderen Schreibstil pflegen als derjenige, der einen wissenschaftlichen Aufsatz formuliert. Das Blogpost fordert von seinem Autor einen anderen Umgang ein als es ein Aufsatz tut: Einmal publiziert darf der eine von beiden ruhen, der andere sollte das nach Möglichkeit nicht, weil er auf Dialog hin formuliert wird. Die Liste ließe sich fortsetzen – und sogar ließe sich umgekehrt fragen, was denn der Aufsatz kann, das in einem zeitschriftenähnlichen Spezialblog nicht machbar wäre – aber hier empfiehlt es sich wohl, den zweiten Schritt nicht vor dem ersten zu tun.
Und all das ist problemlos auf die Rezensionen-Kommentare-Frage übertragbar. Stoff für Panel 1 und 3!

Quelle: http://rkb.hypotheses.org/267

Weiterlesen