Dossier zu Geistes-, Kultur- und Sozialwissenschaften

Das Bundesministerium für Bildung und Forschung hat auf seiner Website ein neues Dossier zu Geistes-, Kultur- und Sozialwissenschaften veröffentlicht, in dem verschiedene Initiativen und “Freiräume für die Forschung” im aktuellen Förderprogramm vorgestellt werden.

BMBF-Dossier zu Geistes- Kultur- und Sozielwissenschaften

Was uns ganz besonders freut: der von TextGrid produzierte Kurzfilm “Virtuelle Forschungswelten: Neue Technologien in den Geisteswissenschaften” (vgl. Blog: Digital Humanities: The Movie) kommt hier mal wieder zu Ehren und ist prominent ganz oben auf der Seite platziert.

Auch die englische Version des Videos ist künftig über die BMBF-Subhomepage „Academia“ abrufbar: http://www.bmbf.de/en/14585.php

 

Quelle: http://dhd-blog.org/?p=2001

Weiterlesen

Website des TextGrid-Vereins geht online

Der TextGrid-Verein e.V. (in Gründung) ist jetzt über eine eigene Internet-Präsenz erreichbar. Unter www.textgrid-verein.de finden sich Informationen zu Vereinszweck, Mitgliedern und Satzung sowie Ansprechpartner.

Website des TextGrid-Vereins e.V. i. Gr.

Der Verein TextGrid e.V. dient der persistenten Sicherstellung des fachwissenschaftlich nachhaltigen Gebrauchs der Angebote der TextGrid-VFU in einer heterogenen Community wissenschaftlicher Nutzerinnen und Nutzer. Der Verein unterstützt die inhaltliche Arbeit des Projekts durch Kommunikation von Mehrwert und Nutzen von TextGrid in der Wissenschaft.

Quelle: http://dhd-blog.org/?p=1903

Weiterlesen

TextGrid-Nutzertreffen: Edieren mit TextGrid

Am 21. und 22. Juni 2013 findet an der Akademie der Wissenschaften und der Literatur in Mainz das nächste TextGrid-Nutzertreffen statt. Der Schwerpunkt dieses Treffens wird das Edieren mit XML in TextGrid sein. Neben einer Einführung zum aktuellen Stand des Projektes werden in Workshops Grundlagen zum Arbeiten mit TextGrid sowie zum Edieren gemäß TEI und MEI vermittelt. Es werden Projekte vorgestellt, die mit TextGrid arbeiten. Auch besteht die Möglichkeit, eigene Projekte, die mit TextGrid in Verbindung stehen, im TextGrid-Café mit einem Poster vorzustellen. Es wird gebeten, sich über das Formular auf

http://www.textgrid.de/community/nutzertreffen-2013/

bis zum 31. Mai anzumelden. Dort finden sich auch weitergehende Informationen.

Progamm am 21. Juni 2013

11:00-11:45: Begrüßung

11:45-12:15: TextGrid: Der aktuelle Stand

12:30-15:30: Projektvorstellungen

16:00-18:00: Workshop „Projektarbeit mit TextGrid“

Programm am 22. Juni 2013

10:00-13:00: Workshop „Einführung in das Edieren mit XML“

10:00-13:00: Workshop „Digitale Musikedition“

14:00-15:00: Abschlussdiskussion

ab 15:00: TextGrid-Café mit Posterpräsentationen

Ankündigungen zu den Workshops

Projektarbeit mit TextGrid

Der Workshop macht mit den grundlegenden Funktionen des TextGrid Laboratories und seiner Oberfläche vertraut. Dabei werden typische Arbeitsabläufe und Fragen behandelt:

  1. Wie werden Projekte angelegt und verwaltet?
  2. Wie vergibt man Rechte an andere Mitarbeiter?
  3. Wie importiere und wie exportiere ich meine Daten?
  4. Wie arbeitet man mit Revisionen?
  5. Was gibt es für TextGrid Objekte und wie verwalte ich sie?
  6. Wie kann ich meine Ergebnisse publizieren?

Einführung in das Edieren mit XML

In der Schulung werden anhand eines konkreten Beispiels einige Grundlagen zum editorischen Arbeiten mit XML nach den Richtlinien der Text Encoding Initiative (TEI) erläutert und geübt. Dabei sollen folgende Fragen behandelt werden:

  1.  Wie kann ich mir die Arbeit mit XML gemäß TEI erleichtern?
  2.  Welche Möglichkeiten gibt es, Texte zu transkribieren und wie kann ich meine Transkription strukturieren?
  3. Wie lassen sich editorische Eingriffe vornehmen und dokumentieren?
  4. Wie lassen sich Schreibprozesse darstellen?
  5. Wie kann ich einen kritischen Apparat erstellen?

Für die Übungen müssen eigene Rechner mitgebracht werden sowie TextGrid und TextGrid-Konten eingerichtet sein. Erste Erfahrungen mit XML sind von Vorteil, aber keine Voraussetzung.

Digitale Musikedition – Einführung in MEI, den MEI Score Editor und die Edirom Tools

Dieser Workshop bietet einen Einblick in grundlegende Arbeitsweisen und entsprechende Software-Werkzeuge für den Bereich der digitalen Musikedition. Dabei steht nicht nur die digitale Publikation, sondern auch die digital unterstützte Editionsarbeit im Mittelpunkt. Zunächst wird das XML-basierte Kodierungsformat MEI vorgestellt, mit dessen Hilfe sich vielfältige Möglichkeiten der Erfassung von Metadaten, kodierter Notentexte und editorischen Annotationen eröffnen. Um die zunächst textlastige Arbeit mit MEI-Daten zu vereinfachen, existiert mit dem MEI Score Editor (MEISE) ein Werkzeug, um in MEI kodierte Notentexte entsprechend bearbeiten und visualisieren zu können. Im Idealfall bilden diese Daten die Grundlage für weitergehende Arbeiten mit den Notentexten, digitalen Quellenfaksimiles und dem Kritischen Apparat, bis hin zur Publikation. Dazu werden die darauf spezialisierten Edirom Tools vorgestellt, die im Rahmen des BMBF-Projekts Freischütz-Digital auch an TextGrid angebunden und dann dort mit zur Verfügung stehen werden. Der Workshop richtet sich hauptsächlich an Personen, die wenig oder keine Erfahrung mit MEI und den genannten Werkzeugen haben. Die Inhalte des Workshops sollen an kleinen Praxisbeispielen jeweils selbst nachvollzogen werden können, weshalb um das Mitbringen eigener Rechner gebeten wird.

Quelle: http://dhd-blog.org/?p=1685

Weiterlesen

Von Lichtenberg zu Voyant und TextGrid und zurück

Geoffrey Rockwell, TAPoR-Gründer und Professor der Philosophie und Humanities Computing an der kanadischen University of Alberta, bloggt auf theoreti.ca erfreut zu unserem DH-Film “Virtual Research Worlds: New Technologies in the Humanities”, in den wir ja einige Anwendungen des von ihm mitentwickelten Tools Voyant eingebaut hatten. Und auch der gute Lichtenberg schafft es auf diese Weise von seiner Bank im Hof des Historischen SUB-Gebäudes zu Göttingen in Rockwells Blog zu multimedia, electronic texts, and computer games:

http://theoreti.ca/?p=4648#more-4648

Der Film auf deutsch ebenfalls bei YouTube: “Virtuelle Forschungswelten: Neue Technologien in den Geisteswissenschaften”

Quelle: http://dhd-blog.org/?p=1352

Weiterlesen

Tagung: Digitale Rekonstruktionen mittelalterlicher Bibliotheken

Bei der Tagung „Digitale Rekonstruktionen mittelalterlicher Bibliotheken“ werden verschiedene Projekte vorgestellt, deren Ziel es ist, Bestände mittelalterlicher Bibliotheken, die heute weltweit zerstreut sein können, digital zusammenzuführen und zu erschließen. Auch werden Möglichkeiten aufgezeigt, diese Bestände wissenschaftlich zu nutzen und die vorhandenen Daten und Metadaten in übergreifende Portale einzuspeisen. Schließlich sollen die Anforderungen diskutiert werden, die aktuelle Arbeiten aus der Sprach- und Literaturwissenschaft, der Kunstgeschichte und der Musikwissenschaft an solche digitalen Rekonstruktionen stellen. Veranstalter: Universität Trier, Historisch-Kulturwissenschaftliches Forschungszentrum Trier, Technische Universität Darmstadt, Stadtbibliothek/Stadtarchiv Trier Datum: [...]

Quelle: http://ordensgeschichte.hypotheses.org/1799

Weiterlesen

Der veſte Buchſtab. Digitale Editionen, ihre Erstellung und Darbietung

  Am 29. und 30.  November 2012 fand in der Geschäftsstelle der Max Weber Stiftung das Arbeitstreffen „digital humanities. Wissenschaftliche Datenbanken und Editionsprojekte“ statt. Zwar gibt es gibt noch keinen Königsweg, der in diesem weiten Bereich zu allen Zielen führt. Umso wichtiger sind Übergangsmöglichkeiten von einem Weg zum anderen. Die Überlieferung von Worten ist das wertvollste Kulturgut überhaupt. Bauten und Bilder, Geschmeide, Melodien und Maschinen können uns nützen, uns freuen, uns staunen und schaudern lassen ‒ aber sie reden nie so zu uns wie Worte, von Mensch zu Mensch. Kein Wunder, dass wir gerade auch dieser Überlieferung digitale Dauer zu geben bestrebt sind, kein Wunder aber auch, dass bei der Ausführung des Vorhabens Schwierigkeiten begegnen. Lösungen solcher Schwierigkeiten war das Arbeitstreffen gewidmet, freilich mit Schwerpunktsetzung: Es ging um schriftliche Überlieferung und das Eingeben, Abspeichern, Aufbereiten und Anzeigen von zugehörigen Metadaten (im weiteren Sinn verstanden, worunter auch schon das Transkript zu einer Abbildung fällt). Und es war wirklich fesselnd zu sehen, wie vielfältige und ausgefeilte Lösungsansätze vorgestellt, gelegentlich auch ‒ freundlich und erfreulich lebhaft ‒ gegenübergestellt wurden und wie sie einander ergänzen oder befruchten konnten.   Aus einer Hölderlinhandschrift mit der im Titel angeführten Stelle. Die Transkription (d oder D oder …?) ist ein primär philologisches, nur sekundär technisches Problem. Dazu unten etwas. (Quelle: Württembergische Landesbibliothek Stuttgart: Hs. Homburg.G,2-7: Blatt 6v: Zeile 6. http://digital.wlb-stuttgart.de/purl/bsz346526833. Lizenz CC BY-NC-ND.) FuD, vertreten von Marina Lemaire und Gisela Minn vom Trierer Kompetenzzentrum, zeigte sich als System mit einem erprobten Kern und einer Vielzahl von entwickelten oder in Entwicklung befindlichen Schnittstellen, um so gut wie alle Editionsschritte zu unterstützen ‒ von der kollaborativen Erfassung in einer MySQL-Datenbank der Uni Trier bis zur Veröffentlichung im Netz oder Druck ‒, aber auch den Wechsel hin zu anderen Systemen anbieten zu können. So gab Sebastian Felten vom DHI London einen interessanten Einblick ins Projekt „Pauper Letters and Petitions for Poor Relief in Germany and Great Britain, 1770 – 1914“ und wie dort sowohl FuD als auch das ‒ noch zu erwähnende ‒ DENQ zusammen genutzt werden, das eine zur Eingabe, das andere zur Anzeige im Netz. BASYS-Invenio, vorgestellt von Thekla Kleinschmidt und Branimir Kolev vom Bundesarchiv, wurde und wird auf der Grundlage von Islandora entwickelt, um Archivalien in einem riesigen Gesamtbestand von einigen hundert Terabytes rasch finden und anzeigen zu können. Eingebaut ist eine sehr lesefreundliche Anzeige in Gestalt des Internet-Archive-Viewers, zudem mit einer maschinellen Texterkennung über Tesseract, was eine Suche im Text der jeweils angezeigten Abbildung ermöglicht. Bei den meisten Bundesarchivalien, gedruckt im 20. bis 21. Jahrhundert, zeitigt eine maschinelle Texterkennung gute Ergebnisse. Peter Stadler stellte die Carl-Maria-von-Weber-Gesamtausgabe vor, die in bewunderungswürdig konsequenter und harmonischer Verbindung von philologischen Kardinaltugenden und modernen XML-Techniken erarbeitet wird: Mit Gründlichkeit und Genauigkeit und der echt philologischen Liebe zum Wort wird aus der sichtbaren Überlieferung, dem Bild, ein lesbarer, und zwar maschinenlesbarer Text, der bis zur Anzahl der Striche bei Unterstreichungen alles von der Überlieferung aufhebt, was irgendwie sinnunterscheidend sein könnte. Ruth und Borries von dem Bussche vom Düsseldorfer Unternehmen Fafalter skizzierten dagegen eine Lösung auf der Grundlage von HTML5, das mit RDF-Annotation angereichert wird ‒ eine Verbindung von Sinn- und Gestaltebene, die früher gemieden wurde, jetzt aber im Verlagswesen und überhaupt im geschäftlichen Umfeld mehr und mehr Anklang findet. Auch, um Netzseiten mit mehr maschinenlesbarem Inhalt im Sinne des „semantic web“ zu erstellen, ist HTML5 mit RDF-Anzeichnung die fortgeschrittenste Lösung. Charlotte Schubert von der Universität Leipzig führte eAQUA vor und machte anhand von Beispielen aus ihrer eigenen Forschung deutlich, welchen außerordentlichen Nutzen ein Korpus von diesem Umfang und Lemmatisierungsgrad, zudem versehen mit den Anzeigemöglichkeiten der Kookkurrenzanalyse und der raumzeitlichen Belegverteilung haben kann. Torsten Schrade von der Digitalen Akademie Mainz stellte einen editorischen Arbeitsablauf vor, der von Ausgangsdokumenten in verschiedenen (und nicht immer günstigen) Formaten hin zum Content-Management-System Typo3 führt. Eine besondere Herausforderung ist im Fall des Beispielprojektes „Medieval Ashkenaz“ die Mischung hebräischer und deutscher Teile, also links- und rechtsläufiger Schriftrichtung, was in besonders schweren Fällen mit einem Zusammenspiel aus weicher Auszeichnung (mit <span dir=”rtl”> … </span>) und harten Steuerzeichen (U+202B für ‘ab hier linksläufig’ und U+202A für ‘ab hier rechtsläufig’) gelöst wird. Die Steuerzeichen werden elegant über das CSS, nämlich über eine an die Anzeichnung dir gebundene content-Eigenschaft eingefügt. DENQ, vorgestellt von Jörg Hörnschemeyer (dem Entwickler) und Jan-Peter Grünewälder vom DHI Rom, ist ebenda entwickelt worden, also gleichsam innerhalb der Max Weber Stiftung. Ein Kernbestandteil ist die XML-Datenbank eXist. Gezeigt wurden eine Suche über mehrere Korpora, auch als Ähnlichkeitssuche auf der Grundlage des Lewenstein-Algorithmus, ferner die Anzeige von Belegen in räumlicher Verteilung, unterlegt mit einer geographischen Karte, sowie die Möglichkeit, die Abbildung eines Textes in Ausschnitte zu zerlegen, die im SVG-Format gespeichert und den je entsprechenden Textausschnitten zugeordnet werden können, was noch in Entwicklung ist. Es konnte aber bereits eine gerade für diese Aufgabe äußerst nützliche maschinelle Vorsegmentierung gezeigt werden, die schon erstaunlich gut war. Zur Dateneingabe sonst: In DENQ wurde oder wird für jedes gewünschte Format eine Überführung in eXist entwickelt. Unter anderem möglich ist die Nutzung eines vertrauten Editors wie Word, in dem dann über Formatvorlagen recht bequem eine semantische Auszeichnung bis auf die Ebene des Zeichens hinab vorgenommen werden kann. Es ist bewundernswert, wie viel Funktionalität und Flexibilität auf schmaler Personalbasis entwickelt und ermöglicht worden ist. TextGrid, vorgestellt von Oliver Schmid von der Technischen Universität Darmstadt, ist vielleicht das komplexeste der vertretenen Systeme und bietet einen zumal gemessen am Projektalter großen Umfang an Funktionen sowie Teilprogrammen, die modular entwickelt und vom Nutzer modular eingebunden werden können. Die Eingabeumgebung, TextGridLab, funktioniert als reines Java-Programm ohne Installation (wenn das Java-Runtime-Environment auf dem Rechner installiert ist, was ja meist zutrifft) und auch offline. Das TextGridRep wiederum dient sowohl der gemeinsamen Arbeit an derselben Datenbank, als auch der Langzeitarchivierung und der Veröffentlichung im Netz mit Suchmöglichkeiten. Zwei vielleicht miteinander zusammenhängende Eindrücke vom Arbeitstreffen: Erstens. Es gibt noch keinen Königsweg, der zu allen Zielen führt; umso wichtiger sind Übergangsmöglichkeiten von einem Weg zum anderen. Zweitens. Gerade als Austauschformat ist XML noch immer und bis auf weiteres „die reine Lehre“, wie Gregor Horstkemper von der Bayerischen Staatsbibliothek in seiner Moderation scherzte. Andererseits wurden hin und wieder die Unzulänglichkeiten von XML in den Randbereichen seiner Verwendung deutlich: Wann immer man Geltungsbereiche auszeichnen will, die unterbrochen sind oder einander überlappen, also nicht in die hierarchische Verschachtelung von XML-Dokumenten passen, muss man zu Behelfen greifen, von denen keiner der Standard ist ‒ die TEI-Richtlinien stellen mehrere gleichberechtigt nebeneinander. Und schlimmer: Um die Behelfslösung einzulesen, etwa bei Abfragen, muss man einen eigenen Parser schreiben (adé Standardkonformität) oder auf Reguläre Ausdrücke zurückgreifen (was sonst als blankes Versagen bei der XML-Verarbeitung gilt) oder XPointer verwenden, was noch kaum umgesetzt und überdies mit einem Patent belastet ist, das bei Sun lag, jetzt also bei Oracle liegen müsste (vgl. http://www.w3.org/TR/xptr-framework/, http://www.w3.org/2002/06/xptr_IPR_summary.html). Oracle hat bekanntlich schon wegen eines anderen von Sun geerbten Patentes einen Rechtsstreit begonnen. Dennoch: Stadler, Leiter der TEI-Interessengruppe „Correspondence“, hat XML mit pädagogischem Impetus hochgehalten: Geisteswissenschaftler sollen mit XML umgehen können, weil der Umgang mit Texten, Textstruktur und Textsemantik zum Kernbereich der Geisteswissenschaft gehört, weil die dabei anfallenden Entscheidungen auch nur der Fachwissenschaftler, kein hilfreich herbeieilender Techniker treffen kann und weil der Umgang mit XML auch gar nicht so schwierig ist wie die wirklich harten Probleme ‒ die sind bei einer Edition stets philologischer Natur. Wenn man von der XML-Frage verallgemeinernd absieht, wird der Impetus ein aufklärerischer: Es geht dann um den Ausgang des Geisteswissenschaftlers aus einer selbstverschuldeten Unmündigkeit, was Datenverarbeitung angeht. Besteht diese Unmündigkeit? Und ist sie selbstverschuldet ‒ aus denselben Ursachen, die Kants berühmter Aufsatz nennt? Hier liegt ein Problem, das unangenehmer ist als etwa das vergleichsweise harmlose Ansinnen, die Geisteswissenschaften im Social Web zu verankern. Dr. Stefan Müller ist Referent für Datenbanken in der Geschäftsstelle der Max Weber Stiftung in Bonn, Redaktion Perspectivia.  

Quelle: http://mws.hypotheses.org/1571

Weiterlesen

Kombiniere: Analog und Digital – Virtuelle Forschungsumgebungen auf dem Schreibtisch

Am 4. und 5. September fand in Aachen ein Treffen von Vertretern des Projektes “Brain/Concept/Writing” der RWTH Aachen und Entwicklern des TextGrid-Projektes statt. Ziel des Treffens war eine Evaluation der Möglichkeiten einer Integration von TextGrid mit dem im Rahmen des Projektes “Brain/Concept/Writing” entwickelten Multitouch-Tisch.

Der Tisch bietet die Möglichkeit, die Arbeit mit Büchern einerseits und digitalen Inhalten andererseits auf innovative Art und Weise zu kombinieren. Konkret kann der Multitouch-Tisch physische Objekte wie aufgelegte Bücher erkennen und dazu passende weiterführende digitale Materialien einblenden [1]. Der Tisch verfügt mit 3240 x 1920 Pixeln über eine sehr hohe Auflösung, sodass auch Scans von Manuskripten und Typoskripten gut lesbar angezeigt werden können. Er reagiert auf Touch-Eingaben von beliebig vielen Benutzern gleichzeitig und kann mit speziellen Markern versehene Objekte erkennen und mit digitalen Inhalten anreichern. Eine Integration mit TextGrid ist interessant, weil diese Inhalte dann auch aus dem TextGrid-Repository stammen können. Auf dem Tisch erzeugte Annotationen oder Scans können wiederum in TextGrid abgelegt werden. So könnten Geisteswissenschaftler sich am Tisch bei TextGrid anmelden, ihre dortigen Projekte öffnen, neue Annotationen o.ä. erzeugen und wieder speichern. An einem anderen Arbeitsplatz wären die am Tisch erstellten Materialien dann auch verfügbar.

Bild des Aachener Multitouch-Tisch mit Tastatur, aufgelegtem Buch und digitalen Objekten

Der Aachener Multitouch-Tisch mit Tastatur, aufgelegtem Buch und digitalen Objekten

Bei dem Treffen konnte eine prototypische Anbindung des Tisches an das TextGrid-Repository entwickelt werden, die eine Grundlage für weitere Anwendungen legt. Konkret ist es nun möglich, im TextGrid liegende TEI-Dateien zu öffnen und als PDF-Dokument auf dem Tisch anzuzeigen. Im TEI enthaltene Links werden erkannt und die referenzierten Dokumente können ebenfalls per Touch abgerufen werden. Zudem ist es gelungen, Dokumente vom Tisch aus im TextGrid-Repository zu speichern.

Denkbare Anwendungen sind das Erzeugen von Text-Bild-Link- oder Text-Text-Link-Annotationen am Tisch, ebenso die Aufnahme von Buchseiten mit der über dem Tisch angebrachten Kamera. Die hierbei entstehenden Fotos könnten dann auch im TextGrid-Repository abgelegt werden.

Autoren: Christian Cherek, Stefan Funk, Roman Hausner, Ubbo Veentjer, Thorsten Vitt

[1] Hintergrundinformationen zum Multitouch-Tisch http://www.hbz-nrw.de/dokumentencenter/veroeffentlichungen/Tagung_Digitale_Wissenschaft.pdf, S. 45-50

Quelle: http://dhd-blog.org/?p=992

Weiterlesen

Forschungen zur Wissenschaftskommunikation aus linguistischer, historischer, soziologischer und philosophischer Perspektive

Nach drei anregenden thematisch fokussierten Tagungen hat sich am 5. und 6. September 2012 eine Arbeitsgruppe getroffen, um Projektideen und Forschungen zum Thema Wissenschaftskommunikation zu konkretisieren. Die Darmstädter Linguistin Nina Janich hat diesen Forschungsschwerpunkt initiiert und die Tagungen und Treffen gemeinsam mit ihrem Team organisiert und durchgeführt.

Unter dem Namen Scientific Communication Research (SciCoRe) sollen Forschungen zusammengeführt werden, die sich beispielsweise mit Wissensformen, mit Kommunikation innerhalb wissenschaftlicher Communities , aber auch mit nach außen gerichteten Vermittlungskulturen, Medien- und Textformaten beschäftigen (traditionelle und auch neue Formen wie bloggen und twittern). Fragen nach Auswirkungen von Datenaufbereitung wie Datenpräsentation, Virtualisierungen und Visualisierungen, die Tendenz zu Simulationen im Kontrast zu Evidenzbasierung werden ebenso diskutiert wie mediale Aspekte, sprachlich-diskursive Popularisierungsstrategien und politisch-historische Legitimationsprozesse. Dabei werden Unterschiede und Gemeinsamkeiten bei den geistes- und gesellschaftswissenschaftliche Disziplinen und den Experimental- und Technowissenschaften betrachtet und hinterfragt.
Die Gruppe setzt sich zusammen aus Soziologen, Philosophen, Historikern, Sprachwissenschaftlern und Digital Humanists. Obwohl es zunächst so schien, als seien unsere Forschungsinteressen stark divergierend und unsere Ausgangspunkte sehr unterschiedlich, stellen sich in den Gesprächen und Arbeitsgruppen rasch zahlreiche Überschneidungen, Vernetzungen und gemeinsame Fragestellungen heraus.

  • Selbstdarstellung im öffentlichen Diskurs
  • Veränderungen von Publikations- und Kommunikationskulturen in den Fachdisziplinen
  • Forschung zwischen Nichtwissen und Beratungsauftrag
  • Virtualisierung von Forschungsprozessen, Simulationen, Evidenzbasierung
  • Status u d Zuschreibungen von “Experten”, “Dilettanten” und “Laien”, deren jeweilige Performanz in unterschiedlichen medialen Kommunikationszusammenhängen
  • Fehler- und Irrtumskultur, Umgang mit vorläufigen Forschungsergebnissen, Zwischenergebnissen

Was mich besonders interessiert – aus sprachwissenschaftlicher wie Digital Humanities-Perspektive – sind gewiss die Fragen nach Virtualisierungen von Forschungsprozessen, da dieses Thema im Rahmen von TextGrid und Dariah zentral ist. Viele Dinge, die wir in diesem Kontext gewissermaßen aus der Praxis heraus täglich bearbeiten und diskutieren, sind bislang nicht systematisch beschrieben und erforscht. Wie die Entwicklungen der Humanities im Hinblick auf Digital Humanities nach innen in die eigene Community, in die “traditionellen” Fachcommunities und in die Öffentlichkeit kommuniziert werden, wie jeweils “Experten-”Status- und Zugehörigkeitszuschreibungen vorgenommen werden, wie mit Unsicherheiten umgegangen wird, wie “Zwischenergebnisse” (z.B. nicht tief annotierte Rohdaten) zur Nachnutzung weitergegeben werden und wie dafür wissenschaftliche Benefits – auch für den wissenschaftlichen Nachwuchs – generiert werden können, das alles gehört wohl auch auf die Forschungsagenda der Digital Humanities, um die wissenschaftliche Selbstreflexion voranzutreiben und definitorische Beiträge zu den Digital Humanities zu leisten.

Quelle: http://dhd-blog.org/?p=859

Weiterlesen

Erfolgreicher TextGrid Summit und Gründung des TextGrid-Vereins in Darmstadt

Mit rund 100 Teilnehmern war der diesjährige TextGrid Summit am 14./15.05. in Darmstadt ein voller Erfolg. Workshops zu den neuen Tools der soeben veröffentlichten Version 2.0, Gespräche mit Entwicklern, Vorträge zum Potential und zur Zukunftsfähigkeit Virtueller Forschungsumgebungen sowie Präsentationen der Projekte, die TextGrid bereits in der praktischen Forschungsarbeit nutzen, standen ebenso auf dem Programm wie Gespräche und Diskussionsrunden mit Vertretern aus Archiven, Akademien, dem BMBF, aus Hochschulen und Rechenzentren. Der Fokus lag dabei immer wieder auf der langfristigen Sicherheit von Forschungsdaten im virtuellen Raum, in den angebotenen work spaces und Repositorien – ein Thema, das die Digital Humanities sicherlich auch in Zukunft beschäftigen wird.
Auf http//www.textgrid.de/summit2012 werden in den kommenden Tagen die Vorträge und Präsentationen zum download bereitstehen.

Das Georg-Christoph-Lichtenberg-Haus, ein Schmuckstück des Jugendstil, lieferte am 16.05. den Rahmen für die Gründung des TextGrid-Vereins zum nachhaltigen Betrieb einer digitalen Forschungsumgebung in den Geisteswissenschaften. Elf wissenschaftliche Einrichtungen, darunter die Akademie der Wissenschaften zu Göttingen, das Salomon Ludwig Steinheim-Institut für deutsch-jüdische Geschichte an der Universität Duisburg-Essen und das Institut für Deutsche Sprache in Mannheim, zeichneten als Gründungsmitglieder. „Damit haben wir kompetente Partner an unserer Seite, die das Potential virtueller Forschungsumgebungen wie TextGrid weiter voranbringen und nachhaltig im geisteswissenschaftlichen Arbeitsprozess verankern werden”, betonte Prof. Dr. Norbert Lossau, der für die SUB Göttingen unterzeichnete.

Das TextGrid-Konsortium und die Gründungsmitglieder des TextGrid-Vereins zum dauerhaften Betrieb einer virtuellen Forschungsumgebung in den Geisteswissenschaften am 16.05.2012 in Darmstadt. (Vorne: Dr. Heike Neuroth, Prof. Dr. Norbert Lossau, Prof. Dr. Andrea Rapp,  Prof. Dr. Ludwig Eichinger)

In großer Runde, zusammen mit dem gesamten TextGrid-Konsortium, wurden schließlich die Vereinsgründung, der erfolgreiche Abschluß der II. TextGrid-Förderphase mit dem Release der Version 2.0 und der bevorstehende Übergang in die dritte Förderphase (2012-2015) gebührend gefeiert. (Vorne: Dr. Heike Neuroth, Prof. Norbert Lossau, Prof. Andrea Rapp, Prof. Ludwig Eichinger)

Quelle: http://dhd-blog.org/?p=566

Weiterlesen

TextGrid 2.0 veröffentlicht

Pünktlich zum zweiten TextGrid Summit, der dieses Mal in Darmstadt stattfindet, ist die virtuelle Forschungsumgebung TextGrid in der Version 2.0 herausgekommen, die im Vergleich zur Version 1.0 um etliche Module und Funktionen reicher ist.

Außerdem wurde ein Film ”Virtuelle Forschungswelten: Neue Technologien in den Geisteswissenschaften” im Auftrag der D-Grid GmbH in Kooperation mit TextGrid produziert.

Quelle: http://dhd-blog.org/?p=533

Weiterlesen