International Journal of Digital Art History – Call for Manuscripts

gemeldet von Dr. Harald Klinke M.Sc., Institut für Kunstgeschichte, LMU München

No_zeroThe Digital Age has revolutionized economy, society and our private lives. For decades now, digitalization has also touched most branches of the humanities. With the rising importance of the so called Digital Humanities, Art History is about to change significantly. Since the slide library is irreversibly replaced by image databases, the fact that our media have turned digital opens up to new possibilities. Academic books and journals are increasingly accessed and published via internet. Data-driven approaches enable us to visualize large data-sets and big image data. Computer vision, gamification and citizen science spur new epistemic approaches.

Many such approaches are currently evolving in the international sphere of Art History. Those ideas and projects are in need of a platform of interchange and discourse. A discourse that is linked to Digital Humanities, but regards the special interests and needs of Art History as a historical image science at the interface to Information Science. Thus, the “International Journal of Digital Art History” (DAH) will give authors in this field the opportunity to reach a wider audience, spark a discussion on the future of our discipline and generate an international and interdisciplinary network of scholars and practitioners.

This is a call for manuscripts. The first issue of DAH is scheduled for early 2015. It will focus on the definition of “Digital Art History” in relation to “non-digital”, to information science and general DH. It will encompass the range of the field and its vector into the future. It will also highlight exceptional projects and feature book reviews.

Featured author will be Lev Manovich. He is Professor at The Graduate Center, CUNY, and a Director of the Software Studies Initiative that works on the analysis and visualization of big cultural data.

Manuscripts may be sent to the editors Harald Klinke and Liska Surkemper (editors@dah-journal.org) by Jan, 30 2015. For more information for authors, please visit “Information for Authors”.

ISSN-Print 2363-5398
ISSN-Internet 2363-5401

Quelle: http://dhd-blog.org/?p=4327

Weiterlesen

Reminder: Einsendeschluss für den ersten DARIAH-DE DH-Award

Am 01.12.2014 ist der Einsendeschluss für den DARIAH-DE DH-Award. Ausgeschrieben werden Preise im Gesamtwert von 1.800 Euro. Die offizielle Preisverleihung ist für den Digital Humanities Summit vom 03. bis 04. März 2015 in Berlin geplant.

DH-Award-Slide

Im Rahmen des Awards werden innovative Beiträge und Forschungsvorhaben von Studierenden und NachwuchswissenschaftlerInnen der Geistes- und Kulturwissenschaften, der Informatik und den Informationswissenschaften, die mit digitalen Ressourcen und/oder digitalen Methoden arbeiten, ausgezeichnet.

Hierunter fallen z.B. wissenschaftlichen Einzel- oder Gruppen (Abschluss-) projekte, Softwareprojekte, Tools, Studien oder (Infrastruktur-)Konzepte.

Einzureichen sind: Online-Bewerbung z.Hd. Frau Dr. Heike Neuroth unter dh-award at de.dariah.eu mit

  1. Kurzem Anschreiben inkl. Motivation
  2. Darstellung/Abstract des/der Abschlussarbeit,(Abschluss-)projekts, Softwareprojektes, Tools, Studie oder (Infrastruktur-)Konzepts samt Einordnung in den DH-Kontext (1-2 Seiten)

und

  1. Kurzen Lebenslauf (2 Seiten max.)
  2. Ein digitales Exemplar des/der Abschlussarbeit, (Abschluss-)projekts, Softwareprojekts, Tools, Studie oder (Infrastruktur-)Konzepts

Wir freuen uns über spannende Wettbewerbsbeiträge. Alle weiteren Informationen finden Sie unter https://de.dariah.eu/dh-award-programm.Bei Fragen wenden Sie sich gerne an: dh-award(at)de.dariah.eu

Quelle: http://dhd-blog.org/?p=4290

Weiterlesen

Rat für Informationsinfrastrukturen gegründet

Pressemitteilung des BMBF 112/2014:

Wissen digital besser erschließen

Der neu gegründete Rat für Informationsinfrastrukturen hat heute seine Arbeit aufgenommen. Die 24 Ratsmitglieder – Vertreter von Wissenschaft und Gesellschaft sowie Bund und Ländern – kamen heute in Göttingen zu ihrer ersten Sitzung zusammen.

Der Rat hat die Aufgabe, disziplinen- und institutionsübergreifende Empfehlungen für die weitere Entwicklung und den Ausbau der digitalen Infrastrukturen von Bildung und Wissenschaft zu erarbeiten. Dazu gehören etwa Fragen der digitalen Langzeitarchivierung, der Zugänge zu Datenbanken oder der Digitalisierung von Wissensbeständen. Informationsinfrastrukturen sind Einrichtungen wie Bibliotheken, Archive und Forschungsdatensammlungen, die sich systematisch damit befassen, Daten und Informationen zusammenzutragen und bereitzustellen.

“Die Bundesregierung möchte im Rahmen ihrer Digitalen Agenda den digitalen Wandel in der Wissenschaft forcieren, dafür leistet auch der neue Rat für Informationsinfrastrukturen einen wichtigen Beitrag”, sagte Wanka anlässlich der konstituierenden Sitzung. “Bildung und Forschung sind zentrale Einsatzfelder für die digitalen Informationsmöglichkeiten, aber auch maßgebliche Treiber digitaler Innovationen in Deutschland. Daher ist es von großer Bedeutung, die Rahmenbedingungen für einen ungehinderten Informationsfluss zu verbessern.”

Die Gründung des Rates für Informationsinfrastrukturen gemeinsam mit den Ländern ist auch im Koalitionsvertrag der Bundesregierung verankert. 2013 haben sich Bund und Länder im Rahmen der Gemeinsamen Wissenschaftskonferenz (GWK) auf Struktur, Aufgaben und paritätische Finanzierung des Rates verständigt. Der Rat setzt sich aus acht Vertretern der wissenschaftlichen Nutzer, acht Vertretern von Einrichtungen wie Bibliotheken und Archiven und jeweils vier Vertretern des öffentlichen Lebens sowie von Bund und Ländern zusammen.

Zum Vorsitzenden des neu gegründeten Rats wurde Prof. Dr. Otto Rienhoff von der Universität Göttingen und als Stellvertreterin Sabine Brünger-Weilandt vom FIZ Karlsruhe – Leibniz-Institut für Informationsinfrastruktur gewählt. Wanka gratulierte den Vorsitzenden und wies auf die hohe Bedeutung der Aufgaben des Rats hin. “Die Themenfülle, mit der sich der Rat beschäftigen wird, ist groß. Mal geht es um die Digitalisierung mittelalterlicher Handschriftensammlungen, mal um Linzenzfragen, mal um die Archivierung und Nutzung riesiger Datenmengen – allein am Deutschen Klimarechenzentrum fallen jährlich rund zehn Petabyte an Informationen an. Hierbei Prioritäten zu setzen und besondere Bedarfe zu identifizieren, ist keine einfache, aber eine außerordentlich bedeutsame Aufgabe des Rates zugunsten der digitalen Entwicklung in Deutschland”, sagte die Bundesforschungsministerin.

Weitere Informationen finden Sie im Internet unter: http://www.bmbf.de/de/24356.php

BMBF – Bundesministerium für Bildung und Forschung

Pressereferat
Kapelle-Ufer 1
D-10117 Berlin
Telefon: (030) 18 57 – 50 50
Fax: (030) 18 57 – 55 51
E-Mail: presse@bmbf.bund.de
URL: http://www.bmbf.de/press/

Quelle: http://dhd-blog.org/?p=4219

Weiterlesen

Zweites Treffen des DARIAH-DE Stakeholdergremiums “Wissenschaftliche Sammlungen” in Göttingen

Am 17.10.2014 fand an der Niedersächsischen Staats- und Universitätsbibliothek Göttingen das zweite Treffen des Stakeholdergremiums „Wissenschaftliche Sammlungen“ statt.

Das Expertengremium dient als regelmäßiges Plenum des Austausches zwischen Geistes- und KulturwissenschaftlerInnen, BibliothekarInnen, ArchivarInnen und InformationswissenschaftlerInnen, um fachwissenschaftliche Anforderungen an digitale wissenschaftliche Sammlungen zu artikulieren.

Die beim ersten Treffen im JuIi diskutierten theoretischen, methodischen und begrifflichen Themenkomplexe wurden als Ausgangspunkt genutzt, von dem aus konkrete Pläne entwickelt werden konnten, dieses wichtige Thema auch über den kleinen Kreis der Fachleute hinaus zu akzentuieren und grundlegende Strategien zu entwickeln. Das beim ersten Treffen erarbeitete Arbeitskonzept „Sammlung“ wurde in der Runde finalisiert und konkrete Schritte zur Erhöhung der Sichtbarkeit von Sammlungen in den Geistes- und Kulturwissenschaften beschlossen. Mehr…

Quelle: http://dhd-blog.org/?p=4217

Weiterlesen

Digitales Edieren in einer Virtuellen Forschungsumgebung als Clip

Der DHd-Kanal (https://www.youtube.com/user/dhdkanal) ist ab sofort um einen neuen Explainity-Clip reicher: Das Thema Digitales Edieren in einer Virtuellen Forschungsumgebung wird in der für Explainity typischen Art einfach und verständlich präsentiert.

Clip-digitales-Edieren-VRE-IV

Virtuelle Forschungsumgebungen wie TextGrid erleichtern Literatur- und EditionswissenschaftlerInnen die computergestützte Erstellung digitaler Editionen. Mithilfe digitaler Tools und Dienste können sie ihr Material digital bearbeiten, edieren, mit Scans der Originale verlinken, sie online zugänglich machen und an andere Online-Editionen und Datenbanken anbinden. Am Beispiel einer Brief-Edition zeigt der Clip, wie digitales Edieren funktioniert und WissenschaftlerInnen bei der Arbeit unterstützt.

Deutsche Version: http://youtu.be/jJJgrZ4AaVE

English Version: http://youtu.be/rchdyegdkZc

 

Quelle: http://dhd-blog.org/?p=4149

Weiterlesen

Umfrage zum Gebrauch digitaler Werkzeuge und Dienste im geisteswissenschaftlichen Forschungsprozess

DARIAH-DE Logo mit deutscher Unterschrift CMYK 1.1

Wir laden herzlich zur Teilnahme an unserer Umfrage über den Gebrauch von digitalen Werkzeugen und Diensten während des geisteswissenschaftlichen Forschungsprozesses ein.
Mit dieser Umfrage wollen wir Nutzererwartungen und Nutzergewohnheiten beim forschungsbezogenen Einsatz von Software untersuchen und würden uns freuen, wenn Sie sich 15-20 min. Zeit nehmen, um den Fragebogen unter diesem Link zu beantworten.

Die Auswertung der Umfrage erfolgt anonymisiert. Durch die Umfrageergebnisse hoffen wir belastbare Aussagen treffen zu können im Hinblick auf:

•    den Einsatz von Software in den verschiedenen Phasen des Forschungsprozesses
•    zu schließende Lücken in digitalen Arbeitsabläufen
•    die Stärken und Schwächen der eingesetzten Software

Für Rückfragen, Anregungen und Diskussionen stehen wir gerne für Sie bereit. Nutzen Sie dazu einfach die Kommentarfunktion hier oder die in der Umfrage angegebenen Kontakadressen.

Die Auswertung Ihrer Antworten werden wir selbstverständlich hier auf diesem Blog publizieren.

Diese Umfrage wurde innerhalb des Projektes DARIAH-DE erstellt. Weitere beteiligte Institutionen sind:
Max-Planck-Institut für Wissenschaftsgeschichte
Universität Hamburg
Niedersächsische Staats- und Universitätsbibliothek Göttingen
Deutsches Archäologisches Institut
DHd – Digital Humanities im deutschsprachigen Raum

Quelle: http://dhd-blog.org/?p=4106

Weiterlesen

Jetzt anmelden zum fünften TextGrid Nutzertreffen: Norm- und Metadaten

Am 25. und 26. November 2014 wird am Salomon Ludwig Steinheim-Institut für deutsch-jüdische Geschichte an der Universität Duisburg-Essen das fünfte TextGrid-Nutzertreffen stattfinden. Der Themenschwerpunkt „Norm- und Metadaten“ verbindet dabei Erfahrungsberichte aus Projekten, die TextGrid nutzen, mit Workshops zur fortgeschrittenen Nutzung von TextGrid Laboratory und Repository im Bereich kontrollierter Vokabulare. Eine einführende Schulung zu Beginn erleichtert Neulingen den Einstieg in die Arbeit mit der virtuellen Forschungsumgebung.

Vorläufiges Programm:

25. November

12:00: Mittagsimbiss und Registrierung
13:00: Oliver Schmid (TU Darmstadt)/Philipp Vanscheidt (TU Darmstadt/Uni Trier): Einführung in TextGrid (Workshop)
15:00: Kaffeepause und Registrierung
15:30: Eröffnung
15:45: Philipp Vanscheidt (TU Darmstadt/Uni Trier): Das Metadatenschema von TextGrid (Vortrag)
16:00: Thomas Kollatz (Steinheim-Institut Essen): Text, Bilder und Metadaten – complete_input ins TG-Rep (Vortrag)
16:30: Nils Alberti/Christian Dietrich (Europa-Universität Viadrina, Frankfurt/Oder): Von „Buchveröffentlichung“ bis „Zwangsarbeit“ – Die strukturierte Speicherung bio-bibliografischer Daten von jüdischen Autorinnen und Autoren in Berlin (1933-1945) (Vortrag)
17:00: Kaffepause
17:15: Christoph Plutte (Berlin)/Torsten Roeder (Würzburg): [Titel folgt] (Vortrag)
17:45: Bastian Lemitz (Uni Münster), Uwe Sikora, Hannes Riebl (SUB Göttingen): [Norm- und Metadaten in der "Bibliothek der Neologie"] (Vortrag)
20:00: Abendessen

26. November

09:00: Registrierung
10:00: Marcus Held (IEG Mainz): Kontrollierte Vokabulare für die historisch arbeitenden Wissenschaften – Theorie, Methode und Praxis (Workshop)
12:00: Mittagsimbiss
13:00: Martin de la Iglesia (SUB Göttingen): Entitäten in TEI (Workshop)

Weitere Informationen zu Vorträgen und Workshops sowie zur Anmeldung finden Sie auf der Website unter: http://www.textgrid.de/community/nutzertreffen-metadaten/

Die Anmeldefrist endet am 7. November.

Quelle: http://dhd-blog.org/?p=4061

Weiterlesen

Jetzt anmelden zum fünften TextGrid Nutzertreffen: Norm- und Metadaten

Am 25. und 26. November 2014 wird am Salomon Ludwig Steinheim-Institut für deutsch-jüdische Geschichte an der Universität Duisburg-Essen das fünfte TextGrid-Nutzertreffen stattfinden. Der Themenschwerpunkt „Norm- und Metadaten“ verbindet dabei Erfahrungsberichte aus Projekten, die TextGrid nutzen, mit Workshops zur fortgeschrittenen Nutzung von TextGrid Laboratory und Repository im Bereich kontrollierter Vokabulare. Eine einführende Schulung zu Beginn erleichtert Neulingen den Einstieg in die Arbeit mit der virtuellen Forschungsumgebung.

Vorläufiges Programm:

25. November

12:00: Mittagsimbiss und Registrierung
13:00: Oliver Schmid (TU Darmstadt)/Philipp Vanscheidt (TU Darmstadt/Uni Trier): Einführung in TextGrid (Workshop)
15:00: Kaffeepause und Registrierung
15:30: Eröffnung
15:45: Philipp Vanscheidt (TU Darmstadt/Uni Trier): Das Metadatenschema von TextGrid (Vortrag)
16:00: Thomas Kollatz (Steinheim-Institut Essen): Text, Bilder und Metadaten – complete_input ins TG-Rep (Vortrag)
16:30: Nils Alberti/Christian Dietrich (Europa-Universität Viadrina, Frankfurt/Oder): Von „Buchveröffentlichung“ bis „Zwangsarbeit“ – Die strukturierte Speicherung bio-bibliografischer Daten von jüdischen Autorinnen und Autoren in Berlin (1933-1945) (Vortrag)
17:00: Kaffepause
17:15: Christoph Plutte (Berlin)/Torsten Roeder (Würzburg): [Titel folgt] (Vortrag)
17:45: Bastian Lemitz (Uni Münster), Uwe Sikora, Hannes Riebl (SUB Göttingen): [Norm- und Metadaten in der "Bibliothek der Neologie"] (Vortrag)
20:00: Abendessen

26. November

09:00: Registrierung
10:00: Marcus Held (IEG Mainz): Kontrollierte Vokabulare für die historisch arbeitenden Wissenschaften – Theorie, Methode und Praxis (Workshop)
12:00: Mittagsimbiss
13:00: Martin de la Iglesia (SUB Göttingen): Entitäten in TEI (Workshop)

Weitere Informationen zu Vorträgen und Workshops sowie zur Anmeldung finden Sie auf der Website unter: http://www.textgrid.de/community/nutzertreffen-metadaten/

Die Anmeldefrist endet am 7. November.

Quelle: http://dhd-blog.org/?p=4061

Weiterlesen

Workshop zu korpuslinguistischen Methoden am 7./8. Oktober in Berlin

Die Forschung mit korpuslinguistischen Methoden innerhalb geisteswissenschaftlicher Disziplinen stellt neben der Erstellung der Ressourcen auch Aufgaben hinsichtlich der Datenverarbeitung und Konvertierung, deren Analyse, Speicherung und des Zugriffs.

Das LAUDATIO-Projekt gibt zu diesen Themen einen Workshop vom 07.10.-08.10.2014 an der Humboldt-Universität zu Berlin ausgerichtet vom Computer- und Medienservice und dem Lehrstuhl für Korpuslinguistik und Morphologie. Der Workshop richtet sich an Anwender und Entwickler von korpuslinguistischen Methoden, Werkzeugen und Software. Wir stellen u.a. das LAUDATIO-Repository, das Such- und Visualisierungstool ANNIS und das Konverter-Framework SaltNPepper vor.

Der Workshop ist auf 45 Teilnehmer begrenzt und ist anmeldepflichtig. Für die Pausenverpflegung erheben wir eine kleine Teilnehmergebühr von 16,33 €.

Alle Informationen zum Workshop und zur Registrierung finden Sie auf

http://www.laudatio-repository.org/laudatio/workshop-2014/

Quelle: http://dhd-blog.org/?p=4033

Weiterlesen

correspSearch – Verzeichnisse von Briefeditionen durchsuchen

Mit dem neuen Webservice “correspSearch” können Verzeichnisse verschiedener digitaler und gedruckter Briefeditionen nach Absender, Empfänger, Schreibort und -datum durchsucht werden. Dafür stehen eine Website und eine Schnittstelle zur Verfügung.Der Webservice aggregiert und wertet TEI-XML-Dateien aus, die auf dem (im Entwurf befindlichen) TEI-Modul “correspDesc” basieren. Mit correspDesc können die Metadaten von Briefen in TEI-XML-Dateien einheitlich erfasst werden. Zur Identifizierung von Personen und Orten werden dabei Normdaten-IDs (GND, VIAF etc.) benutzt. Das Modul „correspDesc“ wurde von der TEI SIG Correspondence entworfen und wird derzeit vom TEI-Council geprüft.

Die digitalen Briefverzeichnisse werden von den jeweiligen Anbietern der Editionen bereitgestellt und von „correspSearch“ abgerufen und durchsuchbar gemacht. Derzeit wertet der Webservice erst wenige Briefverzeichnisse aus. Der Datenbestand soll aber laufend erweitert werden. Jede gedruckte oder digitale Briefedition kann ihr Briefverzeichnis im correspDesc-Format beim Webdienst correspSearch registrieren lassen – wie das geht, erfahren Sie hier.

Der Webservice wurde von TELOTA an der Berlin-Brandenburgischen Akademie der Wissenschaften in Zusammenarbeit mit der TEI SIG Correspondence und weiteren Wissenschaftlern entwickelt und bereitgestellt.

Beachten Sie bitte, dass sich der Webservice derzeit noch in einer Testphase befindet.

Quelle: http://dhd-blog.org/?p=3994

Weiterlesen