Trancribe Bentham in a Panopticon: verspätete Berichterstattung zum Vortrag von Philipp Schofield im Rahmen der Darmstädter Ringvorlesung am 8.11.

Text von Jörg Lehning, TU Darmstadt

Im Rahmen der Ringvorlesung “Digital Humanities” war Philip Schofield, Leiter des Bentham-Projektes und General Editor der Gesammelten Werke Jeremy Benthams zu Gast und erfreute die interessierten Hörerinnen und Hörer mit seinem Vortrag “Transcribe Bentham – An experiment in scholarly crowdsourching”.

Das (im Übrigen preisgekrönte) interdisziplinäre Bentham-Projekt ist ein großartiges Beispiel für ein wissenschaftliches Projekt, das mit den neuen Technologien zusammenwächst. Das “scholarly crowdsourcing”, was man vielleicht mit “wissenschaftliche Bearbeitung durch unwissenschaftliche Mengen” etwas wenig elegant umschreiben könnte, ist hierbei ein elementarer Baustein des Projekts.

Wie Schofield ausführte, sei es auch in diesem Projekt zunächst wichtig, Ziele zu definieren. In diesem Fall sei das die Erstellung einer neuen gedruckten Edition gewesen, ein weiteres, dass diese kostengünstig sein sollte.

Bentham, so Schofield, hätte den technologischen Fortschritt mit offenen Armen begrüßt, und das nicht nur, weil er zeitlebens Technik zur Vereinfachung von Arbeitsabläufen erfunden hatte, sondern auch, weil er mit ihr seine Ideen wesentlich besser hätte umsetzen können.

Das Computerzeitalter wäre mitunter auch hilfreich, veraltete oder nicht hilfreiche Strukturen zu überwinden, meinte Schofield mit Blick auf diverse alte Regularien (Oxford Standard of storage rules), etwas was auch in den Debatten um die Definition der Digital Humanities eine Rolle spielt.

Die Bentham Dokument Datenbank, die von 2003-2006 bearbeitete Dokumente bereitstellt, ist eine zentrale Quelle für Metadaten, die von Editoren und Forschern genutzt werden kann.
Die Technik hat jedoch nicht nur Vorteile: im Rahmen des Arbeitsablaufs wird durch einen wissenschaftlichen Mitarbeiter die Qualität der fertig bearbeiteten Dokumente geprüft, bevor sie hochgeladen werden können. Die Erfahrung zeigt hier, dass händisches XML/TEI-Tagging zu steigender Fehlerzahl und somit auch zu steigendem Zeitverbrauch führen kann. Aber: Die Probleme mit der Technik können mitunter auch durch die Technik behoben werden, so z.B. durch das Interface, das die Text-XML-TEI-Erstellung erleichtert und somit die menschlichen Fehlerquellen in diesem Fall umgeht.

Mitarbeiter werden bei Wunsch genannt und bekommen auch Rückmeldung zu ihrer Arbeit. Von den Transkripten werden 95% von sogenannten “super-transcribers” bearbeitet. Bemerkenswert ist, dass viele der “User”, die an dem Projekt arbeiten, gar nicht unbedingt an Bentham interessiert waren und sind, sondern vor allem die Art der Arbeit im Rahmen des Projekts interessant fanden. Auch die digitale Komponente schien zu reizen.

Projekte wie dieses haben als limitierende Faktoren oft Zeit und Komplexität. Wirtschaftliche Argumente für diese Projekte sind wichtig, wenn es darum geht, sie überhaupt in die Tat umzusetzen. Die ökonomische Rechtfertigung kann hier darin bestehen, dass die Methode des “scholarly crowdsourcing” kosteneffizient ist, z.B. im Vergleich zu bezahlten Forschern.

Abschließend stellte sich Schofield Fragen nach der Berechtigung und dem Erfolg des Projekts und kam zu dem Schluss, dass es ein Erfolg sei, weil Bedarf daran besteht und es wissenschaftlich fundiert sei. Die digitalen Geisteswissenschaften indes würden das Projekt dazu zwingen, die Funde auch mit neuen Methoden aufzubereiten und zu präsentieren.

Fragen hinsichtlich der Existenzberechtigung des Projektes beinhalten die Überprüfung der Zielsetzung Druck im Hinblick auf Ideen und Modelle der “freien Information”. So taucht zum Beispiel die Frage auf, ob nicht nur noch eine editierte Fassung online stehen soll, die die gedruckte Ausgabe ersetzt. Hier stehen sich die Punkte Kosteneffektivität und beständige, gesicherte Referenz durch physikalische Permanenz gegenüber.

Follow us on Twitter: @DHDarmstadt @RappAndrea #DHDarmstadtLecture

Am 22.11.2012 ist Martin Wynne (Oxford University) zu Gast: “Corpus and Text Analysis for Research in the Humanities”; 18.00 Uhr s.t., Schloss, Raum 36. Gäste sind herzlich willkommen.

Quelle: http://dhd-blog.org/?p=1077

Weiterlesen

Die Vision Humboldts in der Digitalen Welt: Start der Ringvorlesung Digital Humanities an der TU Darmstadt mit einem Vortrag von Gregory Crane über ‘Humanities in a Digital Age’

Gregory Crane von der Tufts University in Medford/Boston (Massachusetts), der in den nächsten Jahren eine Humboldt-Professur an der Universität Leipzig wahrnehmen wird, stellte sich der Aufgabe, für den Auftakt der Darmstädter Ringvorlesung einen Überblick zu geben, große Fragen zu stellen und große Linien zu ziehen und beeindruckte die ZuhörerInnen durch seine Offenheit, seine Energie, seine Leidenschaft für das Thema und den Respekt, mit dem er allen InteressentInnen begegnete.

Eines der großen Themen, das er ansprach, war beispielsweise die Frage danach, was der gesellschaftliche Auftrag und was die Ziele der Geisteswissenschaften seien. Für Greg Crane besteht ihre Rolle darin, das intellektuelle Leben der Menschen zu verbessern. Dazu hat man seiner Ansicht nach zwei Möglichkeiten: Bücher zu schreiben, die keiner mehr liest, oder den Menschen zu helfen, mehr über fremde Sprachen und Kulturen zu wissen und ihnen den Zugang dazu ohne Voraussetzungen, ohne Sprachenkenntnisse zu ermöglichen. Wer die Entwicklung und die Erfolgsgeschichte des Perseus-Projekts verfolgt hat, weiß, dass diese Vision eingelöst werden kann: Die antiken Texte sind so umfangreich erschlossen durch Wörterbücher und weitere Materialien, dass man einen Zugang findet – und dieser Zugang war und ist bei Perseus stets transparent und open access. Die intensive Erschließung der Materialien wird auch durch Crowd Sourcing-Aktivitäten erreicht: Studierende werden bei der Lemmatisierung, Kommentierung und Vernetzung eingebunden, jede entsprechende Leistung ist durch Identifier den BearbeiterInnen zugeordnet, so dass jeder Kommentar zu einer micropublication wird. Greg ist immer für unerwartete Vergleiche und Überraschungen gut: Wenn ein World-of-Warcraft-Spieler 500 Stunden Übung benötigt, um einen Charakter zu beherrschen, dann ist es genauso gut möglich, dass er in 500 Stunden Einsatz mit den digitalen Materialien eine antike Sprache besser beherrscht als nach einigen Semestern Studium an der Universität! Die Aufgabe der Lehrenden ist es, den Studierenden zu ermöglichen, digital citizens in der digitalen Welt zu werden. Auf diese Weise sieht er uns erstmals in die Lage versetzt, das alte Humboldtsche Ideal, dass Lehrende und Lernende dazu da sind, der Wissenschaft zu dienen, zu verwirklichen (“Wenn ich etwas neu und cool finde, stelle ich fest, dieser alte Preuße hat es schon geschrieben.”).

Einen Gedanken möchte ich noch herausgreifen, denn er betrifft einen Punkt, der von vielen diskutiert wird. Greg leitete seine Vorlesung folgendermaßen ein: “Ich bin jetzt ein Professor für Digital Humanities, obwohl ich nicht an das Fach glaube.” Er betrachtet sich nach wie vor als Altphilologe, sein Haupt-Forschungsinteresse war und ist die antike Sprache und Kultur, deren Erforschung und Erschließung von ihm u.a. mit computergestützten Ansätzen und Methoden betrieben wird. Dieser Sichtweise würde ich mich anschließen, sie markiert auch mein Selbstverständnis und die Ausrichtung und Weiterentwicklung der Darmstädter Digital Humanities in einer spezifischen Ausprägung als Digital Philology. Unsere Forschungsgegenstände sind Sprache, Literatur und Kultur, wir integrieren hermeneutische und algorithmische Ansätze zu ihrer Erforschung. Wir dürfen also gespannt sein auf die weiteren Positionen und Beiträge zur Ringvorlesung und werden uns bemühen, an dieser Stelle weiter darüber zu berichten. Aufnahmen davon werden Dank einer Kooperation mit dem eLearning-Center der TU Darmstadt auch online zur Verfügung gestellt werden.

Follow us on Twitter: @DHDarmstadt @RappAndrea #DHDarmstadtLecture

Am 8.11.2012 ist Philip Schofield (University College London) zu Gast: “TRANSCRIBE BENTHAM – An experiment in scholarly crowdsourcing”.

Quelle: http://dhd-blog.org/?p=1009

Weiterlesen

Forschungen zur Wissenschaftskommunikation aus linguistischer, historischer, soziologischer und philosophischer Perspektive

Nach drei anregenden thematisch fokussierten Tagungen hat sich am 5. und 6. September 2012 eine Arbeitsgruppe getroffen, um Projektideen und Forschungen zum Thema Wissenschaftskommunikation zu konkretisieren. Die Darmstädter Linguistin Nina Janich hat diesen Forschungsschwerpunkt initiiert und die Tagungen und Treffen gemeinsam mit ihrem Team organisiert und durchgeführt.

Unter dem Namen Scientific Communication Research (SciCoRe) sollen Forschungen zusammengeführt werden, die sich beispielsweise mit Wissensformen, mit Kommunikation innerhalb wissenschaftlicher Communities , aber auch mit nach außen gerichteten Vermittlungskulturen, Medien- und Textformaten beschäftigen (traditionelle und auch neue Formen wie bloggen und twittern). Fragen nach Auswirkungen von Datenaufbereitung wie Datenpräsentation, Virtualisierungen und Visualisierungen, die Tendenz zu Simulationen im Kontrast zu Evidenzbasierung werden ebenso diskutiert wie mediale Aspekte, sprachlich-diskursive Popularisierungsstrategien und politisch-historische Legitimationsprozesse. Dabei werden Unterschiede und Gemeinsamkeiten bei den geistes- und gesellschaftswissenschaftliche Disziplinen und den Experimental- und Technowissenschaften betrachtet und hinterfragt.
Die Gruppe setzt sich zusammen aus Soziologen, Philosophen, Historikern, Sprachwissenschaftlern und Digital Humanists. Obwohl es zunächst so schien, als seien unsere Forschungsinteressen stark divergierend und unsere Ausgangspunkte sehr unterschiedlich, stellen sich in den Gesprächen und Arbeitsgruppen rasch zahlreiche Überschneidungen, Vernetzungen und gemeinsame Fragestellungen heraus.

  • Selbstdarstellung im öffentlichen Diskurs
  • Veränderungen von Publikations- und Kommunikationskulturen in den Fachdisziplinen
  • Forschung zwischen Nichtwissen und Beratungsauftrag
  • Virtualisierung von Forschungsprozessen, Simulationen, Evidenzbasierung
  • Status u d Zuschreibungen von “Experten”, “Dilettanten” und “Laien”, deren jeweilige Performanz in unterschiedlichen medialen Kommunikationszusammenhängen
  • Fehler- und Irrtumskultur, Umgang mit vorläufigen Forschungsergebnissen, Zwischenergebnissen

Was mich besonders interessiert – aus sprachwissenschaftlicher wie Digital Humanities-Perspektive – sind gewiss die Fragen nach Virtualisierungen von Forschungsprozessen, da dieses Thema im Rahmen von TextGrid und Dariah zentral ist. Viele Dinge, die wir in diesem Kontext gewissermaßen aus der Praxis heraus täglich bearbeiten und diskutieren, sind bislang nicht systematisch beschrieben und erforscht. Wie die Entwicklungen der Humanities im Hinblick auf Digital Humanities nach innen in die eigene Community, in die “traditionellen” Fachcommunities und in die Öffentlichkeit kommuniziert werden, wie jeweils “Experten-”Status- und Zugehörigkeitszuschreibungen vorgenommen werden, wie mit Unsicherheiten umgegangen wird, wie “Zwischenergebnisse” (z.B. nicht tief annotierte Rohdaten) zur Nachnutzung weitergegeben werden und wie dafür wissenschaftliche Benefits – auch für den wissenschaftlichen Nachwuchs – generiert werden können, das alles gehört wohl auch auf die Forschungsagenda der Digital Humanities, um die wissenschaftliche Selbstreflexion voranzutreiben und definitorische Beiträge zu den Digital Humanities zu leisten.

Quelle: http://dhd-blog.org/?p=859

Weiterlesen

Wieviel Verklausulierung braucht Wissenschaftssprache?

Es scheint, als veröffentlichten Nachrichtenmagazine immer öfter Beiträge mit Titeln wie Verschwurbeltes Hochschuldeutsch: Warum Wissenschaftler ihre Leser quälen (Spiegel Online), Wider die wolkige Wissenschaftssprache (Deutschlandradio) oder auch Wissenschaftssprache: Notwendiger Expertenjargon oder Fachchinesisch? (Bayern 2).

Alle beschreiben anhand konkreter Beispiele aus der Welt der Wissenschaft einen Umstand, der – mancher wird rufen „endlich“! – immer öfter kritisch beleuchtet wird: In vielen wissenschaftlichen Publikationen werden Aussagen über weite Strecken durch eine spürbar aufgeblasene Sprache verschleiert. Auch solche, die inhaltlich gar nicht mal so kompliziert sind. Der Leser, insbesondere wenn es sich um jüngere Studierende oder gar interessierte Laien handelt, hat in der Konsequenz veritable Verständnisprobleme. Verkommt die Wissenschaftssprache tatsächlich immer mehr zu undurchsichtigem Kauderwelsch? Ist das hauptsächlich ein Problem im deutschsprachigen Bereich? Dieser Eindruck drängt sich beim Blick in den angelsächsischen Sprachraum geradezu auf, wo gerade geschichtswissenschaftliche Werke eine breite Laienleserschaft finden. Das dürfte nicht zuletzt deshalb so sein, weil man sich nicht scheut, auch im akademischen Kontext lebendig und anschaulich zu formulieren.

Der Begriff der Wissenschaftssprache  wird inzwischen quasi automatisch mit absurden Satzkonstruktionen oder dem übertriebenen Einsatz von Fachtermini und Fremdwörtern assoziiert. Noch deutlicher benennt man dieses Phänomen mit dem Begriff der Antragsprosa. In dem von Susanne Weiss und Michael Sonnabend verfassten Buch Schreiben, Bloggen, Präsentieren wird deutlich, welche Ausmaße eine solche Jargonkultur in der Wissenschaft annehmen kann:

„Jeder weiß, dass Gespenster nur dort Angst und Schrecken verbreiten können, wo es dunkel ist. Je heller es ist, umso grässlicher müssen Fratzen und Gebärden sein, damit der Mensch Angst hat, wahlweise Ehrfurcht vor ‚Attributionsfehlern in perzeptuell ambigen Situationen‘, Angst vor ‚Emergenzen von zu Illustrationszwecken appendizierten Karten‘; vor ‚Stabilitätssuggestionen‘ und ‚Mikrosatelliteninstabilität‘ oder gar vor den ‚Kontingenzproblemen im Interventionsgeschehen‘…“ (Weiss/Sonnabend 2011, S. 40)

Dass innerhalb einzelner Disziplinen etablierte Fachtermini für die Normierung und den Austausch wissenschaftlicher Erkenntnisse unentbehrlich sind, wird niemand bestreiten wollen. Und ja, ein Wissenschaftler schreibt natürlich in erster Linie für andere Wissenschaftler. Von denen kann man in der Tat gewisse Verständniskompetenzen erwarten, die ihnen das Erschließen elaborierterer Texte ermöglichen. Wie weit aber darf der Verklausulierungstrend gehen, von dem man – seien wir ehrlich – insgeheim vermutet, dass er vom Autor aus Gründen vermeintlicher Statusschaffung gehegt und gepflegt wird? Ist es nicht ein Schuss ins eigene Knie, wenn eine aufgeblähte und nur augenscheinlich präzise Sprache ihren eigentlichen Zweck verfehlt – nämlich die Vermittlung von Informationen? Vermittelt kann nur werden, was verstanden wird.

Wie aber kann man dieses Problem angehen – wie sieht denn „gute“ Wissenschaftssprache aus? Im digitalen Zeitalter erweitert sich die Schar der Leser, die an wissenschaftlicher Kommunikation – wenn auch nur passiv – teilhaben möchte, über die akademische Welt hinaus. Deshalb lässt sich die Frage nach den Grenzen von Wissenschaftssprache auch mit einem „nach unten“ gerichteten Blick stellen: Wie „alltagssprachlich“ dürfte es in der Wissenschaft zugehen, würde man versuchen, dem angesprochenen Wandel innerhalb der Leserschaft Rechnung zu tragen? Ab welchem Punkt wird eine bewusst transparent gestaltete Fachsprache ihrerseits zum Problem, ab wann geht es mit der Genauigkeit wissenschaftlicher Aussagen bergab? Und könnte auch der bewusste Verzicht auf Verklausulierungen in genuinen Netzformaten (Blogs, Tweets) ein Grund für die Skepsis etablierter Wissenschaftler sein, diese zu bedienen, steht dieses Argument doch in direktem Bezug zur Hierarchiefrage?

Diese, sowie mögliche Lösungsstrategien, können wir in Panel 3 der RKB-Tagung diskutieren.

Quelle: http://rkb.hypotheses.org/209

Weiterlesen

Das altägyptische Totenbuch – Ein digitales Textzeugenarchiv

Seit 20 Jahren arbeiten Forscher aus Bonn an der Erschließung eines der wahrscheinlich bedeutendsten und am weitesten verbreiteten Jenseitstexte: Das Totenbuch des Alten Ägyptens.

Dieses umfasst etwa 200 Sprüche und ergänzt diese zusätzlich durch Abbildungen – die so genannten Vignetten, welche die inhaltlichen Aussagen der Texte zusätzlich  illustrieren.
Seit März 2012 ist das Totenbuch-Archiv nun im Internet zugänglich (http://totenbuch.awk.nrw.de). In der Datenbank sind Schlüsselinformationen und Bildmaterialien über alle weltweit noch erhaltenen und der Forschung bekannten Quellen des Totenbuchs gesammelt, welche nicht nur einem ägyptologischen Fachpublikum, sondern auch den interessierten Laien und der breiteren Öffentlichkeit Zugang zu diesem Forschungsbereich ermöglichen soll.

Zugang zum Material erhält der Nutzer auf zweierlei Weisen: zum einen durch eine “facettierte Suche”, mit der Objekte durch die Angabe von Filterkriterien (auf dem Objekt enthaltene Sprüche, Objektart, Datierung, Herkunft, heutiger Standort, usw.) gefunden werden können, zum anderen durch ein geleitetes Browsing über Menüstrukturen, welche den schnellen Zugriff auf Objekte über Visualisierungen und Register erlaubt, die auf die Kernmerkmale und die auf den Objekten enthaltenen Sprüche ausgerichtet sind.

Die Präsentationsoberfläche fungiert zugleich als Backend für angemeldete Benutzer und Projektmitarbeiter. Nach dem Einloggen kann je nach Rechtevergabe zusätzliches Bildmaterial eingesehen werden und es können Angaben bearbeitet und neue Datensätze hinzugefügt werden.
Zu den besonders bemerkenswerten Aspekten des Projekts gehört die Aufbereitung der Informationen zu einzelnen Objekten und Sprüchen wie auch als Gesamtdatenbank mittels verschiedener Visualisierungsstrategien. Neben zahlreichen Standardvisualisierungen zum Gesamtkorpus, die z.B. die Struktur der Überlieferung darstellen, gibt es auch spezielle Visualisierungen zu einzelnen Forschungsfragen, wie beispielsweise der “Kanonizität der Spruchabfolge” auf den Textzeugen.

Eine Einbindung in die weitere Infrastruktur der ägyptologischen Forschung erfolgt durch
Verwendung von IDs, die mit dem zentralen Nachweisportal der Ägyptologie (Trismegistos) abgeglichen und verlinkt sind.

Im Hinblick auf das weitere technische Setup entspricht das Totenbuch-Projekt dem
state of the art. PURLs, die auf den Trismegistos-IDs basieren und vom technischen System entkoppelt sind, sorgen für sprechende Adressen und gewährleisten die direkte und dauerhafte Adressierbarkeit der Objektbeschreibungen.

Der Server für diese Publikation ist zunächst an der Universität zu Köln angesiedelt, da er vom Cologne Center for eHumanities (CCeH) im Auftrag der Akademie der Wissenschaften und Künste NRW, welche das Projekt seit 2004 fördert, aufgebaut wurde.
Das digitale Textzeugenarchiv zeigt eindrücklich, dass klare Informationsstrukturierung und professionelles Design intuitive Wege zu wissenschaftlichen Ressourcen bahnen können, welche nicht nur einen großen Funktionsumfang haben, sondern auch auf der Seite der Präsentation gefällig und gut benutzbar sind.

Quelle: http://dhd-blog.org/?p=747

Weiterlesen

Bilateral Digital Humanities Program: DFG und NEH fördern gemeinsam

Mit der Veröffentlichung der vierten Ausschreibung im Bilateral Digital Humanities Program setzen das National Endowment for the Humanities (NEH) und die Deutsche Forschungsgemeinschaft (DFG) die gemeinsame Förderung innovativer Projekte im Themenfeld “Digital Humanities” fort. Nachdem in den ersten drei Ausschreibungsrunden seit 2008 die Optimierung digitaler Ressourcen und Sammlungen für die geisteswissenschaftliche Forschung im Vordergrund standen, sind die Förderziele nun deutlich weiter gesteckt: Im Zentrum steht die Verbesserung der digitalen Informationsinfrastruktur für die geisteswissenschaftliche Forschung – sei es durch die Zusammenführung etablierter Informationsangebote, die Verbesserung des Forschungsdatenmanagements, der elektronischen Veröffentlichung von Forschungsergebnissen oder der Entwicklung generischer Werkzeuge und Standards.

Es werden Projekte mit einer Laufzeit von bis zu drei Jahren gefördert. Eine Kooperation zwischen deutschen und u.s.-amerikanischen Partnern ist Fördervoraussetzung. In den Projektanträgen ist insbesondere auch auf den Mehrwert der transatlantischen Kooperation einzugehen. Anträge können bis zum 27. September 2012 in identischer Form bei NEH und DFG eingereicht werden. Beide Förderorganisationen sehen sich dem Prinzip des Open Access verpflichtet und erwarten eine möglichst aktive Verbreitung der Projektergebnisse.

Für eine Beratung stehen Jason Rhody (NEH, jrhody@neh.gov) und Christoph Kümmel (DFG, christoph.kuemmel@dfg.de) zur Verfügung.

Informationen zum Förderangebot auf den Homepages der Förderorganisationen:
http://www.neh.gov/divisions/odh/grant-news/grant-opportunity-nehdfg-bilateral-digital-humanities-program
http://www.dfg.de/foerderung/info_wissenschaft/info_wissenschaft_12_40/index.html

Quelle: http://dhd-blog.org/?p=724

Weiterlesen

Ausschreibung für 2 Digital Humanities Professuren in Leipzig und Bern

Mitgeteilt via GCDH:

UNIVERSITÄT LEIPZIG – W3 Digital Humanities – Frist: 06.08.2012

An der Fakultät für Mathematik und Informatik ist zum nächstmöglichen Zeitpunkt folgende Professur zu besetzen: W3-Professur Digital Humanities. Die Fakultät sucht eine/n international ausgewiesene/-n Wissenschaftler/-in auf dem Gebiet der Digital Humanities, der/die sowohl in den Geisteswissen-schaften als auch der Informatik ausgewiesen ist, und über Erfahrungen im Aufbau und Betrieb eines großen Digital Humanities Portals sowie in der interdisziplinären Lehre verfügt. Beispiele für Arbeitsfelder, auf denen sich das Institut für Informatik im Bereich der Digital Humanities verstärken möchte, sind: Text Mining basierte Analysen historischen Wissenstransfers in der antiken Welt, die Wechselwirkungen zwischen der antiken und arabischen Welt, die Nutzung interaktiver Visualisierungen und modell-basierter Simulationen für die Analyse unseres kulturellen Erbes. Zu den Aufgaben der Professur gehört insbesondere der Aufbau eines internationalen Masterstudienganges “Informatik für die Geisteswissenschaften” zusammen mit der Professur für Computational Humanities.

Die Ausschreibung erfolgt im Rahmen des Programms der Alexander von Humboldt-Professur – Internationaler Preis für Forschung in Deutschland der Alexander von Humboldt-Stiftung. Voraussetzung für die Ruferteilung ist eine positive Begutachtung des/der Kandidaten/-in durch die Alexander von Humboldt-Stiftung mit Gewährung einer Alexander von Humboldt-Professur. Die Bewerber/-innen müssen die Berufungsvoraussetzungen gemäß § 58 SächsHSG erfüllen. Die Universität Leipzig legt Wert auf die berufliche Gleichstellung von Frauen und Männern. Schwerbehinderte werden zur Bewerbung aufgefordert und bei gleicher Eignung bevorzugt berücksichtigt. Bewerbungen richten Sie mit den üblichen Unterlagen (unter Beifügung einer Liste der wissenschaftlichen Arbeiten und der akademischen Lehrtätigkeit, einer beglaubigten Kopie der Urkunde über den höchsten erworbenen akademischen Grad und des Nachweises der Qualifikation für das Berufungsgebiet) bitte bis 06. August 2012 an: Universität Leipzig, Dekan der Fakultät für Mathematik und Informatik, Herrn Professor Dr. Hans-Bert Rademacher, Postfach 10 09 20, 04009 Leipzig

—————————————————————–

UNIVERSITÄT BERN – Assistenzprofessur Digital Humanities – Frist: 01.09.2012

Zum 1. Februar 2013 ist an der Philosophisch-historischen Fakultät der Universität Bern eine Assistenzprofessur in “Digital Humanities” neu zu besetzen. Die Stelle ist zunächst auf vier Jahre befristet. Eine Verlängerung um zwei Jahre ist nach positiver Evaluation möglich. Die Inhaberin/der Inhaber der Assistenzprofessur vertritt das Fach “Digital Humanities” an der Philosophisch-historischen Fakultät der Universität Bern in Forschung und Lehre. Sie/er ist wissenschaftlich ausgewiesen durch einschlägige Forschungen zur Verwendung von computergestützten Verfahren und digitalen Ressourcen in den Geistes- und Kulturwissenschaften, etwa in der Textanalyse, in der Visualisierung komplexer Datenanalysen, in digitalen Editionen oder in der Erschliessung von Archiven. Die Assistenzprofessur soll ein spezifisches Profil durch die geistes- und kulturwissenschaftliche Ausbildung der Inhaberin/des Inhabers erlangen, das sowohl in Lehre als auch Forschung sichtbar sein muss.

Erwartet wird  daher die Habilitation oder eine gleichwertige wissenschaftliche Leistung in einer geistes- oder kulturwissenschaftlichen Disziplin. Sie/er hat Erfahrung in der Einwerbung von Drittmitteln. Erwartet werden die Bereitschaft zur interdisziplinären Zusammenarbeit am fakultären Center for Cultural Studies sowie die Beteiligung an laufenden Studienprogrammen und an Forschungen am interfakultären Netzwerk digitale Information. Von der Stelleninhaberin/dem Stelleninhaber wird neben der Betreuung der Studierenden und Doktorierenden auch die Mitarbeit an fakultären und universitären Aufgaben verlangt. Die Universität Bern strebt eine Erhöhung des Frauenanteils in akademischen Führungspositionen an und fordert deshalb Wissenschaftlerinnen nachdrücklich auf, sich zu bewerben. Bewerbungen mit Curriculum Vitae, Verzeichnis der Publikationen, Liste der eingeworbenen Drittmittel, Angaben über bisherige Lehrtätigkeit, Lehrevaluationen sowie die Mitarbeit in akademischen Gremien sind bis zu
m 1. September 2012 als PDF-Datei einzureichen bei kueffer@histdek.unibe.ch Weitere Informationen auf www.philhist.unibe.ch/content/jobs/ Universität Bern, Philosophisch-Historische Fakultät, Länggassstrasse 49, 3012 Bern www.philhist.unibe.ch

Quelle: http://dhd-blog.org/?p=710

Weiterlesen

Epoche: eHumanities

Auf dem diesjährigen Historikertag, der vom 25.-bis 28. September 2012 an der Johannes Gutenberg-Universität Mainz stattfindet, ist eine Sektion zum Thema eHumanities eingeplant.

Hierzu gehören die folgenden Sessions:

Quelle: http://dhd-blog.org/?p=590

Weiterlesen