Stellenangebot: operative/r Leiter/in Projekt histHub (60–80 %)

Consortium Historicum sucht eine/n

operative/n Leiter/in Projekt histHub (60–80 %)

Das interdisziplinäre Kooperationsprojekt histHub der Rechtsquellenstiftung des Schweizerischen Juristenvereins, der Diplomatischen Dokumente der Schweiz, des Historischen Lexikons der Schweiz, des Schweizerdeutschen Wörterbuchs und des Portals der schweizerischen Ortsnamenforschung leistet einen Beitrag zur umfassenden Förderung von Linked Open Data zu historischen Entitäten aller Epochen und Regionen der Schweiz. Hauptziel von histHub ist der Aufbau einer Infrastruktur, welche die Produktion, Kuration und Nutzung von qualitativ hochstehenden Forschungsdaten über die Sprachgrenzen hinweg langfristig ermöglicht und fördert. histHub entwickelt, betreut und verbreitet dringend benötigte digitale Open-Source-Werkzeuge, damit die Methoden und Technologien der Digital Humanities im Prozess der wissenschaftlichen Datenproduktion rechtzeitig zur Anwendung kommen. Unter Vorbehalt der Finanzierung wird die Stelle per 1.1.2017 oder nach Vereinbarung besetzt.

Wir bieten:



[...]

Quelle: http://dhd-blog.org/?p=7371

Weiterlesen

CfP: CUTE – CRETA Unshared Task zu Entitätenreferenzen

Wir laden dazu ein, Beiträge zu einem shared/unshared Task Workshop einzureichen, der im Rahmen der DHd 2017 in Bern (CH) stattfindet.

Link zur Webseite

Im Gegensatz zu shared tasks, bei denen die Performanz verschiedener Systeme/Ansätze/Methoden direkt anhand einer klar definierten und quantitativ evaluierten Aufgabe verglichen wird, sind unshared tasks offen für verschiedenartige Beiträge, die auf einer gemeinsamen Datensammlung basieren. Shared und Unshared Tasks in den Digital Humanities sind ein vielversprechender Weg, Kollaboration und Interaktion zwischen Geistes-, Sozial- und ComputerwissenschaftlerInnen zu fördern und zu pflegen.

Konkret rufen wir dazu auf, gemeinsam an einem heterogenen Korpus zu arbeiten, in dem Entitätenreferenzen annotiert wurden (siehe unten). Das Korpus besteht aus:

  • Jeweils einer Rede aus insgesamt vier Parlamentsdebatten des Deutschen Bundestags (S.

    [...]

Quelle: http://dhd-blog.org/?p=7333

Weiterlesen

Tagung: Zeitregime und Geschichtswissenschaften

via Enrico Natale, infoclio.ch

infoclio.ch freut sich die folgende Tagung anzukündigen: Zeitregime und Geschichtswissenschaften am 14. Oktober 2016, Progr – Zentrum für Kulturproduktion (Waisenhausplatz 30), Bern

Seit Anbruch des digitalen Zeitalters ist immer wieder von einer radikalen Transformation der Zeitregime die Rede. «Präsentismus», «Beschleunigung» und «Krise der Zukunft» sind einige der Formulierungen zur Beschreibung dieser Veränderungen. Ist die Zeit wirklich aus den Fugen geraten? Die 8. infoclio.

[...]

Quelle: http://dhd-blog.org/?p=7154

Weiterlesen

Tagung in Bern: “Geschichtswissenschaften und Verlage im digitalen Zeitalter”

Der digitale Wandel und sein Einfluss auf das wissenschaftliche Publizieren, auf die AkteurInnen in der Geschichtswissenschaft und in den Verlagen steht im Zentrum der kommenden infoclio.ch – Tagung “Geschichtswissenschaften und Verlage im digitalen Zeitalter.” 

Am 15.11.2013 wird in Bern über die Zukunft des geschichtswissenschaftlichen Publizierens mit allen beteiligten AkteurInnen diskutiert, also mit Verlagen auf der einen und den Forschenden und den Instituten auf der anderen Seite.

Durch die Open-Access-Bewegung können traditionelle Publikationsmodelle abgelöst werden, was bei den AkteurInnen zu Unsicherheiten führen kann. Wie sehen hier die Erwartungen und Bedürfnisse der AkteurInnen aus? Wie ist das Verlagswesen derzeit aufgestellt und wie könnte es sich entwickeln?

Die Teilnahme ist kostenlos. Um Anmeldung wird gebeten.

Weitere Infos finden Sie hier.

Quelle: http://dhd-blog.org/?p=2517

Weiterlesen

Tagungsbericht zur ersten Digital Humanities Summer School Bern

Die (Inter-)Disziplin der digitalen Geisteswissenschaften (Digital Humanities) konturiert sich auch in der Schweiz immer deutlicher. Nach einer Reihe regionaler und nationaler Fachtagungen, erster Berufungen an Universitäten und eines ersten THATCamps – einer relativ informellen und stark partizipaitven Unconference –, das auch in die Nachbarländer und teilweise darüber hinaus ausstrahlte, fand vor wenigen Tagen mit der ersten Digital Humanities Summer School an der Universität Bern (26.-29. Juni 2013) ein weiterer bedeutender DH-Anlass statt. Wie das Lausanner THATCamp (2009) wurde die DH-Summer School durch ein bewährtes Konsortium aus Vertretern der Geschichtsplattformen infoclio.ch (als Hauptorganisator) und hist.net, des Vereins Geschichte und Informatik (also der Hausherren dieses Blogs), des DODIS-Editionsprojekts sowie von Forschenden der Universitäten Bern und Lausanne (LADHULDHLab) organisiert und durchgeführt. Dank eines attraktiven Programms mit Präsentatoren und Workshop-Leitern von internationalem Ruf waren die gut hundert Plätze im Frühjahr in kürzester Zeit an Teilnehmer aus zwanzig verschiedenen Ländern vergeben. 

Die viertägige Summer School begann am Mittowch, 26. Juni, mit einem Eröffnungsvortrag durch Ray Siemens, Universität Victoria CA und ADHO-Direktor, der das Verhältnis der Digital Humanities zu den hergebrachten Disziplinen und dem Spannungsfeld zwischen ihnen auszuleuchten versuchte, wobei seine wichtigsten Referenzpunkte Cathy Davidsons Begriff ‚Digital Humanities 2.0‘ und Willard McCartys ‚Methodological Commons‘ (ibi p. 118-119) waren. Erscheinen die Digital Humanities von aussen betrachtet verhältnismässig positivistisch geprägt, eröffnen sich aus der Innenperspektive vielerlei kritische Aspekte und unscharfe Grenzziehungen. Siemens plädiert dafür, den definitorischen Problemen nicht auszuweichen, da diesbezüglich eine gewisse Standfestigkeit notwendig sei, um die disziplinäre und interdisziplinäre Forschung voranzubringen.

Susan Schreibman, Trinity College Dublin, lieferte im nächsten Vortrag historischen Kontext zur Genese der Digital Humanities und den wechselnden Selbstverständnissen der Akteure, wobei sich der Bogen von Roberto Busas Lochkarten-basierter Thomas von Aquin-Konkordanz bis hin zu virtuellen Welten spannte, welche die Beantwortung ganz konkreter Fragestellungen ermöglichen sollen, letzteres veranschaulicht durch das laufende Easter Rising-Projekt und dessen virtuelles Strassenpanorama, das, situative Begebenheiten und das Potential der verwendeten Waffen berücksichtigend, Aufschluss über mögliche Opferzahlen während des Dubliner Osteraufstandes von 1916 geben soll. Die Anekdote des zunächst irrtümlicherweise online frei zugänglich gemachten Bandes ‚Digital Humanities‘, welche den Verkauf des Werks erst recht angekurbelt hat, ermöglichte einen interessanten Bezug zu den im Wandel begriffenen Publikationsmodellen und den damit einhergehenden Fragen nach wissenschaftlicher Anerkennung und in der Verlängerung zur viel diskutierten Wertfrage des ‚building and making‘ im Gegensatz zu ‚reading and critique‘. Durch sich verschiebende Gewichte und den postulierten ‚object life cycle‘ bzw. genereller durch die Bestrebungen zur langfristigen Kuration von Forschungsdatenbeständen deutet sich nach Schreibman eine gewisse Konvergenz der bis anhin disparaten Arbeitsfelder von Forschern und Dokumentalisten (Bibliothekaren, Archivaren) an.

Vermochten diese beiden einführenden Referate die Entwicklung und den gegenwärtigen Stand digitaler geisteswissenschaftlicher Forschung einigermassen abzustecken, blieb das inspirierende Moment vielleicht etwas hinter den Erwartungen zurück. Illustrieren lässt sich dies beispielsweise am (zu) verbreiteten Visualisierungstyp der Begriffswolke (word cloud, wordle; bisweilen auch als Vokuhilas des Internets bezeichnet), den Siemens wie Schreibman in ihren Präsentationen verwendeten, was aus dem Publikum prompt hinterfragt wurde und einer Diskussion über den Einsatz von Werkzeugen Weg bereitete, deren Mechanismen häufig nicht evident sind und die folglich Resultate verzerren können.

UmstritteneBegriffswolken-300x223Claire Clivaz, Ray Siemens; Bild: Martin Grandjean

 

Elena Pierazzo, Kings College London, verband in ihrem Vortrag kommunikations- und texttheoretische Aspekte konzise mit den vielfältigen praktischen Herausforderungen, die digitale Editionsprojekte mit sich bringen. Ausgehend von der grundlegenden Unterscheidung der linguitischen Konstruktion (Text) vom physischen Objekt (Dokument) erörterte sie das editorische Spektrum, das von einfachen, evident gegliederten, neoplatonischen Texten über Leseausgaben, kritische Editionen und diplomatische Editionen hin zu dokumentnahen Faksimile-Editionen reicht. Seit mehreren Jahrzehnten kommt dabei besonders der materiellen Dimension von Texten grössere Bedeutung (critique génétique, material/new philology) zu, was die — ohnehin komplexe und konventionalisierte — editorische Praxis weiter ausdifferenziert hat. Mit dem Transfer der zugehörigen Editionsformen in den digitalen Raum stellen sich viele Fragen, deren wichtigste Pierazzo schlaglichtartig tangierte und mit zugleich illustrativen und beeindruckenden Beispielen veranschaulichte. Ihr eigener vor dem Hintergrund der Arbeit der TEI Manuscripts SIG entstandener Proust-Prototyp lässt den Leser durch die sequentielle Anzeige von Textpassagen beispielsweise gleichsam dem Autor bei der Entstehung des Texts über die Schultern blicken. Zur Sprache kam mehrfach auch die Position des Editors, dessen Textverständnis im Encoding manifest wird und dessen Rolle und Autorität gerade auch bei Crowdsourcing-Editionsprojekten definiert werden sollte. Zum Themenkreis digitaler Editionsformen vgl. aktuell und ausführlich Sahle (2013) und dann vor allem auch Pierazzos neues Werk zu digital scholarly editions, das in absehbarer Zeit verfügbar sein wird.

In seinem zweiten Vortrag, der sich mit der sozialen Wissenskonstruktion und -produktion (in den Literaturwissenschaften) befasste, äusserte Ray Siemens die These, dass grössere Datenmengen, beschleunigte Arbeitsweisen, unmittelbarere und dichtere Kommunikation sowie verstärkte Teilhabe des Publikums in der Datenerzeugung und im wissenschaftlichen Diskurs das Potential hätten, Forschungsfragen und Forschungsprozesse wesentlich zu beeinflussen. Anknüpfend an die Arbeit des Electronic Textual Cultures Lab (ETCL, U Victoria), und vor dem Hintergrund, dass Wissen in der Regel in chaotischen Strukturen und unter sehr unterschiedlichen Bedingungen entsteht, wobei gerade die informelle Forschungskommunikation bedeutsam ist, beschrieb Siemens eine Umdeutung der Rolle der Forschenden im digitalen Umfeld von didaktischen Autoritäten hin zu Wissensermöglichern (facilitators of knowledge). Kollaborative Werkzeuge, welche grundlegende Funktionen wie die Bereitstellung von Materialien, deren Annotation, Verzeichnung und Analyse ermöglichen — durch Siemens anhand einer Fülle von Beispielen dargelegt, etwa zur Honorierung freiwilliger Partizipation (Gamification), ergänzt durch eine hervorragende annotierte Bibliographie –, sind in diesem Kontext für die Wissensproduktion elementar. Wissen entsteht vor einem grösseren Publikum und durch mehr Akteure, seine Produktion verlagert sich im akademischen Kontext wie in anderen Bereichen (z.B. Journalismus) ausserhalb institutioneller Strukturen. Aus diesen Überlegungen leitet Siemens eine Reihe von Forderungen an zeitgenössische Forscher ab: Damit (Geistes-)Wissenschaftler die Entwicklung neuer Methodologien und Kommunikationsformen mitprägen können, müssen sie die Potenziale neuer Medien untersuchen, um sie bestmöglich zu verstehen, die Mechanismen kollaborativer Arbeitsinstrumente kennen, Grenzen ausloten, unterliegende Ideologien freilegen und einfache positivistische Ansätze in Frage stellen. Neben engagiertes Gestalten und Kreieren soll eine kritische Theorie treten, welche ethische und disziplinäre Standards ständig reflektiert.

Viele der zuvor anklingenden Implikationen der Erweiterung geisteswissenschaftlicher Disziplinen um neue Ansätze und Methoden auf theoretische, moralische und gesellschaftliche Belange bündelte David Berry, Swansea University, in einem dicht befrachteten Vortrag zu DH und Kulturkritik bzw. den Critical Digital Humanities. Auch er setzt bei der Definition und Abgrenzung des Feldes an, dabei er Stephen Ramsays DH-Typisierung aufnehmend, die der vorab praktisch orientierten und relativ institutionalisierten Community wie sie sich in den frühen 1990er Jahren unter dem Schlagwort Computing in the Humanities formierte (DH-Typus I), eine neuere weniger klar umrissene Bewegung entgegenstellt, deren Interessen breit gefächert sind und die mit bisweilen revolutionärer Gesinnung eine eigentliche Erneuerung der Geisteswissenschaften anstrebt (DH-Typus II; Medientheoretiker, Kulturkritiker, Digitalkünstler). Der Frage, was sich in der Konfiguration der geisteswissenschaftlichen Forschung wirklich verändert, näherte sich Berry aus den Perspektiven der Quantifizier- und Kalkulierbarkeit, der Organisation und des Beschleunigungspotenzials. Mit der Überhandnahme eines metrischen Paradigmas, das Hermeneutik durch Mathematik ersetzt und die Formalisierung der Forschung befördert, verändert sich auch der organisatorische Rahmen: Forschung wird projektbezogen betrieben und Administratoren und Projektleiter machen Professoren das Terrain streitig. Zugleich beschleunigt sich die Forschungstätigkeit durch effiziente Analyseformen, hochgradig responsive Kommunikationsmittel und eine in manchen Fällen ausbeuterische Arbeitsteilung. Vorwürfe, die Digital Humanities seien zuvörderst eine opportunistische und marktanbiedernde Ausrichtung der Forschung nach Kosten-Nutzen-Forderungen lassen sich nach Berry nicht kategorisch von der Hand weisen, gibt es doch deutliche Parallelen zwischen DH-Diskursen und Managementfloskeln. Näher betrachtet handle es sich aber um genuin geisteswissenschaftliche Betätigung, die keineswegs bewährte Forschungsprinzipien leichtfertig gegen die gerade angesagtesten Technologien und Ansätze eintauscht. Dafür, dass „digital“ in der politischen Ökonomie der Universitäten längst ein Schlüsselwort im Erschliessen neuer Geldquellen ist, gibt es jedoch zahllose Belege. Berry fordert zurecht mehr Anerkennung für die bereits geleistete kritische Arbeit und mehr Unterstützung für ihren Ausbau. Der möglicherweise resultierende Verlangsamungseffekt könne durchaus produktiv sein, indem die Forschung durch verstärkte Reflexion profitiere, gerade auch jenseits der Projektebene in der längerfristigen Perspektive.

Im Gegensatz zu Berrys übergreifendem Vortrag konzentrierte sich jener von Claire Lemercier, CNRS-Sciences Po, Paris, über Netzwerkanalyse auf eine spezifische Forschungsmethode, ohne es aber zu missen, Bezüge zu quantitativen Methodolgien zu schaffen. Im Vordergrund standen dabei nicht konkrete analytische Werkzeuge, sondern die formalen Möglichkeiten, Forschungsdaten einer Linse gleich aus verschiednen Winkeln und Distanzen zu untersuchen. Das Potential der Methode liege weniger in attraktiven Visualisierungen komplexer (und oftmals wenig aussagekräftiger) Netzwerke als in der Möglichkeit, vorhandene und fehlende Bezüge auf verschiedenen Ebenen zu betrachten und isolierte Effekte aufzuspüren. Der Forschungsprozess soll dabei von der Datensammlung in einem Archiv bis zur Publikation der Resultate von formalen Überlegungen begleitet werden, die es durch eine vorausschauende, der Dimensionalität bewusste Datensatzmodellierung erlauben, einengende Abhängigkeiten im weiteren Forschungsprozess zu vermeiden. Genaue Kenntnisse über den Aufbau eines Datensatzes und daraus abgeleitet mögliche interessante Fragestellungen beeinflussen die Auswahl des Analysewerkzeuges grundsätzlich. Der Netzwerkanalyse verwandte Methoden wie die geometrische Analyse, die multiple Korrespondenzanalyse, die Sequenzanalyse oder auch klassische deskriptive Statistik sind für manche Forschungszwecke besser geeignet als die soziale Netzwerkanalyse, die ihrerseits eigentlich eine Vielfalt von Spielarten umfasst. Die Netzwerk-Sichtweise kann in vielen Bereichen produktiv sein — als Netzwerke aufgefasst werden können Beziehungen unter und zwischen Personen und Organisationen aber auch historischen Ereignissen und Quellen oder linguistischen Einheiten –, um Korrelationen und Beziehungsmuster aufzudecken, sie sollte aber immer auch durch einen qualitativen Blickwinkel auf die Daten ergänzt werden.

Im letzten Vortrag der Summer School präsentierte Frédéric Kaplan, EPFL Lausanne, das kürzlich angelaufene Venice Time Machine-Projekt von EPFL und Universität Ca’Foscari (Digital Humanities Venice) und mithin seine Vision, durch effiziente Digitalisierung und Datenextrapolation vergangene Zeiten virtuell zu erschliessen und durch die Erkenntnisse wesentlich zu einer temporalen Kartografierung von Städten, Ländern und Kontinenten beizutragen. Erste Voraussetzung für die Kreation einer solchen ‚Zeitmaschine‘ ist die Anhäufung zuverlässiger Daten über die Vergangenheit. Wir verfügen nämlich über eine enorme Datendichte in der Gegenwart, die aber bereits für die vorhergehende Dekaden und mehr noch für vergangene Jahrhunderte sehr viel bescheidener ist. Im Venedig-Projekt sollen zu diesem Zweck im Verlauf der nächsten zehn Jahre rund 80 Laufkilometer Archivalien mit über 100 Millionen Dokumenten, die aus einem Zeitraum von über 1000 Jahren stammen und in verschiedenen Sprachen und Dialekten verfasst wurden, digitalisiert und interoperabel aufbereitet werden, so dass dereinst geschätzte 10 Milliarden ‚Ereignisse‘ (Datenpunkte, factlets) abgefragt werden können. Kaplan und sein Team sehen einer Vielzahl von Stolpersteinen entgegen, denen sie mit innovativen Methoden begegnen wollen: optimierte Scan-Roboter (Vision einer Abtastung der Information in geschlossenen Büchern), verbesserte Texterkennung durch Kontextwissen (analog der Spracherkennung), Nutzung der frei erhältlichen Mithilfe tausender motivierter Studenten gegen Akkreditierung von Kursleistungen in massive open online courses (MOOCs), graphbasierte semantische Informationsmodellierung (RDF), Extrapolation und Simulation fehlender Informationen. Der geisteswissenschaftlichen Forschungsdaten eigenen Ungenauigkeit und Unsicherheit soll durch die Zuweisung ‚fiktiver Räume‘, die in Aggregation Wahrscheinlichkeitsaussagen zulassen, begegnet werden, so dass unter einer Vielzahl potentiell möglicher Vergangenheiten die plausibelsten eruiert werden können. Es handelt sich zweifellos um ein hochinteressantes Projekt mit viel Potential für verschiedene Bereiche. Ob die angestrebte effiziente semantische Erschliessung aber in den nächsten Jahren Realität wird und zufriedenstellende Resultate liefern kann, vermag aus heutiger Warte jedoch gewisse Zweifel zu wecken.

Die sieben vielseitigen und interessanten Vorträge wurden durch zwölf Workshops und sieben Unconference-Sessionen ergänzt, die erfreulicherweise oftmals mit einem direkten Bezug zu den Vortragsthemen angeboten wurden und theoretische (Critical Digital Humanities, Zugänglichkeit und Quellenkritik digitaler/digitalisierter Quellen), disziplinäre (DH und die akademische Lehre) und methodische Belange (Datenaufbereitung, Textanalyse, digitale Editionen von Text und Musik, Visualisierungsmethoden, individuelle und kollektive Arbeitspraktiken) sowie deren Überschneidung (semantisch modellierte Forschungsumgebungen) vertieften. Aufgrund der begrenzten verfügbaren Zeit blieb es in vielen Workshops bei der Demonstration und Diskussion, vereinzelt konnten die Teilnehmer aber erfreulicherweise auch durchaus selber aktiv werden, etwa in den Workshops zu TEI-Editionen (E. Pierazzo), Textanalyse (S. Schreibman), Literaturverwaltung (N. Chachereau) oder Gephi-Visualisierungen (M. Grandjean). Für künftige Veranstaltungen sind diese Tutorien-ähnlichen Blöcke sicher sehr wünschenswert, vielleicht auch in ausgedehnter Form über mehrere Zeiteinheiten hinweg oder als eigenständige Hands-on-Tagesveranstaltungen.

Im Rahmen eines Project Slams stellten rund ein Drittel aller Teilnehmer in Kürzestpräsentationen ihre aktuelle Tätigkeit oder ihr hauptsächliches Forschungsinteresse vor, was eine grosse Bandbreite disziplinärer und thematischer Herkunft offenbarte, die sich zuvor schon in den Diskussionen angedeutet hatte. Mit einem ungezwungenen Diner, gemütlichen Abendstunden in der Bundesstadt, einem spontan organisierten Erfahrungs- und Hintergrundbericht von den Taksim Gezi-Park-Protesten in Istanbul durch zwei Teilnehmer und schliesslich einem Abschluss-Picknick, das aufgrund der Witterung leider nicht draussen durchgeführt werden konnte, bot die Summer School gute Gelegenheit, Kontakte zu knüpfen und Erfahrungen und Visionen zu teilen. Es bleibt zu hoffen, dass der ersten Digital Humanities Summer School in der Schweiz weitere folgen werden, woran dank der zunehmenden Verankerung der Digital Humanities auch hierzulande eigentlich kaum zu zweifeln ist. Mit der Ausrichtung der DH 2014 in Lausanne (6.-12. Juli) zeichnet sich für nächstes Jahr bereits ein hervorragender Anknüpfpunkt ab!

 

Cross-posting: http://blog.ahc-ch.ch/2013/07/tagungsbericht-zur-ersten-digital-humanities-summer-school-bern

Quelle: http://dhd-blog.org/?p=1952

Weiterlesen

Save the Date: First Swiss Digital Humanities Summer School

The first Digital Humanities Summer School in Switzerland will take place next year in Bern! Hosted by the University of Bern and organized by a network of Swiss university and research institutions, the first Digital Humanities Summer School Switzerland will feature well-known international scholars of Digital Humanities for four days of intensive training. More news [...]

Quelle: http://weblog.hist.net/archives/6482

Weiterlesen

Ausschreibung für 2 Digital Humanities Professuren in Leipzig und Bern

Mitgeteilt via GCDH:

UNIVERSITÄT LEIPZIG – W3 Digital Humanities – Frist: 06.08.2012

An der Fakultät für Mathematik und Informatik ist zum nächstmöglichen Zeitpunkt folgende Professur zu besetzen: W3-Professur Digital Humanities. Die Fakultät sucht eine/n international ausgewiesene/-n Wissenschaftler/-in auf dem Gebiet der Digital Humanities, der/die sowohl in den Geisteswissen-schaften als auch der Informatik ausgewiesen ist, und über Erfahrungen im Aufbau und Betrieb eines großen Digital Humanities Portals sowie in der interdisziplinären Lehre verfügt. Beispiele für Arbeitsfelder, auf denen sich das Institut für Informatik im Bereich der Digital Humanities verstärken möchte, sind: Text Mining basierte Analysen historischen Wissenstransfers in der antiken Welt, die Wechselwirkungen zwischen der antiken und arabischen Welt, die Nutzung interaktiver Visualisierungen und modell-basierter Simulationen für die Analyse unseres kulturellen Erbes. Zu den Aufgaben der Professur gehört insbesondere der Aufbau eines internationalen Masterstudienganges “Informatik für die Geisteswissenschaften” zusammen mit der Professur für Computational Humanities.

Die Ausschreibung erfolgt im Rahmen des Programms der Alexander von Humboldt-Professur – Internationaler Preis für Forschung in Deutschland der Alexander von Humboldt-Stiftung. Voraussetzung für die Ruferteilung ist eine positive Begutachtung des/der Kandidaten/-in durch die Alexander von Humboldt-Stiftung mit Gewährung einer Alexander von Humboldt-Professur. Die Bewerber/-innen müssen die Berufungsvoraussetzungen gemäß § 58 SächsHSG erfüllen. Die Universität Leipzig legt Wert auf die berufliche Gleichstellung von Frauen und Männern. Schwerbehinderte werden zur Bewerbung aufgefordert und bei gleicher Eignung bevorzugt berücksichtigt. Bewerbungen richten Sie mit den üblichen Unterlagen (unter Beifügung einer Liste der wissenschaftlichen Arbeiten und der akademischen Lehrtätigkeit, einer beglaubigten Kopie der Urkunde über den höchsten erworbenen akademischen Grad und des Nachweises der Qualifikation für das Berufungsgebiet) bitte bis 06. August 2012 an: Universität Leipzig, Dekan der Fakultät für Mathematik und Informatik, Herrn Professor Dr. Hans-Bert Rademacher, Postfach 10 09 20, 04009 Leipzig

—————————————————————–

UNIVERSITÄT BERN – Assistenzprofessur Digital Humanities – Frist: 01.09.2012

Zum 1. Februar 2013 ist an der Philosophisch-historischen Fakultät der Universität Bern eine Assistenzprofessur in “Digital Humanities” neu zu besetzen. Die Stelle ist zunächst auf vier Jahre befristet. Eine Verlängerung um zwei Jahre ist nach positiver Evaluation möglich. Die Inhaberin/der Inhaber der Assistenzprofessur vertritt das Fach “Digital Humanities” an der Philosophisch-historischen Fakultät der Universität Bern in Forschung und Lehre. Sie/er ist wissenschaftlich ausgewiesen durch einschlägige Forschungen zur Verwendung von computergestützten Verfahren und digitalen Ressourcen in den Geistes- und Kulturwissenschaften, etwa in der Textanalyse, in der Visualisierung komplexer Datenanalysen, in digitalen Editionen oder in der Erschliessung von Archiven. Die Assistenzprofessur soll ein spezifisches Profil durch die geistes- und kulturwissenschaftliche Ausbildung der Inhaberin/des Inhabers erlangen, das sowohl in Lehre als auch Forschung sichtbar sein muss.

Erwartet wird  daher die Habilitation oder eine gleichwertige wissenschaftliche Leistung in einer geistes- oder kulturwissenschaftlichen Disziplin. Sie/er hat Erfahrung in der Einwerbung von Drittmitteln. Erwartet werden die Bereitschaft zur interdisziplinären Zusammenarbeit am fakultären Center for Cultural Studies sowie die Beteiligung an laufenden Studienprogrammen und an Forschungen am interfakultären Netzwerk digitale Information. Von der Stelleninhaberin/dem Stelleninhaber wird neben der Betreuung der Studierenden und Doktorierenden auch die Mitarbeit an fakultären und universitären Aufgaben verlangt. Die Universität Bern strebt eine Erhöhung des Frauenanteils in akademischen Führungspositionen an und fordert deshalb Wissenschaftlerinnen nachdrücklich auf, sich zu bewerben. Bewerbungen mit Curriculum Vitae, Verzeichnis der Publikationen, Liste der eingeworbenen Drittmittel, Angaben über bisherige Lehrtätigkeit, Lehrevaluationen sowie die Mitarbeit in akademischen Gremien sind bis zu
m 1. September 2012 als PDF-Datei einzureichen bei kueffer@histdek.unibe.ch Weitere Informationen auf www.philhist.unibe.ch/content/jobs/ Universität Bern, Philosophisch-Historische Fakultät, Länggassstrasse 49, 3012 Bern www.philhist.unibe.ch

Quelle: http://dhd-blog.org/?p=710

Weiterlesen