SlaVaComp bietet Tätigkeit auf Werkvertragsbasis

Stellenausschreibung im Auftrag von Dr. Susanne Mocken (Albert-Ludwigs-Universität Freiburg)

An der Freiburger Albert-Ludwigs-Universität ist im Rahmen des BMBF-geförderten Projekts „SlaVaComp – Computergestützte Untersuchung von Variabiltät im Kirchenslavischen“ zum nächstmöglichen Zeitpunkt eine Beschäftigung auf Werkvertragsbasis (Zeitumfang ca. 60h/Monat) zu vergeben.

Worum geht es? Wir benötigen Unterstützung bei der Transformation von in Textform vorliegenden Glossaren in TEI-konformes XML.

Was erwarten wir? Kenntnisse in einer Skriptsprache (Perl, Python …) oder auch einer anderen Programmiersprache. Darüber hinaus Interesse am Umgang mit natürlichen Sprachen, Engagement sowie sorgfältiges und eigenverantwortliches Arbeiten.

Was bieten wir? Interessante Tätigkeit bei freier Zeiteinteilung und Möglichkeit zur Telearbeit. Ideal für StudentInnen der Informatik oder Computerlinguistik.

Kenntnisse der russischen Sprache bzw. des griechischen und/oder kyrillischen Schriftsystems sind von Vorteil, aber nicht Voraussetzung.

Die Auswahl erfolgt nach den Regeln des AGG (Allgemeines Gleichbehandlungsgesetz).

Kontakt und weitere Informationen:

Dr. Susanne Mocken
susanne.mocken@rz.uni-freiburg.de

Quelle: http://dhd-blog.org/?p=3320

Weiterlesen

Unser Call4Papers für die Ad-hoc-Gruppe beim DGS-Kongress 2014 zum Thema: „Krise der Kommunikation: Wo bleibt der soziologische Diskurs?“

Unter dem Stichwort „Kommunikationskrisen der Soziologie“ möchten wir der Unterrepräsentation der Soziologie im wissenschaftlichen Diskurs und in der Öffentlichkeit nachgehen. Wir wollen zu den Anfängen der Soziologie zurückblicken und uns fragen, welche Funktion sich die Gründer für die Soziologie versprachen … Continue reading

Quelle: http://soziologieblog.hypotheses.org/6422

Weiterlesen

Nachlese DHd 2014: Forschungsfragen und -methoden

Die Auftakt-Session der DARIAH-DE Pre-Conference widmete sich Forschungsfragen- und Methoden (digitaler) Geisteswissenschaften. Christof Schöch (Uni Würzburg) und Dirk Wintergrün (MPIWG) gaben darin einen Überblick über das Methodenfeld unter Einbeziehung von veranschaulichenden Use Cases und stellten Überlegungen zu Grundfunktionen digitaler Forschungsumgebungen an.

Einen roten Faden dieser Methoden-Sitzung bildete der Umgang mit der Heterogenität der Geisteswissenschaften – repräsentiert durch ein interdisziplinär aufgestelltes Fachpublikum mit unterschiedlichen Forschungsinteressen – und ihrer Auswirkung auf Tools sowie das Erzielen möglicher Synergie-Effekte. Die Interaktion von GeisteswissenschaftlerInnen untereinander und mit/tels Anwendungen sind Ziele, die es durch eine tragende Forschungsinfrastruktur bestmöglich zu unterstützen gilt.

So wurden Möglichkeiten zum Auffinden methodischer Gemeinsamkeiten über Disziplinen- und Projektgrenzen hinweg ebenso diskutiert wie der Transfer geisteswissenschaftlicher Methoden in eine technische Umsetzung. Schließlich wurde die Rolle von Forschungsinfrastrukturen und ihre Anforderungen anhand der Themenfelder ‘Annotation’ und ‘Big Data’ (in DARIAH II vertreten durch entsprechend thematisch ausgerichtete Cluster) perspektivisch aufgezeigt.

Eine Herausforderung an Tools und Dienste, die beim Beantworten geisteswissenschaftlicher Fragestellungen helfen oder weitere Forschungsfelder eröffnen, liegt darin, so generisch ausgerichtet zu sein, dass sie für verschiedene Kontexte Relevant haben. Aus einer generischen Basisinfrastruktur heraus müssen jedoch problemorientierte, spezifische Fragestellungen adressiert werden können. Anhand von zwei Beispielen, der Taxonomy of Digital Research Activities in the Humanities (TaDiRAH) und des DARIAH-DE GeoBrowsers lässt sich dieses Verfahren veranschaulichen:

Bei TaDiRAH handelt es sich um ein von der Community mitgestaltetes Taxonomie-Projekt von DARIAH-DE, DiRT und DHCommons, das anwendungsorientiert ist, indem es ausgehend von generisch angelegten Forschungszielen und –methoden die Möglichkeit bietet, Objekte und Techniken maßgeschneidert für den konkreten Anwendungsfall zu kombinieren und einen strukturierten Zugang zu den Daten zu eröffnen. Auf diese Art ist die Verwendung der Taxonomie in verschiedenen Bereichen von der Auszeichnung von Tool-Verzeichnissen (DiRT) über die Anreicherung bibliografischer Angaben (DARIAHs Doing DH Bibliography) möglich. Gleichzeitig kann TaDiRAH zur Reflexion über die digitale Forschungspraxis im Allgemeinen herangezogen werden.

Der in DARIAH-DE entwickelte GeoBrowser ermöglicht die Visualisierung einer zeitlich/geografischen Verteilung und bildet somit ein Paradebeispiel vielseitiger Einsatzmöglichkeiten, die von der Analyse von Raum-Zeit-Relationen bis hin zur Visualisierung entsprechender Daten und deren Anreicherung mit existierenden Ressourcen reicht.

Mit Digivoy liegt zudem ein Beispiel vor, das zeigt, wie ein etabliertes Tool – in diesem Fall die von Stéfan Sinclair und Geoffrey Rockwell entwickelten Textanalysewerkzeuge, Voyant Tools, zur Analyse eines bestehenden Angebotes (das TextGridRep) integriert werden kann.

Ein abschließender Blick auf die Themenfelder Big Data und Annotation veranschaulicht zum einen die unterschiedliche disziplinäre Auffassung der Begriffe und zeigt zum anderen das Potential digitaler Verfahren für die Geisteswissenschaften.

Das geisteswissenschaftliche ‘Big Data’ definiert sich dabei nicht über Terabyte-Einheiten. Vielmehr sind es heterogene Faktoren wie Strukturiertheit der Daten und der Grad ihrer semantischen Erschließung, die geisteswissenschaftliche Daten zu komplexen Big Data werden lassen. Hinzu kommt, dass der riesige Pool geisteswissenschaftlicher Daten (“Die meisten Daten, die da draußen rumlungern sind geisteswissenschaftlicher Art!”) nicht nur heterogenes Material umfasst sondern es sich dabei auch um verteilte Daten handelt. Mittels quantitativer Verfahren ist es nun erstmals möglich, diese Daten analysieren zu können. Entscheidendes Kriterium ist dabei die Skalierbarkeit digitaler Methoden, die gleichzeitig den Mehrwert gegenüber (rein) händischen Verfahren ausmacht.

Am Annotationsbegriff zeigen sich Heterogenität und Homogenität der (digitalen) Geisteswissenschaften gleichermaßen. Das Annotieren ist eine disziplinübergreifend etablierte Praxis. Dabei reicht das Spektrum des Begriffs vom Anfügen von Notizen bis hin zu einer vollständigen Tiefenerschließung. Hinzu kommt die Anwendbarkeit auf eine Vielfalt von Daten, z.B. Bildannotationen, Fußnoten im erweiterten Sinn oder Verknüpfungen zwischen Quellen etc.

Das Beispiel der Annotation verdeutlicht den Bedarf weiterer Annäherungen. Diese zu leisten und die wesentliche, aber keineswegs triviale Verbindung zwischen Daten und Tools herzustellen, fordert einerseits digital arbeitende GeisteswissenschaftlerInnen und erfordert andererseits eine Infrastruktur notwendig, die sie dabei unterstützt, indem sie ihre Vernetzung befördert und Schnittstellen über Standards bereitstellt.

 

Referenzen:

DHd 2014. Digital Humanities – methodischer Brückenschlag oder ‘feindliche Übernahme’? Chancen und Risiken der Begegnung zwischen Geisteswissenschaften und Informatik, 1. Jahrestagung der Digital Humanities im deutschsprachigen Raum, 25.-28. März 2014, Universität Passau, http://www.dhd2014.uni-passau.de/

Digivoy: Schöch, Christof. Digivoy. TextGrids Digitale Bibliothek mit Voyant entdecken. https://de.dariah.eu/digivoy

GeoBrowser: http://geobrowser.de.dariah.eu/

TaDiRAH: Taxonomy of Digital Research Activities in the Humanities. V. 0.5, Februar 2014. https://github.com/dhtaxonomy/TaDiRAH

Voyant: Sinclair, Stéfan; Rockwell, Geoffrey. Voyant Tools. Privacy v. 1.0 beta. 2014. via http://voyant-tools.org

Quelle: http://dhd-blog.org/?p=3316

Weiterlesen

Ein filmographisches Mysterium: Ins Blaue hinein

Das Regiedebüt des Kameramannes Eugen Schüfftan, das Leinwanddebüt von Theo Lingen: Ins Blaue hinein heißt dieser Film. Entstanden ist er wahrscheinlich 1930, doch eigentlich weiß man nahezu nichts. Eine 35minütige Tonfilmskizze im Stil von Menschen am Sonntag (1930) an dem Schüfftan als Kameramann beteiligt gewesen war; wahrscheinlich ebenso wie dieser als privat finanziertes Experiment in Angriff genommen, um zu beweisen, dass sich Tonfilm und Außenaufnahmen nicht ausschließen. Öffentlich aufgeführt wurde Ins Blaue hinein womöglich erst zur Berlinale 1998 – umkopiert von einer Nitrokopie, die ein Schweizer Privatsammler im Centre National de la Cinématographie, Service des Archives du Film, Bois d’Arcy, deponiert hatte. Martin Koerber hatte den Filmtitel dort auf einer Liste ungesicherter Nitromaterialien entdeckt, den Film gesichtet, er „war gleich verliebt – ein kleines, unbekümmert frisches Experiment mit Bildern und Tönen, zugleich ‘Querschnittsfilm’ und Schauspielerübung, musikalische Komödie und Kamera-Manifest“ (Koerber). Recherchen ergaben: nichts. Keine Zensurkarte, kein Hinweis in den Zensurlisten oder der zeitgenössischen Presse. Eine Uraufführung in Deutschland ist nicht nachweisbar. Hinweise zur Entstehung und Geschichte dieses Films werden weiterhin gerne entgegengenommen.

Am Freitag dem 4. April 2014 wird die 35mm Kopie der Deutschen Kinemathek im Zeughauskino des Deutschen Historischen Museums in Berlin gezeigt. Notfalls kann man sich den Film auch auf der bei Criterion erschienenen DVD oder Blu-ray People on Sunday anschauen, der Ins Blaue hinein als Bonusmaterial beiliegt.

Ins Blaue hinein, 1930 (?)

Regie: Eugen Schüfftan, Buch: Dr. Herbert Rona, Kamera: Laszlo Schäffer, Ton: Franz Schröter, Musik: Harry Ralton, Musikalische Leitung: Alfred Strasser, Regieassistenz: Dr. Herbert Rona, Darsteller: Toni van Eyck, Karl Balhaus, Aribert Mog, Theo Lingen, Wolfgang Staudte, Franz Stein, Werner Scharf, Alice Iversen, Helene Roberts, Produktion: Prisma-Produktion, Tonsystem: Lignose-Hörfilm, Tonkopie: Fitiko.

Kopie: Deutsche Kinemathek – Museum für Film und Fernsehen, 966 m

Quelle: http://filmeditio.hypotheses.org/177

Weiterlesen

Bericht zur Tagung „Vom Nutzen der Editionen“

Tagungsbericht von Christian Griesinger (Trier Center for Digital Humanities)

Die 15. internationale Tagung der „Arbeitsgemeinschaft für germanistische Edition“ fand vom 19. bis 22. Februar 2014 an der Universität Aachen statt. In ca. 50 Vorträgen aus den Bereichen der Älteren und Neueren Germanistik, der Musikwissenschaft, Philosophie, Geschichte, Hochschuldidaktik und dem Verlagswesen wurden nicht nur verschiedene Aspekte des Tagungsmottos „Vom Nutzen der Editionen“ beleuchtet, sondern auch aktuelle Editionsvorhaben unter Berücksichtigung des zu erwartenden Nutzens vorgestellt. Die Tagung wurde aufgrund des großen Themenangebots in Plenarvorträge und mehrere parallel zueinander verlaufende Sektionen unterteilt. Daher kann der Tagungsbericht eines einzelnen Berichterstatters nicht alle Vorträge und diskutierten Themen darstellen, sondern muss sich auf eine subjektive Auswahl einzelner Referate sowie übergreifender Tendenzen beschränken für weiterführende Lektüre sei auf den geplanten Tagungsband verwiesen.

Aspekt Digitale Edition, Visualisierung und Vernetzung

Viele Vorträge der Tagung bestätigten den sich fortsetzenden Trend von der analogen zur digitalen (Hybrid-)Edition. In vielen Fällen kommt nun die Auszeichnungssprache XML in Verbindung mit den Richtlinien der TEI für die Kodierung der Texte zum Einsatz. Die Projektvorhaben umfassen häufig neben einer Druckausgabe zusätzlich eine webbasierte Publikation der Edition und stellen viele ihrer Materialien auf den Projekthomepages zur Verfügung.

So stellte beispielsweise Jakub Šimek die laufende Neuedition des Welschen Gastes Thomasins von Zerklære‘ vor, die seit 2011 in Heidelberg erarbeitet wird. Diese Ausgabe wird eine diplomatische Transkription aller erhaltenen Textzeugen sowie eine Bilddatenbank mit sämtlichen Bilderzyklen enthalten, so dass eine reine Druckfassung schon wegen des Umfangs nicht praktikabel erscheint. Für die Rezipierbarkeit und Verbreitung der Edition ist eine Druckversion des nach dem Leithandschriftenprinzip kritisch edierten Textes geplant, während die diplomatischen Texte der Onlineversion vorbehalten sind. Ein weiterer Fokus der Onlineversion soll auf der Visualisierung des Variantenapparates liegen: Die chronologische Distribution der verschiedenen Lesarten zu einer Textstelle soll sich der Benutzer auf einer Zeitleiste darstellen können, die diatopische Distribution der Überlieferungsträger auf einer elektronischen Landkarte. Das Projekt ist zudem bemüht, die Editionstexte mit dem in Trier digitalisierten und gepflegten „Wörterbuchnetz“ und nach Möglichkeit auch mit dem neuen „Mittelhochdeutschen Wörterbuch“ durch das Verfahren der Lemmatisierung zu verknüpfen.

Die laufenden Unternehmen zu Briefeditionen – wie das von Vera Hildenbrandt und Roland Kamzelak vorgestellte Projekt „Vernetzte Korrespondenzen“ – beschäftigen sich ebenfalls intensiv mit Visualisierungsverfahren, um soziale Netzwerke der Briefschreiber und ihre Themen und Inhalte graphisch ansprechend darzustellen. Auch hier werden Inhalte, zum Beispiel Personen und Orte, mit einem Referenzwerk, der Gemeinsamen Normdatei (GND), verlinkt.

Es zeigt sich demnach, dass Editionen nicht mehr als für sich stehende Werke begriffen werden, sondern in einen übergeordneten Forschungskontext eingeordnet und an verschiedene Standards der Kodierung und Vernetzung angepasst werden. Die Verweise auf die lexikographischen Werke oder die Datenbanksysteme der Normdaten, die nur im elektronischen Medium ihr volles Potenzial ausschöpfen können, ermöglichen editionsübergreifende Fragestellungen und erleichtern sowohl den Datenaustausch als auch die Weiternutzung der Editionen in anderen Kontexten. Mit der wachsenden Komplexität der erarbeiteten Editionen steigt allerdings auch das Bedürfnis der Editoren wie auch der Editionsbenutzer, die Sachverhalte visuell darzustellen.

Leider spielte die einstmals engen fachlichen Verbindung von Editionswissenschaft, Wörterbuch- und Grammatikschreibung auf der Tagung nur eine Nebenrolle. Es wäre wünschenswert, die wechselseitige Nutzung von Editionen in den Wörterbücher- und Grammatikvorhaben wie auch die Nutzung der Lexika und Grammatiken in den Editionsprojekten stärker zu beleuchten.

Aspekt Benutzung historisch-kritischer Ausgaben in der Wissenschaft

Bislang fehlt es an Studien zur Benutzungssituation von Editionen im Wissenschaftsbetrieb. In der Neugermanistik liegen zwar mittlerweile für viele moderne Autoren Historisch-Kritische Ausgaben (HKA) ihrer Werke vor, die sich vornehmlich an wissenschaftliche Nutzer richten, inwiefern sie jedoch benutzt werden, wurde bislang nicht untersucht. Um die Akzeptanz, Verbreitung und Benutzung dieser Editionen zu untersuchen, wertete Rüdiger Nutt-Kofoth hierzu die Jahrgänge 2000–2013 wichtiger Publikationsorgane wie ZfdPh, Euphorion und DVjs aus. In ca. 540 Aufsätzen mit einem Umfang von ca. 29.000 Seiten betrachtete er, welche Textausgaben und welche Teile der Editionen zitiert wurden.

Das Ergebnis war wenig schmeichelhaft, denn in etwa 60% der Fälle wurden die maßgeblichen kritischen Editionen nicht konsultiert, sondern auf andere oder ältere Ausgaben zurückgegriffen. In den 40% Prozent der Fälle, in denen die HKA als Textgrundlage genommen wurden, zitierten die Autoren der Beiträge zu etwa 90% den edierten Haupttext, die Erläuterungen der Ausgaben wurden nur in 10% und die Textvarianten in lediglich 5% der Fälle zitiert. Es scheint damit, dass gerade der aufwendigste Teil einer HKA, der kritische Apparat, am wenigsten berücksichtigt wird. Auch die seltene Verwendung der Erläuterungen, Einleitungen und Vorworte gibt Rätsel auf.

Als mögliche Ursachen für dieses ernüchternde Ergebnis wurde zum einen ein mangelndes Bewusstsein für wissenschaftliche Standards genannt, zum anderen wurde angeführt, dass in vielen Fällen die zumeist teuren und in nur geringen Auflagen publizierten HKA nicht immer zur Verfügung stehen und dann aus Zeitgründen oder Bequemlichkeit auf Taschenausgaben oder verbreitete Einzelausgaben zurückgegriffen werde. Zum dritten wurde auf die Komplexität der HKA hingewiesen, deren teils kryptische Apparate nicht zu einer näheren Beschäftigung einladen. Fest steht jedenfalls, dass diese erste quantitative Erhebung nur der Beginn einer selbstkritischen Untersuchung des wissenschaftlichen Umgangs mit Editionen in der Germanistik sein kann.

Aspekt Edition und Didaxe

In verschiedenen Vorträgen wurde über den Einsatz von Editionen in der Hochschuldidaktik und als Lektüregrundlage in Schulen berichtet. Burghard Dedner erläuterte, wie er anhand des Woyzeck von Georg Büchner Schulklassen textkritische und editorische Fragestellungen nähert bringt. Sehr häufig kämen in Schulklassen veraltete Ausgaben oder von Lehrern selbst erstellte Lernmaterialien zum Einsatz, die dem fragmentarisch erhaltenen Text eine vermeintlich geschlossene Gestalt geben oder Forschungsergebnisse zur Datierung einzelner Textschichten ignorieren. So wird den Schülern zum einen ein falsches Bild von der Genese des Textes vermittelt, zum anderen die Interpretation durch den Willen des Lehrer gelenkt. Die Konfrontation mit im Unterricht nicht benutzen Ausgaben, die den Schülern die Unfestigkeit des Textes vor Augen führen, eignet sich besonders zur Sensibilisierung für textkritische Fragen.
Florian Radvan zeigte anhand didaktischer Modelle und einer statistischen Auswertung verschiedener, in Schulen zur Anwendung kommender Textausgaben, dass die auf Schulen spezialisierten Verlage bei der Vermittlung von Primärliteratur in unterschiedlichem Maße Wort- und Sacherläuterungen in ihre Texte einbauen, aber keineswegs immer ihre Textgrundlage von den maßgeblichen kritischen Ausgaben beziehen.

Den Einsatz der neuen, 15. Auflage von ‚Walthers von der Vogelweide‘ Leich, Liedern und Sangsprüchen (ed. Thomas Bein) in universitären Proseminaren erläuterte Dörte Meeßen. Da diese Auflage viele Strophen ‚Walters‘ in mehreren Fassungen bietet, können an ihr Merkmale der handschriftlichen Textüberlieferung des Mittelalters und die damit verbundenen Fassungsprobleme den Studenten nahe gebracht werden. Darüber hinaus können verschiedene Interpretationsansätze auf den Text angewendet werden, die bei der Darstellung nur einer Fassung verborgen blieben. Allerdings wurde auch in diesem Fall auf die engen Grenzen der Druckfassungen hingewiesen, die die Überlieferung nicht in ihrer gesamten Breite berücksichtigen können. Um die große Varianz der Strophen innerhalb eines Tones darstellbar zu machen, braucht man digitale Werkzeuge und Analyseverfahren.

Fazit

Die Tagung „Von Nutzen der Editionen“ zeichnete sich vor allem dadurch aus, dass sie ein großes Spektrum an Themen und Fachrichtungen berücksichtigte. Auch wenn in der Editionswissenschaft viele unvereinbare editorische Grundsätze nebeneinander existieren und Fragen wie Normalisierung, Apparataufbau, Darstellung der Textgenese und gar die editorische Terminologie heftig umstritten sind, wurde in allen Diskussionsrunden, denen der Berichterstatter beiwohnen konnte, sachlich diskutiert und durchaus auch wissenschaftskritische Positionen bezogen. Dadurch und weil neben Editoren auch Nutzer von Editionen und Verlagsvertreter in Plenarvorträgen ihre Sichtweise und Erfahrungen im Umgang mit Editionen und deren Vertrieb darstellen konnten, war es möglich, Anregungen, Wünsche und Kritik in laufende Editionsvorhaben zu tragen und die Forschungsdiskussion zu bereichern.

Quelle: http://scriptorium.hypotheses.org/364

Weiterlesen

Tagung zum Betteln in Salzburg, 12.-14.5.2014

Spannende Tagung, die das FriedensBüro Salzburg kommenden Mai veranstaltet:

Betteln. Eine Herausforderung.
Infos: http://www.friedensbuero.at/s6vayrb1

Ankündigung:

Betteln als soziales Phänomen polarisiert - im internationalen Kontext genauso wie innerhalb einer Kommune. Die teilweise stark polarisierende öffentliche Diskussion über diese Problematik offenbart die Notwendigkeit, sich tiefer und ganzheitlicher damit auseinander zu setzen.
Diese Tagung spannt einen Bogen über die vielen Ebenen dieses Phänomens. Für die Frage der gesellschaftlichen Herausforderung bedeutet dies die Notwendigkeit einer gemeinsamen und interdisziplinären Auseinandersetzung aller Beteiligter: Von Kaufleuten, SozialarbeiterInnen, PolizistInnen, PolitikerInnen bis zu Personen aus unterschiedlichen NGOs sind deshalb alle herzlich eingeladen, die sich in irgendeiner Form mit dem Thema Betteln konfrontiert sehen. Die Einladung richtet sich auch an jene, die sich aus privater Motivation mit dieser Problematik auseinandersetzen möchten.

Quelle: http://adresscomptoir.twoday.net/stories/714918968/

Weiterlesen

Fundstücke

Von Stefan Sasse

- Es gab eine Gedächtnisveranstaltung zum Ausbruch aus Stalag III (Luft) 1944 (Englischer Artikel). Mir war gar nicht klar, dass 50 der Gefangenen erschossen wurden. Da sieht man mal, was für Langzeitwirkungen die schrottigen Time-Life-Geschichtsbücher haben, die ich als Jugendlicher fast auswändig gelernt habe, weil sie die einzigen Sachbücher zum Thema in der Stadtbibliothek waren...

- SZ hat was über den Spanischen Bürgerkrieg. 

- Belgien bezahlt Wellingtons Erben immer noch Geld. (Englisch)

- Der Pillenknick ist ein Mythos. 

Quelle: http://geschichts-blog.blogspot.com/2014/04/fundstucke_8950.html

Weiterlesen

Associated Press: USA schufen kubanischen Twitterklon

Das Internet, das per Definition Ländergrenzen überwindet, ist dennoch nicht überall wirklich angekommen. Laut Statistiken der International Telecommunication Union (ITU) nutzten 2012 gerade einmal 25,6% aller KubanerInnen das Internet (in Deutschland betrug die Quote 84%). Es gibt zwar Internet-Cafés auf Kuba, aber man zahlt für eine Stunde Internetnutzung mindestens 4,50 US-Dollar. In Anbetracht des Durchschnittseinkommens, das bei rund 20 US-Dollar liegt, für viele unbezahlbar. 2008 gab es nur in 0,5% der Haushalte überhaupt einen Internetanschluss, obwohl 3,4% der Haushalte über einen Computer verfügten.

Mobiltelefone sind schon eher verbreitet, gut 15% der KubanerInnen nutzen sie. Doch auch sie unterliegen dem staatlichen Monopol. Dies machte sich laut einem Bericht der Associated Press (AP) die US-Regierung zu nutze. In einem Projekt des Entwicklungsdienstes USAID, der sich vor allem um humanitäre Hilfe in Entwicklungsländern kümmert, wurde eine Plattform entwickelt, mit deren Hilfe KubanerInnen unzensiert und ohne Beobachtung durch den Staatsapparat austauschen können. In Anlehnung an twitter wurde die Plattform „Zunzuneo“ getauft – das kubanische Wort für Kolibri. Dort sollten zunächst harmlose Nachrichten über Musik, Wetter und Sport verbreitet werden, später laut AP regierungskritische Botschaften. USAID äußert sich in einem Pressebericht zum Projekt „Zuzuneo“, gibt aber an, das Ziel sei gewesen, „eine Plattform zu entwickeln, auf der sich KubanerInnen frei austauschen können – Punkt.“

Den Bericht der AP sowie weitere Informationen (beides auf Englisch) finden Sie hier.

Quelle: http://wwc.hypotheses.org/83

Weiterlesen

Dozenten-Nähkästchen (II) – Seminarplanung

Im beginnenden Semester habe ich die Möglichkeit (wie hier berichtet), an Stelle eines meiner Pflichtkurse ein neu völlig zusammengestelltes Seminar anzubieten. Dazu ist zwar einiges an Organisation nötig, die man irgendwann vor Beginn des Semesters oder zumindest der ersten Vorlesungswoche (also vor heute) hinbekommen haben muss. Lustigerweise hatte Kathrin Passig heute auch die richtigen Tweets dazu:

 

Nachdem ich ein Thema gefunden und geändert, mir einen Zeitslot und einen Raum ausgesucht habe, bzw. mir habe zuweisen lassen (das war auch schon ohne Großbaustelle an der Uni Köln schwer genug, ist mir aber wider Erwarten doch einigermaßen schnell gelungen), konnte ich mich an die inhaltliche Planung setzen, in die ich hier einen kurzen Einblick geben will.

Der formale Rahmen einer Uni-Veranstaltung wird meist dadurch vorgegeben, dass man 16 Doppelstunden zur Verfügung hat, die man auf eine Art füllen muss, welche die Studierenden weder langweilen noch überfordern sollte. Und am Ende mit dem Gefühl zurücklässt, dass sie inhaltlich und methodisch etwas dazugelernt haben.

Als erstes braucht man ein Thema, das eine Klammer um das bildet, was man im Kurs beabsichtigt zu tun. Wie es aussieht, habe ich gerade einen Auftrag für unser Institut an Land gezogen, bei dem es genau um die Evaluierung unterschiedlicher Text-Mining-Methoden geht. Dieser ist noch nicht ganz in trockenen Tüchern, deswegen kann ich hier noch keine konkreten Angaben machen. Vage geht es darum, aus einem sehr großen Korpus relativ homogener Texte Informationen zu extrahieren, um diese in strukturierter Form (Datenbank) abzulegen. Die dort zu behandelnden Texte haben eine Art von Binnenstruktur, d.h. sie zerfallen in der Regel in drei Teile. Es ist einfacher, Informationen aus ihnen zu extrahieren, wenn man weiß, in welchem der drei Textteile man zu suchen hat. So bietet sich an, vor der Informationsextraktion eine Textklassifikation vorzunehmen, in der man versucht, diese Teile im Gesamttext auszumachen und zu labeln (Demnächst vielleicht mal etwas konkreter).

Nun ist es durchaus sinnvoll, die beiden Aufgaben – Projektbetreuung und Seminarangebot – miteinander zu verknüpfen, so dass beide Aufgaben davon profitieren können. In diesem Fall ist es auch durchaus legitim, da die von mir angebotene Übung zum Modulslot  ”Angewandte Sprachverarbeitung” wie die Faust aufs Auge passt. Es bleibt aber noch zu überlegen, wie das Seminar aufgebaut sein kann, so dass die Studierenden davon auch bestmöglich profitieren.

Einerseits braucht es natürlich eine Einführung in den Bereich Text Mining und seine Unterdisziplinen Information Extraction und Text Categorization. Dafür galt es einführende Literatur zu finden, an der ich mich im Unterricht orientieren kann und die damit von den Studierenden als Grundlage für meine Ausführungen herangezogen werden kann (ich könnte denen ja sonstwas erzählen). Es gibt inzwischen eine Reihe recht annehmbarer Lehrbücher zu den Themen, deswegen wurde ich dort relativ schnell fündig. Allerdings setzen die entsprechenden Kapitel meist eine gewisse Grundbildung in induktiver Statistik voraus, wenn man die angewendeten Methoden tatsächlich auch von Grund auf verstehen will. Für die Studierenden kann ich das nicht unbedingt voraussetzen weswegen ich noch eine Einführung in dieses Thema angesetzt habe. Ein dritter – in unserem Studiengang sehr wichtiger Bereich – betrifft die konkrete Umsetzung des Gelernten in einer Software-Lösung.

Zusammengefasst besteht das Seminar aus aus drei Oberthemen – dem konkreten Anwendungsfall (aus dem Bereich Text Mining), dem zugrundeliegenden Handwerkszeug (induktive Statistik) sowie der Art und Weise der Umsetzung (Software Implementierung). Nach dieser Grob-Strukturierung entschloss ich mich erst einmal eine Mind Map anzulegen1, welche speziellen Themen behandelt werden müssten und wie diese zusammenhängen. Das erste Resultat ist dieses hier gewesen:

Course-Text-Mining_37e2acb0

Diese Mind Map gibt mir einen Überblick darüber, was ich in den zur Verfügung stehenden 16 Semesterwochenstunden ansprechen sollte und hilft mir bei der Gliederung des Seminars und der Verteilung von Aufgaben, die durch die Studierenden in Form von Kurzreferaten übernommen werden können. Damit bin ich zwar noch nicht ganz durch, aber es bleiben ja auch noch ein paar Stunden Zeit bis zur ersten Sitzung…

1Hab ich mit Bubbl gemacht, ging erstaunlich problemlos online https://bubbl.us/

Quelle: http://texperimentales.hypotheses.org/1042

Weiterlesen