Dozenten-Nähkästchen (I)

In einem kleinen Fach wie der Informationsverarbeitung besteht das Curriculum – bedingt durch die sehr begrenzten Ressourcen – zu weiten Teilen aus Lehrveranstaltungen, deren Inhalte weitestgehend vorgegeben sind. Das geht natürlich auch zum Teil auf die Kappe des Bologna-Prozesses, in dessen Zuge u.a. Modulhandbücher eingeführt wurden, in denen bisweilen haarklein dokumentiert ist, was in welchen angebotenen Kursen für Inhalte behandelt werden müssen. Beziehungsweise muss das dort genau umgekehrt verschlüsselt werden – es zählt nicht der Input, also die Inhalte, die gelehrt werden, sondern der Outcome, mithin die Kompetenzen, welche die Besucher der Veranstaltung/des Veranstaltungsbündels im Modul erworben haben (sollten). Ob letzteres, was als toller Paradigmenwechsel gefeiert wurde, wirklich so viel sinnvollere Lehrveranstaltungen bedingt, sei dahingestellt. Ich selbst finde es gar nicht verkehrt, dass die Studierenden mit dem Modulhandbuch schwarz auf weiß bekommen, mit welchen Themen sie zu rechnen haben/was letztlich von ihnen verlangt wird und so weniger eventueller Willkür einzelner Dozentinnen oder Dozenten ausgesetzt sind.

Dass ich dem ganzen aufgeschlossen gegenüber stehe, liegt womöglich auch daran, dass ich jetzt schon lange genug dabei bin und die gegenwärtig geltenden Modulhandbücher sowie deren – hoffentlich im nächsten Jahr in Kraft tretenden – Nachfolger mitschreiben durfte. Oder musste. Und möglicherweise ist es leichter, wenn man sich an einen Plan halten muss, den man sich selbst ausgedacht hat. Lehrveranstaltungen, die über die Jahre nur schwach variieren, haben natürlich auch den Vorteil, dass sie in der Vorbereitung nur beim ersten Mal wirklich viel Arbeit machen. Ich habe in den letzten Jahren die je zweisemestrigen Kurse “Computerlinguistik” und “Softwaretechnologie: Java” (Seminar bzw. Programmierpraktikum) gegeben. Mit jedem Jahr wird die Vorbereitungszeit kürzer – die relevante Literatur ist gesichtet, Folien (bei denen bei mir eh immer nur wenig draufsteht) sind entworfen, Beispielanwendungen gefunden. Natürlich kommt bei so dynamischen Gebieten wie Computerlinguistik und Programmiersprachen immer etwas neues hinzu, das sich aber nach meiner Erfahrung relativ fix in einen bereits existierenden Plan einbetten lässt.

Pano-unikoeln-magnusplatz

Mit der Zeit wird es aber natürlich etwas langweilig, immer das gleiche zu unterrichten – bei aller Dynamizität der Inhalte. Deshalb habe ich schon in früheren Semestern mit Co-Dozenten Seminare zu ausgewählten Themen angeboten, die gerade ins Konzept passten (laufende Projekte, an denen ich gearbeitet habe oder Bereiche, die in meiner Dissertation eine Rolle spielten) und über mein Lehrdeputat, das ich verpflichtet bin, abzuleisten, hinausgingen. Mit mehr Fleiß hätte ich das vielleicht auch regelmäßig hinbekommen, es spielte hier aber auch eine Rolle, die Preise nicht zu verderben – es ergäben sich ja für die Bundesländer enorme Einsparpotentiale, wenn jeder Dozierende in seiner Freizeit regelmäßig zusätzliche Kurse ohne Bezahlung gäbe.

So war ich dann sehr froh, als wir am Institut Verstärkung bekommen haben und diese im nächsten Semester mein Programmierpraktikum übernehmen kann. Damit kann ich ein Seminar anbieten, dessen Inhalte ich weitgehend selbst bestimmen darf – es muss nur auf das Thema “Sprachverarbeitung” passen, was hinzukriegen sein dürfte. Eigentlich wollte ich diesen Blogpost dazu nutzen, zu beschreiben, auf welche Weise ein solches Seminar geplant werden kann. Das werde ich dann – so meine Bloglaune es will – im nächsten Teil berichten.

Bild: By A.Savin (Own work) [GFDL (http://www.gnu.org/copyleft/fdl.html) or CC-BY-SA-3.0-2.5-2.0-1.0 (http://creativecommons.org/licenses/by-sa/3.0)], via Wikimedia Commons

Quelle: http://texperimentales.hypotheses.org/1026

Weiterlesen

CfP: TextMining in der Politikwissenschaft

LogoEpol3

Unter dem Titel “Anwendung von Text Mining-Tools auf demokratiebezogene Fragestellungen im Kontext der BR Deutschland (1949-2012)” laden die Verbundpartner von ePol dazu ein, mit einem Textdatenkorpus und Analysetools eigene Fragestellungen zu bearbeiten und Erfahrungen im Umgang mit Text Mining zu sammeln.

Das Projekt “ePol – Postdemokratie und Neoliberalismus”  untersucht ein Korpus von 3,5 Millionen Zeitungsartikeln mit Hilfe von Text Mining-Verfahren, um die Entwicklungen der politischen Argumentationsmuster im medialen Diskurs aufzuspüren. Der Call richtet sich an Forschende, die zu demokratiebezogenen Fragestellungen arbeiten und deren Vorhaben sich mithilfe des Textdatenkorpus realisieren lässt, das aus Artikeln der taz, FAZ, SZ und Die Zeit besteht und sich über 6 Jahrzehnte erstreckt. Interessierte können an einem Workshop teilnehmen, in dem die Arbeitstechniken mit der Analyseoberfläche erklärt und die Fragestellungen diskutiert werden. Die Ergebnisse der Arbeiten sollen dann in einem Sammelband veröffentlicht werden.

Weiter Informationen zum Call erhalten Sie hier.

 

Quelle: http://dhd-blog.org/?p=3037

Weiterlesen

Historisch-statistische Analysen mit Google Books

Passend zum kürzlich an dieser Stelle erfolgte Hinweis von Kollega Haber zum zahlenbasierten Charakter digitaler Geschichte hat Mills Kelly in seinem Blog an drei einfachen Beispielen erläutert, wie er die neue Funktion Ngram Viewer aus den Google Labs in seinen Einführungskursen zu verwenden beabsichtigt. Den Studierenden könne er so einen ersten Einblick in die Möglichkeiten [...]

Quelle: http://weblog.hist.net/archives/4950

Weiterlesen