Der Historiker Michael Borgolte spricht über das deutsche Geschichtsbild im Zeichen von Europäisierung und Globalisierung. Ein Beitrag von DRadio Wissen vom 28.03.2012.
Quelle: http://lernen-aus-der-geschichte.de/Online-Lernen/content/10265
Geschichtswissenschaftliche Blogs auf einen Blick
Der Historiker Michael Borgolte spricht über das deutsche Geschichtsbild im Zeichen von Europäisierung und Globalisierung. Ein Beitrag von DRadio Wissen vom 28.03.2012.
Quelle: http://lernen-aus-der-geschichte.de/Online-Lernen/content/10265
Die aktuelle Finanzkrise hat nicht bloß die Bedeutung von wirtschaftshistorischen Fragestellungen erneut ins Blickfeld gerückt, sondern auch ein akutes Manko der deutschsprachigen Wirtschafts- und Unternehmensgeschichte offengelegt. Während die Geschichte der industriellen Produktionsweise seit jeher deren Aufmerksamkeit gefunden hat, sind die mit ihr zusammenhängenden weltumspannenden Finanz- und Dienstleistungssysteme weit weniger gut erforscht. Insbesondere blieben bislang Forschungen Mangelware, welche das wirtschaftshistorische Erkenntnisinteresse in Richtung einer Analyse des Kapitalismus erweitern. Umso erfreulicher, dass nun ein anlässlich der Verabschiedung Jürgen Kockas als Hochschullehrer entstandener Sammelband das Feld neu [...]
Wir veranstalten vom 22. bis 23. November an der Universität Graz (Österreich) die 3. Tagung in der Reihe “Digitale Bibliothek” mit dem Thema “Kultureinrichtungen im digitalen Zeitalter” und wollen auch an dieser Stelle auf unseren Call for Papers aufmerksam machen. Die Einreichung von Beiträgen ist bis zum 1. Juni 2012 unter der E-Mail Adresse kochg@europeana-local.at möglich.
Online Version des CFP: http://www.europeana-local.at/index.php?option=com_content&view=article&id=87:digbib2012&catid=7:veranstaltungen&Itemid=22
PDF Version: www.europeana-local.at/images/call_for_papers_digbib2012.pdf
************************************************
CALL FOR PAPERS
3. Tagung „Digitale Bibliothek“
„Kultureinrichtungen im digitalen Zeitalter“
22. bis 23. November 2012 in Graz, Universität Graz
Die Veranstaltungsreihe „Digitale Bibliothek“ dient dem Erfahrungsaustausch, der Koordination und Kooperation zwischen Kultur- und Wissenschaftsseinrichtungen in dem Bereich digitale Bibliotheken. Mit Vorträgen, Workshops und einer Posterausstellung bietet die Tagung ein Diskussionsforum für die spezifischen Herausforderungen, denen sich die Einrichtungen bei der Gestaltung und Etablierung moderner Online-Wissensspeicher stellen müssen.
Die geplanten Themen 2012 umfassen folgende Aspekte:
Neue Aufgaben und Ziele für Kultureinrichtungen
Partnerschaftsmodelle (bewährt, innovativ, zukünftig…)
Technische Lösungen (Good Practice)
Erwünscht sind Beiträge, die sich mit theoretischen Grundlagen oder praktischen Lösungen aus der Perspektive von Kultur- und Wissenschaftseinrichtungen auseinandersetzen.
Alle fristgerecht eingereichten Beiträge werden vom Programmkomitee begutachtet. Beiträge und ihre Inhalte werden vertraulich behandelt; angenommene Beiträge bis zur Bekanntgabe der Annahme gegenüber dem Autor/der Autorin.
Wichtige Termine
Einsendeschluss für Beiträge (nur Kurzfassungen, max. 800 Wörter): 1. Juni 2012
Bitte geben Sie bei Ihrer Einsendung bekannt, ob Sie Ihren Beitrag als Vortrag (30 min) oder Poster (Ausstellung) gestalten wollen.
Benachrichtigung der Autor/inn/en über Annahme/Ablehnung eingereichter Beiträge: 1. Juli 2012
Tagungssprache ist Deutsch. Beiträge sind aber auch in englischer Sprache möglich.
Senden Sie Ihre Kurzfassungen bitte an Frau Mag. Gerda Koch (kochg@europeana-local.at).
Die Konferenz „Kultureinrichtungen im digitalen Zeitalter“ wird veranstaltet von:
Universität Graz
Zentrum für Informationsmodellierung in den Geisteswissenschaften
A-8010 Graz, Merangasse 70/pt
Tel +43 316 380 2292
Fax +43 316 380 9703
eMail zim@uni-graz.at
Web www.uni-graz.at/zim
EuropeanaLocal Österreich
AIT Angewandte Informationstechnik Forschungsgesellschaft mbH
A-8010 Graz, Klosterwiesgasse 32/I
Tel +43 316 835359
Fax +43 316 835359 75
eMail kochg@europeana-local.at
Web www.europeana-local.at
Quelle: http://dhd-blog.org/?p=381
Eine der am häufigsten gestellten Fragen an uns ist ohne Zweifel die nach den Verwendungsmöglichkeiten für Tesla. Die Frage kam bereits in den Kommentaren dieses Blogs auf, sie wird uns auf den Konferenzen gestellt, auf denen wir Tesla vorstellen, sie war sowohl Teil meiner Disputation, als auch der meines Kollegen Stephan Schwiebert.
Die Antwort auf die Frage ist relativ einfach: Mit Tesla kann man eigentlich alles machen, was auf maschinellen Annotationen oder einer automatischen Analyse von Texten beruht. Wie das mit einfachen Antworten so ist, ergibt sich aus ihnen meist eine ganze Reihe weiterer Fragen. So auch hier:
Versuche ich mal, diese Fragen zu beantworten, ohne dass allzu viele Folgefragen aufgeworfen werden (weswegen ich auch versuche, möglichst ohne sprachwissenschaftliche und informatische Fachbegriffe auszukommen):
(1) Wir verwenden den Begriff Text relativ weit gefasst. Texte sind für uns einfach alle Daten, die sich in einer linearen, eindimensionalen Abfolge von Zeichen aus einem definierten Alphabet repräsentieren lassen. Das gilt zunächst einmal für alle Daten, die sich irgendwie in einem herkömmlichen Computer speichern und verarbeiten lassen, letztlich arbeitet dieser ja mit Sequenzen von Nullen und Einsen. Wir meinen hier aber vor allem diejenigen Daten, die sich durch ihre eindimensionale Struktur auszeichnen. Darunter fallen vor allem natürlichsprachliche Texte, aber auch Text-Repräsentationen von DNA, RNA, Proteinen und auch von Musikstücken. Die Entscheidung, möglichst viele unterschiedliche Daten in Tesla verarbeiten zu können, wurde bewusst getroffen. Auf diese Weise können unterschiedliche Verfahren für spezifische Daten entwickelt werden, die dann gegebenenfalls auf andere Daten übertragen werden können. Tesla stellt außerdem keinerlei Anforderungen an das Format der Texte.
(2) Sprache ist zwar letztlich (spätestens beim Verlassen unseres Sprechorgans bzw. als Buchstabenfolge eines Textes) eindimensional organisiert: Mündliche Sprachmitteilungen bestehen etwa aus einer Folge von Lauten, schriftliche Texte aus einer Folge von Buchstaben. Über diesen mehr oder weniger grundlegenden Einheiten sprachlicher Kommunikation existieren jedoch weitere Organisationseinheiten wie Wörter oder Sätze, dabei gibt es unterschiedliche Wortklassen (z.B. Substantive, Verben) und Funktionen (z.B. Objekt, Prädikat). Alle diese Einheiten, Klassen und Funktionen sind implizit im Sprachsignal enthalten, um sie auswerten zu können, müssen die Sprachdaten explizit mit ihnen ausgezeichnet (annotiert) werden. Das kann man entweder manuell machen (was gewisse Vor-, aber auch Nachteile hat) oder bestimmte dafür programmierte Werkzeuge machen lassen. Dazu gehören z.B. Tokenizer, die Wortgrenzen bestimmen, Tagger, die Wörter Wortklassen zuordnen und Parser, welche die Funktion von Wörtern oder Wortgruppen erkennen. Tesla besitzt eine ganze Reihe solcher Werkzeuge, mit denen sich Daten maschinell annotieren lassen.
(3) Annotationen wie in (2) beschrieben, sind meist eine Vorstufe zur Daten-Analyse, die man auch innerhalb von Tesla betreiben kann. Aus der unüberschaubaren Menge möglicher Analysen wähle ich hier ein Beispiel aus dem Bereich Informationsextraktion (IE). IE ist eine Art Oberbegriff für Verfahren, die aus unstrukturierten Daten (z.B. Texten) strukturierte Daten (z.B. Tabellen in einer Datenbank) ableiten. Ein Anwendungsfall für IE-Verfahren ist die sogenannte Sentiment Analysis (zu deutsch etwa “Stimmungserkennung”), wo Texte z.B. nach positiven und negativen Einstellungen hinsichtlich eines Untersuchungsgegenstandes (Mobiltelefon, Hotel, Fluggesellschaft oder was auch immer) klassifiziert werden. Soll eine solche Klassifikation automatisch erfolgen, so benötigt man einerseits annotierte Texte, um Wörter und Wortgruppen ausfindig zu machen, von denen die Wertung des Textes abhängt, so wie spezielle Adjektive, Gradpartikel, Negationen etc. Man spricht davon, dass bestimmte Merkmale in Texten ausfindig gemacht werden. Mit diesen Merkmalen wird dann ein Klassifikationsmechanismus gefüttert, welcher auf dieser Basis die Texte in Klassen einteilt (also z.B. in gute und schlechte Bewertungen). Die beschriebene Sentiment-Analyse ist nur ein mögliches Verfahren, das in Tesla realisiert werden kann. Inzwischen haben wir eine ganze Bandbreite verschiedener Verfahren in Tesla realisiert, ich etwa habe das Voynich Manuskript damit analysiert, meine Kollegen arbeiten zu den Themen Extraktion syntaktischer Strukturen und Bedeutungskonstitution in natürlichsprachlichen Daten. Innerhalb eines Projekts wurden außerdem Vorarbeiten zur beschriebenen Sentiment-Analyse und der Extraktion temporaler Ausdrücke sowie von Gen-Bezeichnungen durchgeführt.
(4) Tesla ist ein Framework, in dem Werkzeuge zur Annotation und Analyse von Texten sowohl programmiert wie auch genutzt werden können. Was genau zu einem bestimmten Zeitpunkt in Tesla umgesetzt werden kann, hängt von der Ausstattung des Systems zu diesem Zeitpunkt ab. Zur Zeit umfasst das Inventar etwas mehr als 60 verschiedene Komponenten, manche Funktionalität ist gleich durch mehrere Werkzeuge abgedeckt (so gibt es z.B. zwei Tokenizer – einen, der sehr einfach zu bedienen ist, einer der sehr umfassend konfiguriert werden kann). Eine Übersicht zu den vorhandenen Komponenten findet sich auf der Tesla-Entwicklerseite. Prinzipiell (also eigentlich) kann man mit Tesla also alles machen, was in den Bereich der automatischen Prozessierung von Texten fällt. De facto beschränkt aber die aktuelle Ausstattung die momentan mögliche Anwendung – wobei man jederzeit die fehlende Funktionalität selbst implementieren kann.
(5) Man kann in Tesla nicht alles mit Texten machen, man kann nur alles machen, was sich automatisieren lässt. Alles, was mit manueller Auszeichnung zu tun hat, muss damit außerhalb von Tesla erfolgen – das bedeutet z.B., dass man nicht einfach in einem Editor die automatisch erzeugten Ergebnisse korrigieren kann. Hinter dieser Einschränkung steht die Überlegung, dass wir ein System haben wollten, in dem Analysen durchgeführt werden können, die absolut nachvollziehbar sind. Solange man lediglich Software-Algorithmen (die deterministisch sind, also keinen nicht reproduzierbaren Zufalls-Effekt enthalten) arbeiten lässt, hat man die Möglichkeit – so denn die geeigneten Vorkehrungen getroffen wurden – die Analysen jederzeit zu wiederholen und weiterzugeben, auf dass sie woanders reproduziert werden können. Ließe man manuelle Eingriffe in diesem Prozess zu, verlöre man diese Möglichkeit. Ich habe schon mehrere Posts zu diesem Thema geschrieben, etwa diese Parabel, so dass ich es jetzt hier mal dabei belasse. Nebenbei – Tesla ist kein absolut fertiges System (wir haben es mehr oder weniger zu zweit gebaut), so ist etwa die Umsetzung von Maschinellen Lernverfahren, für die Trainingsphasen durchgeführt werden müssen, noch verbesserungsfähig.
(6) Ja, es gibt eine Reihe von Systemen, die ähnlich wie Tesla angelegt sind und auf manchen Gebieten tatsächlich mit unserem System konkurrieren. Dazu zählen Gate, Apache UIMA und TextGrid. Zu den Unterschieden komm ich aber mal ein andermal. Ungeduldigen sei diese Monographie empfohlen.
Ich hoffe, dass ich mit diesem Post ein wenig aufklären konnte, was Tesla tatsächlich ist. Was man damit so alles machen kann, konnte nur bruchstückhaft dargestellt werden (auf Visualisierungen, wie z.B. das Titelbild oben, bin ich noch gar nicht eingegangen). Dafür brauche ich wohl ein paar mehr Posts. Damit man sich aber schonmal ein Bild machen kann, wie Tesla aussieht, habe ich unten noch einmal einen Screenshot der Tesla-Benutzeroberfläche angehangen.
Ansicht der Benutzeroberfläche von Tesla für Anwender. Groß im Bild der graphische Editor, in dem man seine Analysen zusammenstellt.