Wald, Bäume und so

Ich sehe den Wald vor lauter Bäumen nicht!
Da bin ich nun soweit, mit dem Outline für meine Diss zu beginnen – und da wird scholarz.net eingestellt (ist zwar noch online, bin mir aber nicht sicher, wie sich das noch entwickelt). Dahin also meine übersichtliche Notizen-Herumschieben-Software!
Was nun?
Mein ITler-Ehemann brachte mich auf die Kategorie “Outliner” – Und meine Güte, gibt es davon viele (selbst für Windows, will gar nicht wissen, wie es für den Mac aussieht).
Hat da jemand Erfahrung? Besonders auch, was die Kompatibilität mit Citavi angeht?

Quelle: http://csarti.net/2013/03/wald-baume-und-so/

Weiterlesen

Aufstieg und Niedergang der City Nord

Die City Nord zählt nicht zu den Touristenmagneten Hamburgs. Die Bewohner der Hansestadt kennen, aber meiden sie, Auswärtige haben vermutlich nie von ihr gehört. So leer die City Nord an manchen Tagen auch sein mag, jedem wird beim Rundgang bewusst, dass sie einst ein Großprojekt war, das tausende Menschen anlocken sollte. Viele der Gebäude werden nicht mehr genutzt, Millionen sind hier versickert.Man mag vermuten, dass die City Nord nach anfänglicher Euphorie schnell ähnlich betrachtet wurde wie die Elbphilharmonie, die inzwischen nicht mehr durch ihre Silhouette, sondern vor allem durch ihre Kosten im Gedächtnis haften bleibt. Welche Visionen standen hinter der riesigen Bürostadt und warum haben sie sich nicht erfüllt?

Am 24. August 1959 beschloss der Senat einen neuen Aufbauplan. Der vorangegangene Plan vom 20. Juli 1950 war bereits „übererfüllt“. Die dringenden Probleme der Nachkriegszeit waren bereits gelöst. Flüchtlinge waren bereits integriert, über 25.000 Wohnungen wurden erbaut um jedem ein neues Heim zu bieten. Hatte Hamburg 1946 erst 1.4 Millionen Einwohner, so waren es 1959 schon 1.8 Millionen. Langfristig wurde die Marke von 2.2 Millionen Hamburgern angepeilt, die allerdings bis heute nicht erreicht werden konnte.

„Aufbau statt Wiederaufbau!“

Die Probleme vor denen die Stadtväter standen, waren also vor allem „Luxusprobleme“. Neuer Wohnraum sollte zwar weiterhin erschlossen werden, doch dies war nicht mehr Priorität. Nachdem fast alle Bürger wieder ein Dach über dem Kopf hatten, wollte der Senat das Stadtbild verschönern. Grünflächen für die Naherholung sollten errichtet, die wuchernden Stadträndern durch kleinere regionale Zentren gezähmt werden, ein Ausbau des Personennahverkehrs die Innenstadt entlasten.

In den Zeiten des Wirtschaftswunders schien vieles denkbar. Das Credo der Stadtplaner lautete damals „Aufbau statt Wiederaufbau!“ Etwas komplett neues sollte entstehen. Hamburg sah sich kühn als wichtigste Stadt Westdeutschlands. Berlin als geteilte Stadt galt nicht als ernstzunehmender Konkurrent. Bausenator Paul Nevermann ließ dem Oberbaudirektor Werner Hebebrand weitestgehend freie Hand. (Uns Studenten sollte er vor allem als Architekt des Audimax bekannt sein.) Dieser hatte in den USA gelebt und sich von der dortigen Architektur inspirieren lassen. In den neuen Visionen nahm vor allem der Durchführungsplan D 100 einen immer größeren Raum ein. Neben der Altstadt sollte eine 2. City Hamburg nach außen hin attraktiver machen.

Mit dem Wohlstand der 50 Jahre überfluteten bald auch viele Autos die Innenstädte. Um den Verkehrsinfarkt abzuwenden, sollten viele Berufstätige in anderen Viertel Arbeit finden. Unter dem Namen „Geschäftsgebiet für Kontorhäuser“ wurden verschiedene Szenarien durchgespielt. Wenn man große Firmen in Hamburg ansiedelte, würde dies zwangsläufig die Innenstadt oder die Elb- und Alsterufer beeinträchtigen. Viele Konzerne drohten jedoch, die Stadt zu verlassen, wenn nicht bald ein neues Areal erschlossen würde. Hamburg konnte sich diese wirtschaftlichen Einbußen nicht leisten, denn im Kalten Krieg stand der Hafen für die Binnenschifffahrt nur noch eingeschränkt bereit, da die Elbe sich weit in die DDR hinein erstreckte.

Aus Fehlern lernen

Klar war, dass man Büroräume und Industriegebiete strikt trennen wollte. Gleichzeitig wollte man eine Zersiedelung dicht bebauter Stadt durch Hochhäuser wie z.B. in Frankfurt am Main verhindern. Hamburg hatte seine Erfahrungen mit dem Unilever-Gebäude gemacht. Das Hochhaus war in der Bevölkerung vor allem deshalb unbeliebt, weil für seine Errichtung mehrere alte Fachwerkhäuser niedergerissen werden mussten.

Die Errichtung einer neuen Bürostadt sollte also möglichst wenig in bereits vorhandene Bausubstanz eingreifen, von außen gut erreichbar sein und für die Verkehrsdichte im Inneren der Stadt gewissermaßen Ventil sein. So wurde auch darauf geachtet, dass die geplante 2. City nah am Flughafen Fuhlsbüttel entstehen sollte. Die Wahl fiel schließlich auf ein Gebiet nördlich des Stadtparks, das sich bereits im Besitz der Stadt befand. Ursprünglich war ein fließender Übergang geplant, doch versperren heute immer noch mehrere Bäume die Sicht vom Erholungsraum auf die Bürostadt. Das Gebiet war jedoch nicht ungenutzt. Hier befand sich eine Kleingärtenkolonie und mehrere Kriegsflüchtlinge lebten immer noch in Baracken. Da das Projekt City Nord jedoch absolute Priorität hatte, sah sich die Stadt Hamburg zu außergewöhnlich großzügigen Entschädigungszahlungen bereit. Viele der Anwohner fanden im nahegelegenen Steilshoop eine neue Bleibe.

Zuerst musste ein Straßennetz entstehen, um das herum dann die Großbauten errichtet werden sollten. Der Überseering definiert das Gelände am deutlichsten. Ungewöhnlich für die Lage in der Innenstadt ist, dass er 3-spurig angelegt wurde. Die übrigen Seitenstraßen wurden nach Sydney, Djakarta, New York, Halifax, Manila, Mexiko, Kapstadt, Dakar und Caracas benannt. Der Anspruch Hamburgs als „Tor zur Welt“ schimmert bei dieser Namensgebung deutlich durch. Die U-Bahn Station Sengelmannstraße wurde extra für die City Nord errichtet. Zu Beginn war geplant, die Station an die U4 anzuschließen, die aber nie gebaut wurde. Die inzwischen realisierte U4 folgt einem anderen Straßenverlauf und steuert vor allem die neu erschlossene Hafen-City an.

Platz für Autos und „Lufttaxis“

Für viele der zuerst errichteten Gebäude zeigt sich ein gemeinsames Schema. Um die City Nord autofreundlich zu gestalten, sollten die Fußwege künftig überirdisch liegen. Wege in ca. 4m Höhe verbinden die Gebäude, Brücken machen Fußgängerampeln überflüssig, so dass der Verkehr nie ins Stocken gerät. Ebenso liegt auch das „Erdgeschoss“ der Gebäude in 4m Höhe, was bedeutet, dass die Tiefgaragen nicht wirklich tief in den Boden reichen. Auch dadurch ließen sich die Baukosten für die Großprojekte begrenzen. Fußgängerbrücken erstrecken sich zwischen den Gebäuden, um ja nicht den Autoverkehr zu stören. Anfangs war sogar ein eigener Hubschrauberlandeplatz angedacht, damit „Lufttaxis“ in Richtung Fuhlsbüttel und Innenstadt starten konnten. Realisiert wurde dies nicht.

1964-1970 entstanden im Bereich Ost der City die ersten Gebäude entstehen. Das Bauunternehmen Claudius Peters AG ließ seine Konzernzentrale errichten, bereits 1965 wurde Richtfest gefeiert. Im gleichen Jahr wurde auch mit den Bauarbeiten für die Landesbank begonnen. Auch die Hamburgischen Elektrizitätswerke und Esso ließen sich 1966 am Überseering nieder. Das HEW-Gebäude gehört heute dem Vattenfall-Konzer. Die Colonia-Versicherung und Mobil Oil zogen ihre Zusagen zurück, stattdessen verlegte BP seine Büros auf das Gebiet.
Die Formvielfalt in der City Nord beeindruckte Presse und Hamburger. BP wollte mit der auf Sechsecken basierenden Gebäudestruktur die chemischen Konturen der Benzolringe nachbilden. Selbst das Pförtnerhäuschen ist ein Hexagon. Mehrere Architekturbüros standen in direkter Konkurrenz zueinander und jedes wollte den Zuschlag für die größten Projekte erhalten. In der Folgezeit stiegen die Grundstückspreise fast auf das doppelte an. Gute Voraussetzungen also, um mit dem Bauabschnitt West zu beginnen.

Dort hatte die Deutsche Post bereits 1965 ein Grundstück erworben, auf dem dann das wohl außergewöhnlichste Gebäude der City Nord entstand. 1970 begannen auch die Treuarbeit und Edeka zu bauen. Im gleichen Jahr lief noch ein Architekturwettbewerb der über die künftige Zentrale des Versicherungsdienstleisters Hamburg-Mannheimer entscheiden sollte. Bis auf kleine Ausnahmen wurden alle Grundstücke auch verkauft.

„Steril und tot“

Die Bauphase West war noch nicht ganz abgeschlossen, als 1975 dann der Norden des Areals bebaut werden sollte. Zu diesem Zeitpunkt war von der früheren Aufbruchstimmung aber nur noch wenig übrig. In der Bevölkerung sah man nur noch eine „Betonwüste“, das gesamte Areal wirke „steril und tot“, erst recht, wenn man es nach Feierabend oder am Wochenende besuchte. Dennoch gab es keine Planungen gezielt Wohnungen zu errichten, um die City Nord „lebendiger“ zu gestalten. Die Großkonzerne wünschten, dass ihre Gebäude als Einzelstücke herausragten.

Getragen war die Planung vor allem von der Idee des Großraumbüros. Anfangs versprach man sich dadurch ein leiseres Arbeitsklima, weil die Vielzahl der Geräusche zu einem Hintergrundrauschen verschwimmen würden. Die Angestellten lehnten dieses Konzept jedoch überwiegend ab, da sie sich ständig überwacht und eingepfercht wirkten. In der heutigen Zeit gilt das Großraumbüro als veraltet, da der Computer seinen Siegeszug angetreten hat.

Im Zentrum der City Nord entstand ein Gebäudekomplex, der schlicht nur als „Mitte“ bezeichnet wird. Die Planungen verzögerten sich jedoch immer wieder. Bereits 1960 sollte ein Entwurf feststehen, doch dieser wurde wieder verworfen, bald durch einen neuen ersetzt und abermals entworfen. Dass Oberbaudirektor Werner Hebebrand 1965 in den wohlverdienten Ruhestand verabschiedet wurde, trug ebenfalls nicht zu einer Entscheidungsfindung bei. Und so stand lange nicht fest, wie das riesige Grundstück genutzt werden sollte.

Kein Einzelhandel, kein Wasserbecken

Nach einem langwierigen bürokratischen Prozess gelangten die Stadtplaner zu dem Urteil, in einem großen Gebäude verschiedene Einrichtungen wie eine Ladenzeile, das Postamt, ein Parkhaus und auch mehrere Wohnungen zu errichten. Büros sollten ebenso entstehen, allerdings nur für Ärzte, Makler, Anwälte, Notare etc. Ein einzelner Besitzer war also in diesen Vorstellungen nicht vorgesehen und so hatte wie bei den anderen Großprojekten der City Nord keine Firma Interesse an einem repräsentativen Gebäude. Der eigentliche Entwurf der letztendlich veröffentlicht wurde, brachte also nur einen Betonklotz hervor. Direkt am Park wurde zuerst ein Wasserbecken angedacht, das aber schnell in Vergessenheit geriet.

Finanzierungsschwierigkeiten führten zu weiteren Verzögerungen, die erst gelöst werden konnten, als der Investor Helmut Greve zusagte, das Projekt zu tragen. Er verließ sich auf die mündliche Zusage einiger Banken, als Mieter in der „Mitte“ einzusteigen, an die sie sich jedoch bald nicht mehr gebunden fühlten. Nach dieser Wende wurde nun hauptsächlich der Wohnungsbau angepeilt. Bereits nachdem 1969 mit den Bauarbeiten begonnen wurde, fanden weitere Änderungen am Gesamtkonzept statt, die zum eher unfertigen Eindruck der „Mitte“ beitragen.

Der dauerhafte Betrieb der Ladenzeile im Inneren der „Mitte“ ist inzwischen gescheitert. Dies hat mehrere Gründe, so zB. dass die Planungen für die City Nord mit der Zeit immer halbherziger weiterführt wurden die Stadtväter lieber ein Einkaufszentrum in der Hamburger Straße errichteten, das Kunden anlockte. Auch ist die Ladenzeile von außen nicht zu erkennen, die eher tunnelartigen Eingänge dürften ihr Übriges tun, zufällige Laufkundschaft abzuschrecken. Zudem war es gar nicht nötig, Geschäfte für die Mitarbeiter der nahen Konzernzentrale zu errichten, denn dort hatten die Firmen meist selbst für alles gesorgt. Auch dass die Ladenzeile über dem Straßenniveau liegt und daher schlecht mit dem Auto beliefert werden kann, macht es den Inhabern unnötig schwierig. Außerdem wurde die geplante U-Bahnlinie nie errichtet, so dass weit weniger Leute als erwartet, durch die City Nord streiften. Dass das errichtete Hotel in großen Maße Touristen anziehen und eine Flaniermeile mit Bars und Cafes entstehen würde, erscheint aus heutiger Perspektive eher illusorisch.

Literaturtipp: Sylvia Soggia: City Nord. Europas Modellstadt der Moderne

Quelle: http://www.hh-geschichten.uni-hamburg.de/?p=663

Weiterlesen

DH in den Medien: Die FAZ über Digitale Geschichtswissenschaft

Wenn in den Medien über DH berichtet wird, startet meine Rezeption immer mit gemischten Gefühlen: Freude, dass wargenommen wird, woran man arbeitet und was einen selbst interessiert; Sorge, ob ein sinnvoller Bericht dabei herauskommt und ob der Journalist oder die Journalistin auch verstanden hat, wovon er oder sie schreibt. Beim Lesen des Artikels “Mittel auf der Suche nach einem Zweck” von Thomas Thiel, FAZ, 11.2.2013, überwiegt die Freude über eine gelungene Annäherung an ein nicht ganz einfaches Thema: der zunehmende Einsatz digitaler Verfahren in den Geschichtswissenschaften und die daraus resultierenden Auswirkungen auf die Methodik und die Praxis der Geschichtsforschung bzw. Geschichtsschreibung. Am Rande rührt das natürlich auch an einer der Grundfragen, die uns wohl alle hier umtreiben: Helfen digitale Werkzeuge bei der besseren Beantwortung alter Fragen? Führen sie zu einer Veränderung der Fragestellungen? Legen sie ganz neue Fragen nahe?

Am Beispiel der Tendenz zu quantifizierenden, jedenfalls aber formalisierten Untersuchungen, die sich hier vor allem auf Textmining und Textanalyse beziehen und für den Bereich der historischen Forschung wird dies zumindest angedeutet. Dabei ist klar, dass im Mainstream der Forschung und in der journalistischen Berichterstattung zunächst nur die einfachsten Verfahren ankommen: hier das Vorkommen oder gemeinsame Vorkommen (Co-Occurence) von Wörtern in Textkorpora. Dass dabei eine gewisse Neuheit behauptet werden muss, ist der Logik des Journalismus geschuldet. Den durchschnittlichen FAZ-Leser wird schließlich nicht so sehr interessieren, dass genau diese Fragen auch schon Pater Busa vor 60 Jahren beim Aufbau seines Index Thomisticus angetrieben haben, dass sich seit Jahrzehnten die Digital Humanities und Spezialbereiche wie die Computerlinguistik oder die in den 80er und 90er Jahren des vergangenen Jahrhunderts schon einmal in Blüte gestanden habende quantifizierende Geschichtsforschung mit diesen Verfahren beschäftig(t)en und dabei theoretisch, methodisch und in der Werkzeugentwicklung sehr viel weiter als bis zum einfachen Auszählen von Co-Occurences gekommen sind.

Eine anderes – leider nicht nur journalistisches – Wahrnehmungsmuster, das in einem Blog über Digital Humanities wohl thematisiert werden kann, ist die Unschärfe bzw. Ignoranz gegenüber dem Fachbereich, der diese Wandlungen auf der Entwicklungsseite vorantreibt: den Digital Humanities. Diese kommen in dem Artikel nämlich überhaupt nicht vor. Statt dessen scheint es (einmal mehr) so, als ob Methoden und Werkzeuge entweder einfach “da” sind und in den Geisteswissenschaften nur aufgegriffen werden, oder dass sie – wie es am vorgestellten Projekt “Historical Semantic Corpus Management (HSCM)” beschrieben – in Zusammenarbeit mit (wörtlich: “assistiert von”) einem “Informatiker” entwickelt würden. Dabei wird unterschlagen, dass es eben nicht die allgemeine Informatik ist, die die informatische Wende in den Geisteswissenschaften ermöglicht, sondern mit den Digital Humanities eine eigene Disziplin, die von manchen zwar als “Fachinformatik” klassifiziert wird, deren Wesen damit aber nur unzureichend zu fassen ist. Dabei reicht ein Blick auf die Webseite des Historical Semantic Corpus Management (HSCM), um zu sehen, dass das Projekt sich sogar selbst als “Digital Humanities Project” bezeichnet. Dort ist dann zwar die Rede von einer Zusammenarbeit zwischen “humanities and informatics”. Die “informatics”-Seite wird dann aber vertreten von Alexander Mehler und der hat eben keinen Abschluss in “Informatik”, sondern “graduated in computational linguistics [... and] got his PhD in computational linguistics” (so seine Website) – und das ist ja auch gut so, wenn man eben Verfahren zum Text-Mining in historischen Korpora braucht.

Quelle: http://dhd-blog.org/?p=1398

Weiterlesen

Wie schreibt man DH richtig? II

DH ernst zu nehmen, scheint mir gerade als Geisteswissenschaftler ein höchst selbstreferentieller Prozess zu sein (s.a. meinen Beitrag zu Open Access http://dhd-blog.org/?p=673). Nachdem die Kulturtechnik Lesen unter Titeln wie distant reading (Moretti), hyperreading (Sosnoski) oder maschine reading (Hayles) umfassend thematisiert wurde, verwundert es ein wenig, dass bisher dem Schreiben vergleichsweise wenig Aufmerksamkeit zuteil wurde, auch wenn natürlich die Literatur z.B. zu Markup mittlerweile Legion ist. Es ist aber m.E. ein Unterschied, ob man vorhandenene Texte “editorisch” mit Markup versieht oder ob man selbst Texte nicht mehr layoutbasiert, sondern strukturell schreibt, eben Texte, die den Anforderungen einer computergestützten Geistes- und Kulturwissenschaft genügen.

In der Theorie weiss man natürlich, dass Word-Dateien mit Blick auf ihre maschinelle Nachbearbeitung und -nutzung enge Grenzen haben und dass es besser wäre, statt dem WYSIWYG Prinzip zu huldigen, sich wieder auf Textstrukturen und – bedeutung zu besinnen. Nun ist WYSIWYG ein süßes Gift und hat viel dazu beigetragen, den Computer in den Geisteswissenschaften zu etablieren. Diese Leichtigkeit des Schreibens in Frage zu stellen und WORD z.B. mit einem XML Editor wie oXygen zu vertauschen, ist denn auch ein Schritt, den viele unserer Zunft vermutlich scheuen werden, und doch scheint mir genau dieser Schritt zum Strukturellen Schreiben, wie ich es nennen möchte, unverzichtbar, um das volle Potential der DH ausschöpfen zu können. Ich habe mich daher in einem Beitrag im Bibliotheksdienst (s. vor allem den ersten Teil DOI 10.1515/bd-2013-0005) einmal mit dieser Frage auseinandergesetzt und versucht “basale” Strukturen für das strukturelle Schreiben, oder wie man es nennen möchte, zu identifizieren. Das Pikante daran ist natürlich, dass,  wenn man schon über Strukturelles Schreiben “schreibt”, dann es auch füglich selbst tun sollte. Ich hatte daher dem Verlag abbedungen, den Beitrag nicht mit einer moving wall zu belegen, sondern ihn unter einer CC BY-SA Lizenz zu veröffentlichen und bereitete zeitgleich eine alternative Publikation vor, die mitttlerweile auch vorliegt (vgl http://diglib.hab.de/ebooks/ed000149/start.htm). Unterdessen hat aber auch der Verlag den Text online gestellt (DOI s.o.). Dies nun ist interessant, denn wenn man die beiden Versionen vergleicht, wird unmittelbar deutlich, warum online allein nicht ausreicht (auch wenn OA ein Wert an sich ist), und es einer intensiveren Bemühung um den Text bedarf, um ihn wirklich nutzbar zu machen. Augenfällig ist, dass z.B. die Links fehlen.  Sie sind in dem Beitrag auf der Verlagsseite allesamt nicht clickbar. Überhaupt hinterlässt er einen etwas lieblosen Eindruck. Das Entscheinde liegt aber unter der Oberfläche dieser Version, die unter “strukturellen Gesichtspunkten”(Markup)  gänzlich ungenügend ist. Z.B. würde man sich zu Schlagworten und Personen GND Nummern wünschen. Diese habe ich in meiner Version ergänzt (wenn auch noch nicht sichtbar gemacht). Sie stecken im XML Quelltext (http://diglib.hab.de/ebooks/ed000149/BD-2013-01.xml) und werden später vor allem in übergreifenden Suchalgorithmen ausgewertet werden (zum Einsatz wird die DB eXist kommen). Mit Blick auf zukünftige Szenarien der Nachnutzung im semantic web habe ich zudem einige grundlegende Dinge, wie Titel, Autor, Schlagworte mit RDFa markiert,. z.B. <span property=”dc:title”>Wie schreibt man Digital Humanities richtig…<span> (eine gut verständliche Einführung zu RDFa findet sich hier:http://www.w3.org/TR/xhtml-rdfa-primer/). Nebenbei habe ich auch versucht diesen Blockbeitrag zu “semantisieren”, was allerdings fehlschlug, weil WordPress Attribute wie @property aus den Tags zu entfernen scheint. Aber vielleicht hat dazu jemand eine Idee?

Das Besondere und die Herausforderung, in dieser Art zu schreiben, liegt darin, dass man sich ständig reflexiv mit dem Text auseinander setzen muss. Besonders schwierig ist dabei die Frage, in welcher Tiefe und Granularität Texte ausgezeichnet werden müssen und sollen. Hier bedarf es sicher weiterer Erfahrungen und auch einer gewissen Kanonisierung. Da sich in einem Webumfeld auch die Lineariät des Textes nicht mehr selbstverständlich versteht, muss man als Autor die Visualisierung des Textes im Auge behalten, – und hier gilt es, nicht nur mit Landow an die hypertextuellen Strukturen zu denken (Verlinkungen zu anderen Texten oder Gegenständen), sondern auch an Dinge wie z.B. ein zu- und aufklappbares Inhaltsverzeichnis und Abstrakt. Die Dinge werden also komplizierter, aber, so meine Überzeugung, die Möglichkeiten des strukturellen Schreibens erhöhen auch die Sichtbarkeit, Funktionalität und Nachnutzbarkeit elektronischer Publikationen und ebenen den Weg zu einem semantic web, das auch Forschungsliteratur auf verschiedenen Ebenen des Textes integriert.

 

Quelle: http://dhd-blog.org/?p=1370

Weiterlesen

Von Lichtenberg zu Voyant und TextGrid und zurück

Geoffrey Rockwell, TAPoR-Gründer und Professor der Philosophie und Humanities Computing an der kanadischen University of Alberta, bloggt auf theoreti.ca erfreut zu unserem DH-Film “Virtual Research Worlds: New Technologies in the Humanities”, in den wir ja einige Anwendungen des von ihm mitentwickelten Tools Voyant eingebaut hatten. Und auch der gute Lichtenberg schafft es auf diese Weise von seiner Bank im Hof des Historischen SUB-Gebäudes zu Göttingen in Rockwells Blog zu multimedia, electronic texts, and computer games:

http://theoreti.ca/?p=4648#more-4648

Der Film auf deutsch ebenfalls bei YouTube: “Virtuelle Forschungswelten: Neue Technologien in den Geisteswissenschaften”

Quelle: http://dhd-blog.org/?p=1352

Weiterlesen

DH Award 2012 Nominee: Totenbuch-Visualisierung

Bei den aktuellen DH Awards (jeder ist aufgerufen, mit abzustimmen!) sind betrüblicherweise nur 2,5 Kandidaten aus dem deutschprachigen Raum nominiert. Neben dem Blog von Anne Baillot, der immerhin in Berlin “spielt” sind das das Institut für Dokumentologie und Editorik (IDE) und – für die Kategorie “Best DH visualization or infographic” – eine Visualisierung aus dem “Totenbuch-Projekt” der Universität Bonn, welches von der Nordrhein-Westfälischen Akademie der Wissenschaften gefördert und vom Cologne Center for eHumanities (CCeH) DH-seitig begleitet wird. Die Visualisierung ist ein recht komplexes “Ding” so dass es sich vielleicht lohnt, auch hier noch einmal ein paar erklärende Worte dazu zu verlieren.

Totenbuch-Gesamtvisualisierung

Worum geht es? Es geht um das altägyptische Totenbuch. Das altägyptische Totenbuch ist ein Textkorpus. Eine Sammlung von Sprüchen, die über einen langen Zeitraum hinweg immer wieder zusammengestellt und aufgeschrieben wurden, um sie einem/r Verstorbenen mit ins Grab zu geben auf dass die Sprüche ihm oder ihr beim Übergang in das Reich der Toten helfen mögen. Das Totenbuch-Projekt dokumentiert die überlieferten Textzeugen (ca. 3000 Totenbücher mit ca. 30.000 einzelnen Spruchnachweisen) und leistet Grundlagenarbeit für die weitere Erforschung des Totenbuchs. Dazu gehört auch, dass man sich einen Gesamteindruck von den einzelnen Sprüchen und ihrer Überlieferung verschaffen möchte.

Häufig und selten überlieferte Sprüche

Die hier zu diskutierende Grafik zeigt zunächst die von der Forschung “kanonisierten” Sprüche in ihrer kanonisierten Reihenfolge. Dabei steht jeder blaue Punkt für einen Spruch. Die Größe des Punktes steht für die Häufigkeit der Überlieferung des Spruches. Man erkennt auf einen Blick, welche Sprüche und Spruchgruppen breit überliefert sind und welche nicht.

Innerhalb des digitalen Textzeugenarchivs als Web-Präsentation des Projekts wird ausgiebig Gebrauch von Visualisierungen gemacht, um die Strukturen und die quantitativen Eigenschaften der überlieferten Textzeugen zu veranschaulichen. Bei dieser Grafik steht eine speziellere Fragestellung im Hintergrund, die einen Schritt in die eher analytische Dimension der Visualisierung markiert. Die Frage lautet: Entspricht die durch die Forschung etablierte kanonische Ordnung der Sprüche (die hauptsächlich auf einem Leitzeugen beruht) der Wirklichkeit der Gesamtüberlieferung? Wie gut entspricht sie ihr? Und wie kanonisch ist die Abfolge der Sprüche auf den Textzeugen wirklich?

Dazu visualisiert die Grafik die Nachbarschaftsverhältnisse zwischen Sprüchen. Es wird ausgezählt, wer die Nachbarn eines Spruches auf einem Textzeugen sind. Auf den überlieferten Objekten häufig benachbarte Sprüche werden in der Grafik durch Linien verbunden. Je dicker die Linie, desto häufiger ist eine Nachbarschaft belegt. Gäbe es eine deterministische Reihenfolge im Textkorpus, dann gäbe es nur eine einzige Verbindungslinie durch alle Sprüche. Wäre die Reihenfolge ganz beliebig, dann gäbe es eine große Zahl unterschiedlichster Verbindungslinien zwischen den Sprüchen. Die Gesamtvisualisierung liefert hier ein recht deutliches Signal: wenn man bedenkt, dass die Überlieferung einen langen Zeitraum (2.300 Jahre), eine große geografische Spannweite (17 Breitengrade), unterschiedlichste materielle Objekte (von Papyrus über Mumienbinden bis zu Grabinschriften) und verschiedenste Überlieferungszustände umfasst, dann ist die Abfolge als durchaus wenig variant zu betrachten. Und sie steht zunächst nicht im Widerspruch zu der Abfolge, mit der die Forschung selbst arbeitet. Ein genauerer Blick kann aber weitere Fragen anstoßen, die diesen Gesamteindruck bestätigen oder relativieren.

Scheinausreißer

Schnell fallen dabei einige dicke Linien auf, die der These einer relativ festen Abfolge zu widersprechen scheinen. Dies ist aber manchmal darauf zurückzuführen, dass aus inhaltlichen Gründen im Projekt Sprüche zusammengelegt wurden, die einen ähnlichen Text bieten. Die stärkste Verbindung von Spruch 47 scheint z.B. nach oben ganz woanders hin zu gehen, tatsächlich zielt sie aber auf Spruch 10/48. Hätte man die beiden nicht zusammengelegt, dann wäre die Reihe durchaus intakt. Das gleiche gilt für die nach unten gehende Linie bei Spruch 50, die auf Spruch 11/49 zielt.

Was ist hier los?

Andere Fälle erklären sich nicht in der gleichen Weise von selbst. So ist die Reihung von 136 zu 137 möglicherweise fragwürdig. Denn ein unmittelbarer Nachbar von 136/136A bzw 136B ist nur in 14 Fällen Spruch 137. Dagegen folgt auf 136B allein 49 mal Spruch 149 und auf 136/136A allein 47 mal Spruch 138 oder 139. Allerdings bedeutet das immer noch nicht, dass eine andere Reihung zu einem “glatteren” System führen würde. Hier wäre vielleicht in einem nächsten Schritt eine differenziertere Untersuchung anzusetzen, die z.B. Zeitstufen oder andere Gruppierungsmerkmale in den Blick nehmen könnte, um der Sache auf den Grund zu gehen.
Dies sind nur willkürliche Beispiel dafür, wie die Gesamtgrafik gelesen werden kann. Sie kann nichts weiter sein als ein ersten Schritt zu einem Verständnis der Gesamtstruktur und erste Einblicke in Details bieten. Dazu bedient sie sich mit der Berücksichtigung nur unmittelbarer Nachbarschaften eines sehr einfachen Modells, das methodisch durchaus fragwürdig ist und ggf. weiter zu verfeinern wäre.
Eines der hier leitenden Designziele ist das Konzept von “Overview & Detail”: man will zugleich einen Gesamteindruck herstellen UND bei näherer Betrachtung (am Bildschirm muss man wohl vom “reinzoomen” sprechen) immer feinere Details erkennbar machen. Das hat, wenn man es konsequent verfolgt, durchaus Nachteile und Kosten: Die Grafik ist recht groß. Zu groß für einen Monitor. Das aber ist Absicht. Es geht um eine Gesamtvisualisierung mit dem Potential für lokale Detailstudien.

Das Ding in meiner Küche

Das Ding im Besprechungsraum

Deshalb war das Ziel von Anfang an nicht eine Darstellung in den Grenzen eines Browserfensters. Tatsächlich sind die größeren Fassungen auch gar nicht vollständig in normalen Browserfenstern darstellbar, weil z.B. Firefox nur ein 7-faches Herauszoomen ermöglicht – und damit ist man immer noch nicht weit genug weg. Die Grafik ist trotzdem auf eine Breite von 210cm ausgelegt worden. Denn hier geht es nicht nur um die Digitalisierung einer materiellen Überlieferung, sondern auch um die Materialisierung digitaler Daten! Die Grafik funktioniert am Bildschirm als Werkzeug für Detailstudien. Hier offenbart auch jede Verbindungslinie beim onmouseover Start- und Endpunkt sowie die absoluten Fallzahlen. Für das Paradigma des Overview&Detail aber muss man seinen Schreibtischstuhl verlassen und die Maus loslassen. Ihre eigentliche heuristische Kraft entfaltet “die Tür”, wie wir den Ausdruck auf einer Forex-Platte nennen erst, wenn man sich vor sie stellt, sie abschreitet und vor- und zurücktritt. Erst diese körperliche Auseinandersetzung mit dem materiellen Objekt, sei es (derzeit, leihweise) in meiner Küche oder im Besprechungsraum des Instituts, entspricht der Informations- und Interaktionsintention der Visualisierung.

Die Menschen dahinter? Die Programmierung lag bei Ulrike Henny, ausgehend von und in einem Prozess der Konzeption und Diskussion mit anderen Kollegen vom CCeH. Wirklich “gemacht” haben aber vor allem die Daten, auf denen alles beruht, eine große Zahl ägyptologischer Fachwissenschaftler, zuletzt unter der Leitung von Marcus Müller, die alle Informationen in den letzten 20 Jahren zusammengetragen haben. Ohne diese Arbeit wüssten wir nichts und könnten nichts sehen.

Die Technik dahinter? Eine xQuery-Abfrage auf den Daten in einer XML-Datenbank (eXist) schreibt eine SVG …

Ausgangsdaten, lokales XML

xQuery schreibt …

… SVG (reduziert)

Quelle: http://dhd-blog.org/?p=1315

Weiterlesen

Das nächste Kapitel aufschlagen! Die Digital Humanities auf den Hochschul- und Berufsinformationstagen (hobit) in Darmstadt

Was sind eigentlich diese Digital Humanities, was macht man da(mit) denn? Diese Fragen unserer “traditionell” ausgerichteten FachkollegInnen haben wir sicherlich alle schon häufig beantworten müssen. Nun, da die DH im Begriff sind, sich zu institutionalisieren, Professuren eingerichtet werden, Module, Schwerpunkte und Studiengänge entstehen, müssen wir auch die Fragen von SchülerInnen, Studieninteressierten und wissenschaftlichem Nachwuchs beantworten. Da an der TU Darmstadt zum einen bereits Erfahrungen in dem seit 2006/07 akkreditierten Masterstudiengang Linguistic and Literary Computing (LLC) bestehen, zum anderen konkrete Pläne zur Entwicklung eines BA-Studienganges Digital Philologies verfolgt werden, sollten Wege gefunden und Materialien konkret erprobt werden, diese Adressatengruppe zu informieren – im Idealfall zu begeistern! Eine weitere Überlegung war, dass Studierende nicht nur die InteressentInnen am besten informieren können, sondern dass es darüber hinaus zu den Berufs- und Schlüsselkompetenzen gehören muss, adressatenorientierte Info-Materialien zu erstellen. Im Rahmen des Seminars “Was sind Digital Humanities? Grundlagen, Voraussetzungen, Vermittlung” des laufenden Wintersemesters 2012/13 haben daher Studierende aus den Studiengängen Joint BA Germanistik, Master Germanistik und Master LLC verschiedene Materialien zusammengestellt, die über die Digital Humanities und entsprechende Studienmöglichkeiten an der TU Darmstadt informieren. Diese Materialien kamen gewissermaßen im Praxistest zum ersten Mal auf den Darmstädter Hochschul- und Berufsinformationstagen (hobit) zum Einsatz, wo die Seminar-Gruppe ebenfalls die Betreuung des Infostandes, der alle Studiengänge des Instituts für Sprach- und Literaturwissenschaft präsentierte, mitübernahm. Da die hobit von zahlreichen SchülerInnen der Rhein-Main-Region besucht werden, die sehr gezielte Fragen nach Ausbildungsinhalten, bedingungen und Berufsperspektiven mitbringen, bot sich eine ausgezeichnete Gelegenheit zum Praxistest. Flankiert wurden die Stand-Aktivitäten durch Vorträge der Lehrenden, die mit jeweils über 100 Interessenten gut besucht waren.

Konkrete Erfahrungen: 1. Bei der Erstellung 2. Auf der Messe 3. Lessons learned.

1. Bei der Erstellung: Eine Herausforderung des Seminars bestand darin, dass die 18 TeilnehmerInnen unterschiedliche Voraussetzungen in Bezug auf den Kenntnisstand zu den DH mitbrachten, da es polyvalent für unterschiedliche Module eingesetzt werden konnte. Im Joint BA Germanistik stand es für die Module Sprache in Texten sowie für den Optionalbereich zur Verfügung, im Master Germanistik deckte es die Felder Texte und Editionen, Angewandte Linguistik und Sprache im Beruf ab, und im Master LLC schließlich die Bereiche Texte und Editionen sowie die Projekte Corpuslinguistik oder Computerphilologie. Diese bewusst gewählte Zusammenstellung von Voraussetzungen und Anforderungen erwies sich jedoch wie erhofft als Vorteil für die Kreativität und die Möglichkeiten zur Zusammensetzung und Ausrichtung der Teams: In vier eng zusammenarbeitenden und ständig interagierenden Unter-Gruppen wurden folgende Materialien erstellt:

• Gruppe 1: Homepage- und Flyertexte – Salmana Iqbal, Christina Klingler, Nicole Volz, Nicole Woitzik
• Gruppe 2: Poster & Flyer – Sascha Bay, Florian Enders, Tim Feuerbach, Antoine McCracken
• Gruppe 3: Berufsperspektiven – Karla Ayllon, Raissa Breder-Bigoszewski, Lena Jungbauer, Sebastian Steinhaus, Nurhayat Yasar
• Gruppe 4: Filme, Präsentationen & Interviews – Leonie Blumenschein, Fenja Kastendiek, Nadezhda Petrova, Christopher Tauchmann, Livia Weber

In den ersten Sitzungen wurde geklärt, wo die notwendigen Sachinformationen eingeholt werden konnten, wo die Kompetenzen und Interessen der TeilnehmerInnen lagen und welche Materialien erstellt werden sollten. Die entsprechenden Gruppen fanden sich zusammen, erste Konkretisierungen der gemeinsam beschlossenen Ideen wurden in den Gruppen selbständig erarbeitet.

Es folgte eine Plenumsphase, in der die Ideen zur Diskussion gestellt, kritisch reflektiert, optimiert und untereinander abgestimmt wurden. In weiteren Iterationen wechselten sich Gruppenarbeitsphasen und Plenums-Rückkopplung ab. Viel Zeit wurde außerhalb der Seminarsitzungen investiert. Alle TeilnehmerInnen blieben dem Seminar treu, niemand sprang ab.

2. Auf der Messe.

Hobit Darmstadt 2013 – Stand des Instituts für Sprach- und Literaturwissenschaft

Realitätskonfrontation: Der Stand ist klein, eng, versteckt. Die Poster drängeln sich auf den erkämpften Stellwänden, der Bildschirm, auf dem der Film läuft, könnte größer sein, der Ton geht im Lärm des allgemeinen Messe-Gewirrs unter. Dennoch: Die Lust, mit der alles zusammengestellt wurde, wird deutlich, der Stand quillt über vor Material, Konventionelles (Bücher, Gummibärchen) mischt sich mit Originellem (Poster, Film, Quiz, Buttons …).

DH Darmstadt Buttons

Mit viel Aufregung und ein wenig Unsicherheit (Wieviele InteressentInnen werden vorbeikommen? Werden sie uns überhaupt finden? Wie spreche ich schüchtern vorbeischauende SchülerInnen an? Welche Fragen werden sie stellen? Weiß ich genug über unsere Studiengänge und Berufsperspektiven?) werden die ersten Gespräche geführt und Flyer verteilt, schließlich sogar gezielt SchülerInnen an den Stand gelockt. Zu den Stoßzeiten geraten wir in den Beratungsflow – die Zeit verfliegt, wir reden und reden. Bei Flaute (am Nachmittag) tauschen wir uns untereinander und mit den KollegInnen an den Nachbarständen aus. Was uns erstaunt (warum eigentlich?): Viele SchülerInnen erzählen uns, dass sie gerne und besessen lesen, gerne mit Sprache umgehen, dass sie daher den dringenden Wunsch verspüren, Germanistik zu studieren; viele finden die Digital Humanities aufregend, weil sie neu sind, die SchülerInnen äußern sich mutig und experimentierfreudig; sehr viele interessieren sich vor allem für konkrete Berufsperspektiven und wissen die Darmstädter Germanistik-Einbettung in das spezifische Umfeld einer technischen Universität, die Ausrichtung auf Angewandte Linguistik, Deutsch als Fremdsprache und Digital Humanities besonders zu schätzen, können die Rahmenbedingungen kritisch einordnen und würdigen.

3. Lessons learned: Man hat immer zu wenig Zeit. Die Materialien werden trotzdem fertig, denn alle geben 200%. Die Möglichkeit, nicht nur für die Schreibtischschublade der Lehrenden, sondern für einen praktischen Einsatz zu arbeiten, verbunden mit der Möglichkeit zu konkreter persönlicher Bewährung setzt Kreativität, Arbeitslust und Verantwortungsbewusstsein frei. Spaß!

Was haben die Studierenden (für die Digital Humanities und für ihre persönliche Bildung) erreicht?
• neues Wissen, Wissen recherchieren, bündeln, auswählen
• Texte adressatenadäquat konzipieren und schreiben
• Text- und Bildsprache reflektieren
• Verantwortung für gemeinsame Projektergebnisse übernehmen, Qualitätssicherungsprozesse
• Team- und Zeitmanagement, Organisation verteilter Arbeitsprozesse
• Berücksichtigung von Designvorgaben und Urheberrecht
• Softwarekenntnisse
• Kommunikationskompetenz (untereinander und nach außen), Umgang mit Kritik (äußern und annehmen, produktiv umsetzen)
• Vermittlungskompetenz, schriftlich und mündlich
• Selbstreflexion: warum studiere ich eigentlich Germanistik/LLC, was erwarte ich für mich und meine
Berufsperspektiven davon? Identifikation mit der Institution und der “Fachheimat”

Was haben wir als Lehrende und als VertreterInnen der sich entwickelnden und etablierenden Digital Humanities gelernt? Das Interesse für neue Studieninhalte und Studienfächer ist riesig – das bestärkt uns im Plan der Entwicklung eines BA-Studiengangs. Gute Beispiele, die veranschaulichen, was Digital Humanists machen, womit sie sich beschäftigen, sind wichtig, genauso wichtig ist aber auch die Zukunfts-, die konkrete Berufsperspektive – ich denke, damit können wir besonders gut punkten. Die Verbindung von Forschung, Abstraktionsvermögen, Theorie- und Modellbildung, die einhergeht mit der Rückbindung an die Praxis, an materielle Artefakte des kulturellen Erbes, an Werkzeuge, an konkrete Anwendungsmöglichkeiten – was die Digital Humanities ja auszeichnet –, stößt auf größtes Interesse und vermag zu überzeugen. Studierende als “Vermittlungsinstanzen” können Ängste der InteressentInnen gut abbauen (Ist die Informatik zu schaffen? Muss ich diesen oder jenen Leistungskurs belegt haben?). Die Digital Humanities haben sich hier als “junge”, offene, mutige Disziplin bestätigt.

Fazit: Im nächsten Jahr unbedingt wieder! Ein herzlicher Dank geht an alle TeilnehmerInnen des Seminars, alle HelferInnen, alle InteressentInnen und an die diesjährigen Organisatorinnen des Instituts-Messestandes Sandra Denzer und Lisa Rhein!

Quelle: http://dhd-blog.org/?p=1258

Weiterlesen

TextGrid sucht Wissenschaftlich-technische/n Software-Architekt/in

Im Arbeitspaket “Betrieb und Softwarepflege Repository”, betreut von der SUB Göttingen, sucht TextGrid für den Bereich Technisches Qualitätsmanagement

eine/n wissenschaftlich-technische/n Software-Architekt/in in Teilzeit (75%, TV-L 13) .

Aufgaben sind u.a.

  • die innovative Weiterentwicklung der TextGrid-Middleware in Zusammenarbeit mit der GWDG, Weiterentwicklung der TextGrid Indizierungs-Infrastruktur für die Recherche in Bezug auf Ausfallsicherheit, Skalierbarkeit und Performanz
  • die wissenschaftliche Konzeption, technologische Begleitung und Dokumentation verschiedener TextGrid Publikations-Prozesse und -Workflows
  • und die Konzeption und Umsetzung von Monitoring-Konzepten für die TextGrid-Infrastruktur in Bezug auf Ausfallsicherheit, Skalierbarkeit und Performanz.

Vorausgesetzt werden u.a.

  • Hochschulstudium der Informatik oder vergleichbare Qualifikation
  • Erfahrungen im Aufbau von (verteilten) Repositorien, z.B. mit Fedora, iRODS etc.
  • Erfahrungen mit Lucéne und SOLR
  • Programmierkenntnisse und grundlegendes Verständnis von Service-Architekturen wie z.B. SOAP und REST
  • Gute Kenntnisse in XML und verwandten Themen, wie TEI, XSLT, XPATH
  • Gute Kenntnisse in RDF
  • Sehr gute Kenntnisse in Linux

Bewerbungsschluss ist der 15.02.2013.

Stellenausschreibung und weitere Infos hier.

Quelle: http://dhd-blog.org/?p=1304

Weiterlesen

DH Summer School Bern 2013

 

 

 

 

 

Ab sofort kann man sich für die diesjährige DH Summer School in Bern (26.-29.06.2013) registrieren:

http://www.dhsummerschool.net/

Auf dem Programm stehen bislang folgende Plenary Sessions:

  • History and Futures of Digital Humanities (Susan Schreibman, Trinity College, Dublin)
  • Digital Textual Editing (Elena Pierazzo, King’s College, London)
  • Social Knowledge Construction and Creation in Literary Studies Environments (Ray Siemens, University of Victoria, Canada)
  • Digital Humanities and Cultural Criticism (David Berry, Swansea University)
  • Historical Data Representation and GIS (Frederic Kaplan, Ecole Polytechnique de Lausanne)
  • Quantitative research methods and network analysis (Claire Lemercier, SciencePo Paris)

Außerdem folgende Workshops / Tutorials:

  • Collaborative work practices in the Digital Humanities (Lynne Siemens, Victoria University)
  • Historical Sources Criticism in the Digital Age (Pascal Föhr, Basel University)
  • Introduction to Network Visualisation with GEPHI (Martin Grandjean, Lausanne University)
  • Multimedia Literacies (Claire Clivaz et al., Lausanne University)
  • Prototyping and Visualizing Virtual Places (Eric Champion, Aarhus University)
  • TEI and Musicology (Laurent Pugin & Claudio Bacciagaluppi, Bern University)
  • Zotero and Citation Management Softwares (Nicolas Chachereau, Lausanne University)

Eine unconference rundet das Programm ab.

Die Teilnehmerzahl ist auf 60 beschränkt!

Quelle: http://dhd-blog.org/?p=1284

Weiterlesen

Der Hype um das Internet, die digitale Welt und der ganze Rest #rkb13

Die Titelgrafik der RKB-Tagung basiert auf einem Design von Moma Propaganda, São Paolo. www.momapropaganda.com.br

 

Die RKB-Tagung in München ist gerade vorüber. Wer nicht dabei sein konnte, hatte via Twitter und über hypotheses.org die Möglichkeit “live” dabei zu sein und auf dem neuesten Stand zu bleiben. Nun freut es umso mehr, dass sich die Süddeutsche Zeitung ausgiebig mit dem Thema der Wissenschaftskommunikation befasst (Ausgabe 29 vom 4.2.2013, S. 9).

Exempli gratia ist der Publikationsprozess, samt vorgelagerter Erarbeitung von Informationen, wobei die Reduktion auf den Begriff “filtern” eher zu pauschalisierend ist, bis zur Thesenentwicklung und anschließendem Schreibprozess. Schlagwörter wie “Open Access” dürfen in diesem Zusammenhang nicht fehlen. Der Rückgriff auf die Infrastrukturen als Allheilsbringer der Geisteswissenschaften geht dann doch etwas weit. Hier werden wissensgenerierende Methoden zu stark mit dem Output der Wissenschaften verknüpft, mit dem Paper, mit dem Buch, mit der Online-Publikation. Denn auf einen solchen Output hinzuarbeiten, dürfte keinem Infrastrukturprojekt als Ziel dienen. Wenn dies so wäre, dann würden Infrastrukturen zu stark an einzelne Projekte und Forschungsvorhaben gebunden sein. Das dem nicht so ist, sollte klar werden, schaut man auf die heterogene Nutzerlandschaft, die gesamten Geisteswissenschaften.

Aber allein durch die Nutzung digitaler Tools wie Mendeley, Geobrowsern oder Visualisierungsumgebungen wie Gephi beginnt keine neue Epoche. Die Fragestellungen sind – ja, sie dürfen es auch explizit sein – die gleichen wie zuvor. Denn das bestätigen oder verwerfen alter Thesen ist ein guter Anfang um schließlich neue Fragestellungen zu entwickeln und diese auch an einer großen Masse an Daten überprüfen zu können. Erst an dieser Stelle kommt die Infrastruktur ins Spiel, deren Rolle zwar zentral ist, die aber den nach wie vor analogen Vorgang der Hypothesenbildung wenn überhaupt nur ein wenig unterstützen kann. Das bedeutet, dass das überaus kreative Vorgehen und Arbeiten in der Wissenschaft nach wie vor nicht von Maschinen ersetzt werden kann.

Der Spiegel schrieb im April 1957 im Zusammenhang mit Roberto Busas Corpus Thomisticus von “Text-Analyse durch Elektronen-Gehirne” (S. 62) und die innerkirchliche Diskussion – zu den vom Teufel persönlich entsandten Maschinen – blieb nicht aus. Vielleicht ist die aktuelle Diskussion davon nicht so weit weg. So klingt es zumindest etwas esoterisch, wenn vom “magischen [...] Vorsprung” durch Technik geschrieben wird; im SZ-Artikel und auch in den Tweets.

Quelle: http://dhd-blog.org/?p=1248

Weiterlesen