Die Werke der Bamberger Offizin Pfister zwischen Handschrift und Druck

Der vorliegende Beitrag ist eine inhaltlich unwesentlich veränderte Version des auf dem TZM-Wor...

Quelle: https://mittelalter.hypotheses.org/12596

Weiterlesen

„Das Bier ist matt.“


Auswertung der Frage 5 des Fragebogens LVIII aus dem Jahr 1976

Die ersten Erhebungen der Dialekte in Franken unternahm die Kommission für Mundartforschung der Bayerischen Akademie der Wissenschaften im Jahr 1913. Ihr folgte eine Reihe weiterer Dia­lekterhebungen. Die umfänglichste fand von 1961 bis 2001 statt. In diesem Zeitraum erreichten über 48.000 ausgefüllte Fragebö­gen die Forschungsstelle des Fränkischen Wörterbuchs (WBF).[1] Diese Erhebungsserie wird derzeit elektronisch erfasst und mit dem Ziel ausgewertet, ein Online-Wörter­buch zu erarbeiten.

Ausgehend von der Frage „Welche Leistungen kann ein Online-Wörterbuch anbieten, die über die Beschreibung eines Einzellem­mas hinaus gehen?“ hat man im Online-Wörterbuch „elexiko“ neue Typen von Wortartikeln entwickelt. In den sogenannten „Wortgruppenartikeln“ werden zu einem bestimmten Wort „sinnverwandte Wörter zusammen[ge]fass[t], […] die Stichwörter eines Themenfeldes betrachte[t] und Wortfelder“ erstellt (Klosa 2015:34).

[...]

Quelle: http://fraenkisch.hypotheses.org/15

Weiterlesen

Edition der Randnotizen. José L. Losada Palenzuela über sein Digitalisierungsprojekt zu den Marginalien Arthur Schopenhauers

Dr. José Luis Losada Palenzuela

Dr. José Luis Losada Palenzuela

Arthur Schopenhauer (1788‒1860) ist als Philosoph ein Begriff. Weniger bekannt ist hingegen, dass er auch Übersetzer war. So übertrug er u.a. das moralische Traktat Oráculo manual y arte de prudencia des spanischen Barockschriftstellers Baltasar Gracián (1601‒1658) ins Deutsche. Durch Schopenhauers Übersetzung wurde Graciáns Werk in Deutschland wieder bekannt und so verwundert es nicht, dass viele sogar denken, Schopenhauer selbst sei der Autor des Textes gewesen.

Dr. José L.

[...]

Quelle: http://dhd-blog.org/?p=6769

Weiterlesen

Wiss. Mitarbeiter/in im Projekt Computergestützte literarische Gattungsstilistik

An der Julius-Maximilians-Universität Würzburg ist in der BMBF-geförderten eHumanities-Nachwuchsgruppe “Computergestützte literarische Gattungsstilistik” (Leitung: Dr. Christof Schöch) am Lehrstuhl für Computerphilologie zum nächstmöglichen Zeitpunkt die Stelle

einer/s wissenschaftlichen Mitarbeiters/Mitarbeiterin (bis TV-L 13, 65%)

befristet bis zum 31.3.2019 zu besetzen.

Zu den mit der Stelle verbundenen Aufgaben gehört Projektarbeit im Bereich der computergestützten Gattungsstilistik auf der Grundlage französischer, ggfs. auch spanischer, literarischer Texte sowie die aktive Teilnahme an den Aktivitäten der Nachwuchsgruppe. Eine Lehrverpflichtung ist mit der Stelle nicht verbunden.

[...]

Quelle: http://dhd-blog.org/?p=6447

Weiterlesen

Euro-Babel: Better Analysis Based on Endangered Languages

http://www.babel.gwi.uni-muenchen.de/ The goal of the project is to provide innovative descriptive resources for and modern linguistic analysis of two related Ob-Ugric languages Khanty (Ostyak) and Mansi (Vogul). Both languages are highly endangered: of the many Mansi dialects only the Northern one survives, and the percentage of native speakers is under 20% (out of ca. 8000 […]

Quelle: http://www.einsichten-online.de/2015/05/5856/

Weiterlesen

aventinus recensio Nr. 42a [02.09.2014]: C. Paye: Der französischen Sprache mächtig. Kommunikation im Span­nungs­feld v. Sprachen u. Kulturen im Königreich Westphalen. München 2013 [=Skriptum 3 (2013), Nr. 2]

Was es damals tatsächlich bedeutete, „der französischen Sprache mächtig“ zu sein, untersucht Claudie Paye in ihrer gleichnamigen Dissertation mit dem Untertitel „Kommunikation im Spannungsfeld von Sprachen und Kulturen im Königreich Westphalen 1807–1813“ http://bit.ly/Wr7I8k

Quelle: http://www.einsichten-online.de/2014/09/5356/

Weiterlesen

durchsichten: Nationale und transnationale Perspektiven der Geschichte der Sprachwissenschaft, hrsg. v. Gerda Gaßler. Münster 2011

http://www.uni-potsdam.de/romanistik/hassler/298-00%20%282%29.pdf In den letzten Jahren ist die Entstehung sprachtheoretischer Konzepte und Theorien innerhalb von geographischen Räumen verstärkt in das Blickfeld der Historiographie der Linguistik gerückt. In diesem Kontext wird der Begriff der ‘Tradition’ häufig auf Zusammenhänge in großen, durch sprachliche und historische Gemeinsamkeiten gekennzeichnete Linien der Sprachreflexion bezogen. Zweifellos ist es sinnvoll, von einer indischen, […]

Quelle: http://www.einsichten-online.de/2014/02/4941/

Weiterlesen

Geplante Sprachen

Im Unterschied zu natürlichen Sprachen, die sich irgendwann1 im Laufe der Menschheitsgeschichte entwickelt haben, werden Plansprachen (auch konstruierte Sprachen genannt) von einzelnen Menschen oder Gruppen entworfen. Der Entwurf solcher Plansprachen kann auf unterschiedliche Beweggründe zurückgeführt werden; der bekannteste ist wohl die Erleichterung der Kommunikation über die Grenzen natürlicher Sprachen hinweg durch die Erschaffung einer künstlichen Lingua Franca. Esperanto – 1887 vom polnischen Augenarzt und Philologen Ludwig Zamenhof vorgestellt – dürfte wohl jeder Leserin bzw. jedem Leser ein Begriff sein. Es ist allerdings nur einer von mehreren Ansätzen, eine künstliche Sprache zu schaffen, die als Kommunikationsmittel für die gesamte Weltgemeinschaft dienen könnte.

Das Vokabular des Esperanto besteht zum großen Teil aus Entlehnungen aus romanischen Sprachen, ein Teil lässt sich aber auch auf germanische und slawische Ursprünge zurückführen. Zur leichten Erlernbarkeit setze Zamenhof auf strenge Regularitäten, z.B. eine phonematische Schriftweise (jedem Laut wird genau ein Schriftzeichen zugeordnet bzw. linguistisch korrekt: jedem Phonem entspricht genau ein Graphem); die Wortbildung ist an agglutinierende Sprachen (z.B. Türkisch) angelehnt, wo Sinneinheiten (linguistisch: sprachlichen Konzepten) eindeutige Wortbestandteile (linguistisch: Morpheme) zugeordnet sind. So ist ein Wort, das auf -o endet, immer ein Substantiv, eins auf -a immer ein Adjektiv. Durch Anhängen von -j kann man den Plural bilden, durch Vorsetzen von mal- verneinen:

  • la bela Blogo – der schöne Blog
  • la malbenaj Blogoj – die nicht schönen Blogs

Zamenhof bediente sich also des Vokabulars verschiedener natürlicher Sprachen und versuchte, die Grammatik weitestgehend zu systematisieren. Solche artifiziellen Sprachkonstrukte, die sich an natürlichsprachlichen Vorbildern orientieren, nennt man auch Plansprachen a posteriori. Sie werden unterschieden2 von Plansprachen a priori, die sich in erster Linie an anderen Konzepten (z.B. Logik, Kategorienlehre) anlehnen.

Solche a-priori-Plansprachen können u.a. philosophisch inspiriert sein, wenn z.B. die natürliche Ordnung der Dinge in der Sprache widergespiegelt werden soll. Einen solchen Ordungsversuch unternimmt etwa der anglikanische Geistliche und Naturphilosoph John Wilkins, niedergelegt in seinem “Essay towards a Real Character and a Philosophical Language” von 1668.3 Dafür musste er zunächst grundlegende Begriffsvorstellungen klassifizieren. Für diese klassifizierten Grundideen entwickelt er eine Begriffsschrift, bei der Grundkonzepte aus wenigen Linien bestehen, Untergattungen dann jeweils noch weitere Striche hinzufügen. Daraus resultiert, dass ähnliche Konzepten (die aus den gleichen Obergattungen abgeleitet sind) ähnliche Schriftzeichen zugeordnet werden. In der Übersetzung des Vater unser (Abbildung unten) ist zu sehen, dass sich “Earth” (Zeichen 21) von “Heaven” (24) nur durch einen zusätzlichen Querstrich rechts am Zeichen unterscheidet. Beide sind aus dem Zeichen für “World”, das ähnlich wie ein Additionszeichen (+) aussieht, abgeleitet. “Power” (71) und “Glory” (74) sind, nach ihren Zeichenkörpern zu urteilen, ebenfalls verwandte Konzepte für Wilkins, wie auch (etwas etwas weiter voneinander entfernt) “trespass” (50) und “evil” (65).

Das "Vater unser" in der Darstellung mit Wilkins Real Characters

Eine grundlegende Eigenschaft natürlichsprachlicher Zeichen ist die willkürliche (arbiträre) Zuordnung von Bezeichnendem (oder Zeichenkörper, Ausdruck, Signifiant) zu Bezeichnetem (oder dahinterstehendem Konzept, Inhalt, Signifié). Wilkins scheint daran gelegen zu haben, diese Willkür weitgehend aufzuheben bzw. stringenter zu systematisieren, hin zu einem Isomorphismus zwischen Ausdruck und Inhalt. Das Resultat sollte eine nahezu perfekte Sprache sein, durch die Wahrheiten ausgedrückt oder sogar berechnet werden könnten, die sich in natürlichen Sprachen nicht ausdrücken bzw. automatisch berechnen lassen.

Mir ist nicht bekannt, ob jemals wer in der von Wilkins entworfenen Universalsprache tatsächlich korrespondiert hat – für die Zeichen waren keine verbalen Entsprechungen vorgesehen, ein mündlicher Austausch war daher ohnehin ausgeschlossen. Die Aufhebung der arbiträren Zuordnung zwischen Signifiant und Signifié dürfte allerdings im alltäglichen Gebrauch Probleme bereiten: Sprachsignale werden nie perfekt übertragen, auch in der schriftlichen Kommunikation kann es zu Schreibfehlern, Undeutlichkeiten, Verschmutzungen etc. kommen. In einer Sprache, wo ähnliche Signifiants völlig unterschiedlichen Signifiés zugeordnet sind (wie in natürlichen Sprachen), dürfte eine Disambiguierung (linguistisch für die Auflösung von Mehrdeutigkeiten) über den Kontext sehr viel erfolgreicher verlaufen, als in Sprachen, in denen ähnliche Zeichen auch ähnliches bedeuten (wie in Wilkins Sprachkonstrukt).

Der Universalsprachentwurf nach Wilkins hatte mit noch mehr Problemen zu kämpfen, insbesondere stellte die Klassifikation aller denkbaren (und damit potentiell in der Sprache zu verwendenden) Dinge Wilkins vor schwer bewältigbare Herausforderungen.4 Dennoch empfand ich die Beschäftigung mit ihr als lohnend, nicht zuletzt, weil viele der seltsamen Eigenschaften des Textes meines Lieblingsforschungsobjektes (dem Voynich Manuskript) durch einen ähnlichen Sprachentwurf erklärt werden könnten. Diese Idee hatte bereits einer der angesehensten Kryptoanalytiker des 20. Jahrhunderts, der Amerikaner William F. Friedman.5  Problematisch an dieser Hypothese war nur, dass das Voynich Manuskript mit einiger Sicherheit schon zu Beginn des 17. Jahrhunderts in Prag kursierte, die ersten Plansprachen a priori aber scheinbar erst über ein halbes Jahrhundert später entworfen wurden (George Dalgarno 1661 und eben Wilkins 1668). Vor kurzem konnte aber gezeigt werden, dass bereits zum Anfang des 16. Jahrhunderts Methoden niedergelegt wurden, deren Anwendung etwas erzeugt, das den Eindruck erwecken kann, ein Text eines Universalsprachentwurfs zu sein, in Wirklichkeit aber ein Chiffrentext ist. Aber dazu hab ich ja schon mal was geschrieben.

So, von den zwei Versprechen, die ich im letzten Post gab, habe ich jetzt das erste eingelöst und damit das andere auch ein wenig wegprokrastiniert. Aber auch da geht es voran. Gut Ding will Weile haben…

______________________________

  1. Niemand weiß so genau, zu welchem Zeitpunkt der Mensch anfing, seine Sprache, die sich wahrscheinlich grundlegend von Tierkommunikationssystemen unterscheidet (ich schrieb darüber), auszubilden. Ist vielleicht mal einen eigenen Post wert.
  2. Diese Unterscheidung wurde schon 1903 in der Histoire de la langue universelle von Couturat und Leau vorgenommen.
  3. Leider habe ich online keine vollständige Ausgabe gefunden – vielleicht hat ja jemand mehr Glück und schickt mir den Link, dann kann ich ihn einbauen. Müsste sich aber wohl um Bilder handeln – da im Original sehr viele Stammbäume abgedruckt sind, düften automatische OCR-Scans Probleme haben.
  4. Der Versuch der Sammlung und Kategorisierung aller Konzepte durch Wilkins und seine Mitstreiter, die er in der Royal Society gewann/zwangsverpflichtete, wird sehr anschaulich im Roman Quicksilver, dem ersten Teil des Baroque Cycle von Neal Stephenson beschrieben.
  5. Den Gepflogenheiten eines Kryptologen entsprechend hinterließ Friedman seine Vermutung in einem in einer Fußnote verstecktem Anagramm, das viel zu lang war, als dass man es hätte lösen können: “I put no trust in anagrammic acrostic cyphers, for they are of little real value – a waste – and may prove nothing -finis.” Nach seinem Tod war Elizebeth Friedman, seine Witwe und ebenso eine bekannte Kryptoanalytikerin, so gut, die Welt aufzuklären: “The Voynich MSS was an early attempt to construct an artificial or universal language of the a priori type. – Friedman.”

Quelle: http://texperimentales.hypotheses.org/968

Weiterlesen

Geplante Sprachen

Im Unterschied zu natürlichen Sprachen, die sich irgendwann im Laufe der Menschheitsgeschichte entwickelt haben1, werden Plansprachen (auch konstruierte Sprachen genannt) von einzelnen Menschen oder Gruppen entworfen. Der Entwurf solcher Plansprachen kann auf unterschiedliche Beweggründe zurückgeführt werden; der bekannteste ist wohl die Erleichterung der Kommunikation über die Grenzen natürlicher Sprachen hinweg durch die Erschaffung einer künstlichen Lingua Franca. Esperanto - 1887 vom polnischen Augenarzt und Philologen Ludwig Zamenhof vorgestellt – dürfte wohl jeder Leserin bzw. jedem Leser ein Begriff sein. Es ist allerdings nur einer von mehreren Ansätzen, eine künstliche Sprache zu schaffen, die als Kommunikationsmittel für die gesamte Weltgemeinschaft dienen könnte.

Das Vokabular des Esperanto besteht zum großen Teil aus Entlehnungen aus romanischen Sprachen, ein Teil lässt sich aber auch auf germanische und slawische Ursprünge zurückführen. Zur leichten Erlernbarkeit setze Zamenhof auf strenge Regularitäten, z.B. eine phonematische Schriftweise (jedem Laut wird genau ein Schriftzeichen zugeordnet bzw. linguistisch korrekt: jedem Phonem entspricht genau ein Graphem); die Wortbildung ist an agglutinierende Sprachen (z.B. Türkisch) angelehnt, wo Sinneinheiten (linguistisch: sprachlichen Konzepten) eindeutige Wortbestandteile (linguistisch: Morpheme) zugeordnet sind. So ist ein Wort, das auf -o endet, immer ein Substantiv, eins auf -a immer ein Adjektiv. Durch Anhängen von -j kann man den Plural bilden, durch Vorsetzen von mal- verneinen:

  • la bela Blogo – der schöne Blog
  • la malbenaj Blogoj – die nicht schönen Blogs

Zamenhof bediente sich also des Vokabulars verschiedener natürlicher Sprachen und versuchte, die Grammatik weitestgehend zu systematisieren. Solche artifiziellen Sprachkonstrukte, die sich an natürlichsprachlichen Vorbildern orientieren, nennt man auch Plansprachen a posteriori. Sie werden unterschieden2 von Plansprachen a priori, die sich in erster Linie an anderen Konzepten (z.B. Logik, Kategorienlehre) anlehnen.

Solche a-priori-Plansprachen können u.a. philosophisch inspiriert sein, wenn z.B. die natürliche Ordnung der Dinge in der Sprache widergespiegelt werden soll. Einen solchen Ordungsversuch unternimmt etwa der anglikanische Geistliche und Naturphilosoph John Wilkins, niedergelegt in seinem “Essay towards a Real Character and a Philosophical Language” von 1668.3 Dafür musste er zunächst grundlegende Begriffsvorstellungen klassifizieren. Für diese klassifizierten Grundideen entwickelt er eine Begriffsschrift, bei der Grundkonzepte aus wenigen Linien bestehen, Untergattungen dann jeweils noch weitere Striche hinzufügen. Daraus resultiert, dass ähnliche Konzepten (die aus den gleichen Obergattungen abgeleitet sind) ähnliche Schriftzeichen zugeordnet werden. In der Übersetzung des Vater unser (Abbildung unten) ist zu sehen, dass sich “Earth” (Zeichen 22) von “Heaven” (24) nur durch einen zusätzlichen Querstrich rechts am Zeichen unterscheidet. Beide sind aus dem Zeichen für “World”, das ähnlich wie ein Additionszeichen (+) aussieht, abgeleitet. “Power” (71) und “Glory” (74) sind, nach ihren Zeichenkörpern zu urteilen, ebenfalls verwandte Konzepte für Wilkins, wie auch (etwas etwas weiter voneinander entfernt) “trespass” (50) und “evil” (65).

Das "Vater unser" in der Darstellung mit Wilkins Real Characters

Eine grundlegende Eigenschaft natürlichsprachlicher Zeichen ist die willkürliche (arbiträre) Zuordnung von Bezeichnendem (oder Zeichenkörper, Ausdruck, Signifiant) zu Bezeichnetem (oder dahinterstehendem Konzept, Inhalt, Signifié). Wilkins scheint daran gelegen zu haben, diese Willkür weitestgehend aufzuheben bzw. stringenter zu systematisieren, hin zu einem Isomorphismus zwischen Ausdruck und Inhalt. Das Resultat sollte eine nahezu perfekte Sprache sein, durch die Wahrheiten ausgedrückt oder sogar berechnet werden könnten, die sich in natürlichen Sprachen nicht ausdrücken bzw. automatisch berechnen lassen.

Mir ist nicht bekannt, ob jemals wer in der von Wilkins entworfenen Universalsprache tatsächlich korrespondiert hat – für die Zeichen waren keine verbalen Entsprechungen vorgesehen, ein mündlicher Austausch war daher ohnehin ausgeschlossen. Die Aufhebung der arbiträren Zuordnung zwischen Signifiant und Signifié dürfte allerdings im alltäglichen Gebrauch Probleme bereiten: Sprachsignale werden nie perfekt übertragen, auch in der schriftlichen Kommunikation kann es zu Schreibfehlern, Undeutlichkeiten, Verschmutzungen etc. kommen. In einer Sprache, wo ähnliche Signifiants völlig unterschiedlichen Signifiés zugeordnet sind (wie in natürlichen Sprachen), dürfte eine Disambiguierung (linguistisch für die Auflösung von Mehrdeutigkeiten) über den Kontext sehr viel erfolgreicher verlaufen, als in Sprachen, in denen ähnliche Zeichen auch ähnliches bedeuten (wie in Wilkins Sprachkonstrukt).

Der Universalsprachentwurf nach Wilkins hatte mit noch mehr Problemen zu kämpfen, insbesondere stellte die Klassifikation aller denkbaren (und damit potentiell in der Sprache zu verwendenden) Dinge Wilkins vor schwer bewältigbare Herausforderungen.4 Dennoch empfand ich die Beschäftigung mit ihr als lohnend, nicht zuletzt, weil viele der seltsamen Eigenschaften des Textes meines Lieblingsforschungsobjektes (dem Voynich Manuskript) durch einen ähnlichen Sprachentwurf erklärt werden könnten. Diese Idee hatte bereits einer der angesehensten Kryptoanalytiker des 20. Jahrhunderts, der Amerikaner William F. Friedman.5  Problematisch an dieser Hypothese war nur, dass das Voynich Manuskript mit einiger Sicherheit schon zu Beginn des 17. Jahrhunderts in Prag kursierte, die ersten Plansprachen a priori aber scheinbar erst über ein halbes Jahrhundert später entworfen wurden (George Dalgarno 1661 und eben Wilkins 1668). Vor kurzem konnte aber gezeigt werden, dass bereits zum Anfang des 16. Jahrhunderts Methoden niedergelegt wurden, deren Anwendung etwas erzeugt, das den Eindruck erwecken kann, ein Text eines Universalsprachentwurfs zu sein, in Wirklichkeit aber ein Chiffrentext ist. Aber dazu hab ich ja schon mal was geschrieben.

So, von den zwei Versprechen, die ich im letzten Post gab, habe ich jetzt das erste eingelöst und damit das andere auch ein wenig wegprokrastiniert. Aber auch da geht es voran. Gut Ding will Weile haben…

______________________________

1 Niemand weiß so genau, zu welchem Zeitpunkt der Mensch anfing, seine Sprache, die sich wahrscheinlich grundlegend von Tierkommunikationssystemen unterscheidet (ich schrieb darüber), auszubilden. Ist vielleicht mal einen eigenen Post wert.

2 Diese Unterscheidung wurde schon 1903 in der Histoire de la langue universelle von Couturat und Leau vorgenommen.

3 Leider habe ich online keine vollständige Ausgabe gefunden – vielleicht hat ja jemand mehr Glück und schickt mir den Link, dann kann ich ihn einbauen. Müsste sich aber wohl um Bilder handeln – da im Original sehr viele Stammbäume abgedruckt sind, düften automatische OCR-Scans Probleme haben.

4 Der Versuch der Sammlung und Kategorisierung aller Konzepte durch Wilkins und seine Mitstreiter, die er in der Royal Society gewann/zwangsverpflichtete, wird sehr anschaulich im Roman Quicksilver, dem ersten Teil des Baroque Cycle von Neal Stephenson beschrieben.

5 Den Gepflogenheiten eines Kryptologen entsprechend hinterließ Friedman seine Vermutung in einem in einer Fußnote verstecktem Anagramm, das viel zu lang war, als dass man es hätte lösen können: “I put no trust in anagrammic acrostic cyphers, for they are of little real value – a waste – and may prove nothing -finis.” Nach seinem Tod war Elizebeth Friedman, seine Witwe und ebenso eine bekannte Kryptoanalytikerin, so gut, die Welt aufzuklären: “The Voynich MSS was an early attempt to construct an artificial or universal language of the a priori type. – Friedman.”

Quelle: http://texperimentales.hypotheses.org/968

Weiterlesen

Über Sprache und Tierkommunikation

  Kürzlich erschien in einer populären Wissenschaftszeitschrift ein Artikel1 zur “Gabe der Sprache”, in dem auch thematisiert wurde, ob und in wie weit sich menschliche Sprache von so genannten “Tiersprachen” unterscheidet. In der Klärung dieser Frage blieb der Artikel allerdings sehr vage, was mich ein wenig ärgerte und letztlich dazu veranlasste, selbst etwas darüber zu schreiben. Gradueller oder fundamentaler Unterschied? Die Beschäftigung mit dem Thema blickt auf eine lange Tradition zurück: Schon Aristoteles und Epikur stellten Mutmaßungen über den Status der Verständigung von Tieren untereinander an. Für René Descartes, der in seinem Dualismus streng zwischen Geist und Materie trennte, ist die Sprache Ausdruck des Verstandes, also auf der geistigen Seite der Welt verortet, während Tiere als seelenlose Automaten keine solche haben können. Einen derart fundamentalen Unterschied zwischen menschlicher Sprache und Tierkommunikation nimmt im 20. Jahrhundert auch der Linguist Noam Chomsky an, der Sprache als spezifisch menschliches Organ ansieht, das zwar genetisch determiniert ist, in der Evolution aber lediglich den Menschen zufiel. "Gandhiji's Three Monkeys" von Kalyan Shah, CC-BY-SA Die Gegenposition wird von den Anhängern der Kontinuitiätstheorie vertreten, die von einem Stufenmodell tierischer Kommunikation ausgehen, in dem die menschliche Sprache die höchste bekannte Stufe einnimmt. Einer ihrer Vertreter ist Charles Darwin, der viele Parallelen in der nichtsprachlichen Kommunikation von Menschen und höheren Tierarten ausmacht und die Tatsache der Entwicklung einer komplizierten Lautsprache vor allem auf die Größe und Leistungsfähigkeit des menschlichen Gehirns zurückführt. Die Kontinuitätstheorie hat auch in unserem Jahrhundert noch Anhänger, welche sich vor allem auf Studien zur Kommunikation von Tieren berufen. Natürliches Verhalten oder gezieltes Training? Kommunikation mit Artgenossen ist für viele Tierarten überlebenswichtig, etwa wenn es um die Suche nach Nahrung oder um die Warnung vor Feinden geht. Die komplexesten bekannten Beispiele sind dabei sicherlich der Schwänzeltanz von Honigbienen und das Alarmrufsystem von Meerkatzen. Neben der Beobachtung dieser natürlichen Verhaltensweisen wird oft auch versucht, der Sprachfähigkeit von Tieren über speziell entwickelte Versuchsanordnungen auf die Spur zu kommen. Dazu wird entweder das Vorhandensein von für die menschliche Sprache als grundlegend angenommene Fähigkeiten überprüft (z.B. Kombinationsfähigkeit, Verarbeitung rekursiver Strukturen; darauf gehe ich unten noch genauer ein), oder es wird sogar versucht, mit Tieren über eigens geschaffene Sprachkonstrukte zu kommunizieren. Hinsichtlich solcher sprachbasierter Mensch-Tier-Kommunikation wurden die besten Ergebnissen mit Primaten erzielt. Da Affen nicht über einen Sprechapparat verfügen, der mit dem menschlichen vergleichbar ist, konnte dabei nicht auf verbale Kommunikation zurückgegriffen werden. Stattdessen wurden Gesten oder Symbolbilder entwickelt und den Primaten beigebracht. Diese begriffen mal mehr, mal weniger schnell, dass bestimmte Symbole bzw. Gesten für bestimmte Konzepte standen und sich daraus produktiv eigenständige Kombinationen bilden ließen. So antwortete die trainierte Schimpansendame Washoe etwa, als sie aufgefordert wurde, sich zu Radieschen zu äußern (für die sie keine eigene Geste gelernt hatte) mit einer Kombination der Gesten für “Weinen”, “wehtun” und “Frucht”. Sonderlich geschmeckt hatten sie ihr also nicht. Inhaltliche oder formale Unterschiede? Die Kluft zwischen Mensch- und Tiersprachen scheint also gar nicht so weit und tief zu sein, wie manche bis zur Durchführung der Primaten-Experimente annahmen. Zumindest der produktive Einsatz von Sprachsymbolen scheint auch Tieren gelingen zu können. Ohnehin rütteln neuere Forschungsergebnisse an so gut wie jedem kategoriellen Unterschied, der zwischen der menschlichen Sprache und den Kommunikationssystemen von Tieren postuliert wurde. Der Linguist Charles Hockett erarbeitete eine Aufstellung von 13 Merkmalen, die lautsprachliche Kommunikation auszeichnen. Hockett selbst ist Anhänger der Kontinuitätshypothese, geht also davon aus, dass kein kategorieller Unterschied zwischen der Kommunikation von Tieren und menschlicher Sprache existiert. So finden sich dann auch viele der von Hockett angeführten Merkmale bei verschiedenen Ausprägungen der Tierkommunikation, etwa der Transport von Bedeutung und – wie oben gesehen – die Produktivität.2 Was bleibt also noch an spezifischen Merkmalen für die menschliche Sprache übrig? Lassen sich vielleicht auf inhaltlicher Seite Unterschiede ausmachen, also bei dem, was Anlass der Verständigung ist? Oft heißt es, animale Kommunikation sei an den Moment gebunden, Tiere verständigten sich nicht über Zukünftiges oder Vergangenes. Sie seien auch nicht fähig zur Metasprache, also der Verständigung über die Sprache selbst. Ich halte diese inhaltlich motivierten Unterschiede für schwer überprüfbar, so lange wir z.B. Vogel- und Walgesänge nicht wirklich verstehen. Bleiben die Unterschiede, welche die Form / die Organisiertheit von Sprache betreffen. Nach Chomsky ist ein Wesensmerkmal menschlicher Sprachen, dass sie rekursive Strukturen enthalten. Diese sorgen dafür, dass man mit einem begrenzten Inventar sprachlicher Einheiten und Verknüpfungsregeln prinzipiell unendlich viele Sätze erzeugen kann. Solche rekursiven Strukturen lassen sich z.B. bei sogenannten Schachtelsätzen, also der Einbettung immer neuer Relativsätze, beobachten: Der Löwe, der den Kojoten, der das Pferd, das graste, fraß, jagte, [hat schöne Augen]. Ungeachtet dessen, dass Sätze dieser Art schnell inakzeptabel werden, sind ihre Bildungen prinzipiell möglich. Sie gehorchen dem Schema anbn, das heißt für jedes a (hier: Subjekt) muss genau ein b (hier: Verb) folgen. Und zwar nicht umgehend (das entspräche dem Muster (ab)n und wäre ohne rekursive Bildungsregeln zu erfassen), sondern erst, nachdem alle a aufgezählt wurden. Um einen solchen Satz zu prozessieren ist ein sogenannter Kellerspeicher notwendig, mit dem protokolliert werden kann, wie viele a denn nun auftraten. Gemäß der Chomsky-Hierarchie formaler Sprachen ist ein solches Kommunikationssystem mindestens auf der zweiten, der kontextfreien Stufe anzusiedeln, deren Beherrschung Chomsky eben nur den Menschen zutraut. Tatsächlich schienen Studien an Liszt-Äffchen zu bestätigen, dass diese rekursive Strukturen nicht erkennen konnten. Spätere Forschungen ergaben allerdings, dass Stare damit offensichtlich kein Problem hatten. Damit bleibt eigentlich nur noch ein Strukturmerkmal übrig, das der menschlichen Lautsprache vorbehalten ist: Das Prinzip der doppelten Artikulation Das Prinzip der doppelten Artikulation oder der zweifachen Gliederung, wie es vielleicht weniger irreführend bezeichnet werden könnte, geht auf den französischen Linguisten André Martinet zurück und wird für Zeichensysteme verwendet, die mehrere Gliederungsebenen aufweisen. So findet sich in allen natürlichen Sprachen eine Ebene, welche die grundlegenden sprachlichen Einheiten enthält (Phoneme oder in der Schriftsprache Grapheme), aus denen alle anderen Einheiten zusammengesetzt sind. Diese Einheiten tragen selbst keine Bedeutung, können aber sehr wohl Bedeutung unterscheiden. Aus der Kombination dieser Grundbausteine resultieren größere Einheiten (die kleinsten davon sind Morpheme, die wiederum zu Wörtern, Phrasen, Sätzen usw. kombiniert werden können), welche dann auch mit Bedeutungen verknüpft sind. Ein Beispiel: H und F tragen an sich keine Bedeutung, unterscheiden aber auf formaler (nicht inhaltlicher) Ebene Hund von Fund (ich erspare den Lesenden hier die lautsprachliche Transkription). Dadurch, dass es ein Inventar von Einheiten gibt, die nicht an eine Bedeutung gekoppelt sind, aber Bedeutungen unterscheiden und dazu auf vielfache Art kombiniert werden können, ist die menschliche Sprache so extrem produktiv. Zwar war auch die Schimpansin Washoe produktiv – allerdings nur auf einer Ebene: Sie kombinierte bereits bedeutungstragende Einheiten miteinander. Das gleiche gilt auch für die natürlichen tierischen Kommunikationssysteme Bienentanz und Meerkatzenruf: Ein Symbol trägt eine Bedeutung, kann aber mit anderen bedeutungstragenden Symbolen kombiniert werden. Ist das Prinzip der doppelten Artikulation also die differentia specifica, die menschliche Sprachen von allen anderen Kommunikationssystemen unterscheidet? Das dachte ich zumindest noch bis vor kurzem, fand dann aber diese Studie zu lesenden Pavianen. Offenbar sind die Paviane in der Lage, kleine, an sich nicht bedeutungstragende Einheiten – hier Buchstaben/Grapheme in für sie bedeutungstragende (nämlich Futter versprechende) Wörtern zu identifizieren. Auch wenn die Autoren das nicht thematisieren (ihnen geht es vor allem darum, statistisches Lernen und visuelle Objekterkennung als artübergreifende Fähigkeiten darzustellen), ist die Studie, wenn sie bestätigt wird, ein starker Hinweis darauf, dass nicht nur Menschen doppelt gegliederte Systeme verarbeiten können. Damit wäre auch das letzte der exklusiv der menschlichen Sprach-Kommunikation vorbehaltenen Merkmale gefallen. ———— 1 Im “Gehirn und Geist” Sonderheft “Streit ums Gehirn”, erschienen 01/2013, online leider nur für Abonnenten zugänglich. Dafür hat der Spektrum Verlag aber eine große Themenseite für den Komplex Sprache eingerichtet, wo viele der Artikel frei verfügbar sind. 2 Eine Aufstellung der Hockett’schen Merkmale nebst einer übersichtlichen Tabelle findet sich etwa im (von mir immer sehr enthusiastisch empfohlenen) Buch “Die Cambridge Enzyklopädie der Sprache | The Cambrige Encyclopedia of Language” von David Crystal, CC-BY-SA     

Quelle: http://texperimentales.hypotheses.org/744

Weiterlesen