Sprache von kleinen Kindern besser beschreiben die spezifische lexikalische und Grammatik, statt abstrakten • Alexander Berdichevsky • Wissenschaft Nachrichten zum Thema „Elemente“ • Linguistik, Psychologie

Die Sprache junger Kinder wird am besten durch lexikalisch-spezifische Grammatiken beschrieben.

Wenn kleine Kinder anfangen zu sprechen, bauen sie keine Sätze aus Substantiven, Adjektiven und Verben nach den traditionellen Regeln der Grammatik, sondern verwenden vorgefertigte Phrasen oder Phrasen und lernen allmählich, ein Wort durch ein anderes zu ersetzen. Foto von s305.photobucket.com/albums/nn211/hetroclite

Wenn ein Kind seine Muttersprache lernt, weiß es noch niemand wirklich. Theorien, die diesen Prozess beschreiben, unterscheiden sich darin, wie viel abstraktes Wissen sie einem Kind zuschreiben. Die amerikanisch-deutsche kognitive Gruppe zeigte, dass Grammatiken, die auf der Verwendung des konkreten lexikalischen Materialmodells Kindersprache aufbauen, besser sind als vollständig abstrakte Grammatiken. Auf dem Weg zeigten sie, dass mit dem Alter die Grammatik, die "im Kopf" eines Kindes existiert, weniger individuell wird; dass es in drei Jahren viel komplizierter ist als in zwei; und dass in zwei Jahren die Kinder bereits einige Ideen über die Kategorie des Substantivs und in drei Jahren – über die Kategorie des Verbs haben.

Universal Grammatik

Wie ein Kind es schafft, eine Sprache zu beherrschen, ist eines der schwierigsten Probleme in der Kognitionswissenschaft.Es ist überraschend, erstens, wie schnell dies geschieht und zweitens, wie wenig externe Informationen ein Kind benötigt, um das gesamte Sprachsystem fast vollständig zu beherrschen.

Eine der Hypothesen, die die Existenz solcher Fähigkeiten erklären, ist die Existenz einer Art universeller Grammatik (HS). HS ist ein allgemeines Regelwerk für alle Sprachen, die eine Person nicht lernen muss: Der Besitz von ihnen ist eine angeborene Fähigkeit.

Die Blütezeit von Theorien, die die UG zu beschreiben versuchen, begann in den 50er Jahren des 20. Jahrhunderts dank des amerikanischen Linguisten Noam Chomsky. Chomsky formulierte klar eine Hypothese über HS und schlug eine linguistische Theorie vor, in der es beschrieben werden könnte. Diese Theorie – Generative Grammatik – hatte einen großen Einfluss auf alle modernen Linguistik und wurde lange Zeit das vorherrschende Paradigma darin.

Es gelang jedoch niemandem, eine gute Beschreibung des UG zu erstellen, oder eine Theorie, die beschreiben würde, wie ein Kind eine bestimmte Sprache lernt, die darauf basiert. Mit der Zeit nahm die Popularität der UG-Hypothese ab und selbst Chomsky selbst gab sie teilweise auf.

Nichtsdestoweniger war der Einfluss von Chomskys frühen Ideen so groß, dass bis jetzt ein beträchtlicher Teil der linguistischen Arbeiten der Kontroverse mit diesen Ideen und ihrem Vermächtnis gewidmet ist.

Abstrakte Kategorien

Ein Beispiel für ein solches Erbe ist die Vorstellung, dass die Sprachkompetenz eines Kindes viele abstrakte Regeln und Kategorien umfasst. Sprachkompetenz ist ein System von Regeln, das "im Kopf" einer Person existiert und es ihm erlaubt, in einer bestimmten Sprache zu sprechen.

In einer aktuellen Ausgabe des Magazins PNAS Colin Bannard von der University of Texas in Austin, zusammen mit Elena Liven und Michael Tomasello vom Max-Planck-Institut für evolutionäre Anthropologie in Leipzig, bezweifeln dies.

Basierend auf früheren Studien von Tomazello und Liven, sowie der Arbeit anderer Autoren stellen die Forscher die Hypothese auf, dass die Sprachfertigkeiten von Kleinkindern sich völlig von denen von Erwachsenen unterscheiden. Insbesondere sind die abstrakten Kategorien kaum darauf anwendbar.

Ein Beispiel für eine abstrakte Kategorie sind Teile der Sprache. Auch wenn ein erwachsener Muttersprachler die Begriffe nicht kennt – sagen wir, das Verb oder Nomen – Er erkennt immer noch, dass die Worte gehen, machen, zu studieren sich in einer Richtung benehmen und Tisch, Der Stuhl, ein Artikel – an andere. Wörter aus der ersten Klasse haben beispielsweise unterschiedliche Zeiten, und Wörter aus der zweiten Klasse haben unterschiedliche Fälle.

Nach der Hypothese von Forschern haben Kinder kein Wissen über diese beiden Klassen, aber es gibt nur Wissen über das Verhalten einzelner Wörter. Auf der Grundlage dieses spezifischen Wissens beginnen sie allmählich Verallgemeinerungen zu machen, zunächst privat und dann immer weiter. Dementsprechend muss ihre Sprachkompetenz unter Berücksichtigung dieses Merkmals beschrieben werden. Zum Beispiel ist es unmöglich, die Regel einzuführen: "Das Verb ist immer konsistent mit dem Nomen in der Person und der Zahl", da es falsch ist, mit den Kategorien "Verb" und "Substantiv" zu arbeiten.

Bannard, Liven und Tomazello haben eine Methode erfunden, um diese Hypothese zu testen. Bannard führte einen Test über den großen Körper der Kindersprache durch.

Datenblatt und Verifizierungsmethode

Das Datenkorpus bestand aus der Rede zweier Kinder: Annie und Brian. Die Forscher zeichneten und transkribierten 30 Stunden Sprechzeit für jedes Kind im Alter von zwei Jahren und im Alter von drei Jahren (die Aufzeichnungen wurden innerhalb von sechs Wochen nach dem entsprechenden Geburtstag gemacht) Die Transkriptionen der Aufzeichnungen wurden in zwei Teile geteilt: ein Test (zwei Stunden zu zwei Jahren und eine Stunde bei drei Jahren) und zu Hause (alles andere).

Mit Beispielen von Aufzeichnungen von Kinderrede im CHAT-Format, die sie verwendete,Sie finden es auf der CHILDES-Website (Child Data Data Exchange System). Mi Ein Beispiel für einen Dialog mit der Mutter eines Mädchens im Alter von 2 Jahren und 4 Monaten.

Der Hauptteil wurde verwendet, um automatisch eine formale Grammatik zu konstruieren (für formale Grammatiken, siehe unten), die die Sprachkompetenz des Kindes modellieren würde. Mit Hilfe spezieller statistischer Methoden leitete der Computer eine Grammatik ab, die alle in diesem Korpus enthaltenen Aussagen erzeugte. Genauer gesagt, nicht einmal eine Grammatik, sondern zwei.

Eins – komplett abstrakt – wurde nach traditionellen Vorstellungen über die Sprachkompetenz des Kindes gestaltet. Es ergibt sich zunächst die abstrakte syntaktische Struktur des Satzes (vgl. Die Beschreibung des CGG-1 unten), und dann werden Wörter darin eingesetzt.

Das zweite ist lexikalisch – im Einklang mit den Ansichten der Forscher. Es erzeugt nicht vollständig abstrakte syntaktische Strukturen, sondern Schemata, die teilweise aus konkreten Wörtern bestehen, teilweise aus Schlitzen (Zellen), die mit anderen Wörtern oder Schemata gefüllt sind.

Dann wurden beide Grammatiken im Testfall getestet. Es stellte sich heraus, dass die Lexiko-spezifische Grammatik es angemessener beschreibt als vollständig abstrakt.

Nachstehend folgt eine allgemeine Beschreibung der Generatoren der Grammatik – der Formalismus, auf den sich die Forscher stützten, dann eine Beschreibung der tatsächlichen Grammatik von Bannard, und dann eine detaillierte Beschreibung der durchgeführten Experimente und der erzielten Ergebnisse.

Generieren von Grammatiken

Kontextfreie Grammatik

Im allgemeinen Fall Grammatik X ist ein Regelsystem, das für jeden Satz bestimmen kann, ob ein gegebener Satz in X grammatikalisch korrekt ist oder nicht, und wenn ja, wie er angeordnet ist. Wenn dieses System formalisiert werden kann und es zum Beispiel einem Computer beibringt, dann reden sie darüber formale Grammatik.

Die berühmteste Klasse von formalen Grammatiken ist Generatoren oder generativ, Grammatikwas wiederum zu den Werken von Chomsky führt. ("Generative Grammatik" und "Generative Grammatik" sind im Prinzip ein und dasselbe. Chomskys Sprachtheorie wird im Englischen jedoch "generative Grammatik" genannt, und die Form der formalen Grammatik ist im Allgemeinen "generative Grammatik".) Generative Grammatik (PG) erlaubt Ihnen, alle korrekten Sätze dieser Sprache und nur sie anzuzeigen. THG ist eine Menge von Erzeugungsregeln (Produkten) der Form X → Y (X geht zu Y).Was links vom Pfeil steht, heißt linke Seite Regeln, was ist rechts, bzw. rechte Seite. Wie wir uns erinnern, war die wichtigste Aufgabe von Chamsky, zu erklären, wie es dem Kind gelingt, die Sprache gut zu sprechen (und zu verstehen), praktisch ohne es zu lernen. PGs beschreiben, wie ein Muttersprachler Sätze generiert. THG-Befürworter schlagen vor, dass dies ein adäquates Modell für echte kognitive Mechanismen ist.

PGs eignen sich nicht nur für die Generierung, sondern auch für die Analyse: In der Regel kann mit speziellen Algorithmen (siehe CYK-Algorithmus) schnell festgestellt werden, ob ein bestimmter Satz in einem gegebenen PG generiert wird (dh ob er grammatikalisch korrekt ist oder nicht).

Die wichtigste Klasse von Treibhausgasen ist kontextfreie Grammatik (KSG). In einer KSG hat der Kontext, in dem sie sich befindet, keinen Einfluss auf den linken Teil der Regel (genaugenommen gibt es immer genau ein Nicht-Terminal-Zeichen in der KSG auf der linken Seite).

Betrachten Sie die einfache Grammatik von KSG-1, die zu den syntaktischen Strukturen einiger Sätze der englischen Sprache führt (ihre linguistische "Bedeutung" ist links von jeder formalen Regel angegeben):

RegelSprachliche Interpretation
1S → NP VPDer Satz besteht aus einer Nominalphrase und einer Verbgruppe.
2NP → KUNST NEine Namensgruppe kann aus einem Artikel und einem Nomen bestehen …
3NP → N… oder nur ein Nomen …
4NP → ADJ N… oder Adjektiv und Nomen …
5NP → NP S*… oder von einer nominellen Gruppe und Satz …
6NP → PRO… oder von einem Pronomen.
7VP → VNPEine Verbgruppe kann aus einem Verb und einer Nominalphrase bestehen …
8VP → V VP… oder ein Verb und eine Verbgruppe.

*Beachten Sie die Regeln 5 und 8: Sie drücken ausdrücklich eine wichtige Eigenschaft von Treibhausgasen aus – die Fähigkeit zu modellieren rekursive Strukturen Sprache.

Tabelle 1. Ein Beispiel für kontextfreie Grammatik. Regeln aus der Vorlesung (PDF, 175 Kb) von James Allen

Das Zeichen S wird immer eingegeben. Überlegen Sie, was als nächstes passieren könnte. Zum Beispiel:

S → NP VP (gemäß Regel 1),

NP VP → PRO VP (gemäß Regel 6),

PRO VP → PRO V NP (gemäß Regel 7),

PRO V NP → PRO V ART N (gemäß Regel 2).

Insgesamt haben wir die Kette PRO V ART N. hervorgebracht, die Frage ist: Wo ist der versprochene Vorschlag der englischen Sprache? Stellen Sie sich vor, dass unser CSG mit einem Wörterbuch der englischen Sprache ergänzt wird und wir zusätzliche Regeln des Typs einführen: N kann durch irgendein Substantiv, V – durch irgendein Verb, usw. ersetzt werden. Dann können wir Sätze wie erhalten Ich nahm einen Apfel, Er sah einen Tisch usw. Wenn wir uns genau daran erinnern, wie wir diesen Satz hervorgebracht haben, werden wir ihn bekommen syntaktische Struktur. Zur besseren Veranschaulichung stellen wir die Generierung grafisch dar:

Abb. 1. Analyse des Vorschlags in KSG-1

Wir zeichneten eine Struktur namens Baum der direkten Komponenten. Der Baum besteht aus Knoten. Die Erfahrung zeigt, dass dies ein gutes Modell der syntaktischen Struktur eines Satzes ist, zumindest aus der Sicht eines Linguisten, der sich nur mit der Beschreibung einer Sprache beschäftigt. Wie gut es reflektiert, was im Gehirn passiert, ist viel komplexer.

Offensichtlich sind im KSG-1 die Symbole ART, ADJ, N, PRO und V Terminal: Sie können nicht auf der linken Seite der Regeln stehen. Jedes Endprodukt des KSG-1 wird eine Folge dieser Zeichen sein. S, NP und VP sind nicht terminal Zeichen: In jeder endgültigen generierten Sequenz werden sie nicht sein. Das ist logisch: Endsymbole sind die Bezeichnungen von Sprachteilen, die durch bestimmte Wörter ersetzt werden, und nicht-terminale sind größere syntaktische Gruppen, die dann notwendigerweise in unteilbare Einheiten zerfallen.

Probabilistische kontextfreie Grammatik

Überlegen Sie, ob der GGP-1 einen Satz erzeugen kann Ich hasse nervige Nachbarn. Vielleicht sogar auf zwei Arten.Zwei verschiedene syntaktische Strukturen können diesem Satz zugeschrieben werden: "Ich hasse es, Nachbarn zu stören" und "Ich hasse Nachbarn, die mich stören".

Abb. 2 Zwei mögliche Parsing eines Satzes im CRG. Bild aus der Vorlesung (PDF, 175 Kb) von James Allen

Es stellt sich die Frage: Kann festgestellt werden, welche dieser Strukturen wahrscheinlicher ist? Im Rahmen der üblichen KSG – nicht. Dafür wurden erstellt probabilistische (stochastische, probabilistische) kontextfreie Grammatiken (Vssg).

Im einfachsten VKSG entspricht jede Regel der Wahrscheinlichkeit, mit der sie realisiert werden kann (die Implementierung aller Regeln wird als unabhängiges Ereignis betrachtet).

Es ist beispielsweise offensichtlich, dass Regel 1 in Regel 1 mit der Wahrscheinlichkeit 1 implementiert wird (S geht immer zu NP VP). Um jedoch den Regeln 7 und 8 Wahrscheinlichkeit zuzuordnen, müssen Sie wissen, was oft in die Verbgruppe fällt – das Verb und die Verbgruppe oder das Verb und die Nomengruppe. Der sicherste Weg, dies herauszufinden, ist, eine große Menge von Sätzen zu nehmen, die in dieser Grammatik erzeugt werden können, die syntaktische Struktur für jeden Satz manuell zu erstellen, die Häufigkeit jedes Übergangs zu berechnen und sie als Wahrscheinlichkeit zu nehmen.Lassen Sie uns eine ähnliche Berechnung auf dem Mini-Paket unserer drei Sätze durchführen (wir werden den zweiten Satz für zwei gleichlautende betrachten). Der VP → V NP -Übergang tritt dreimal auf, und der VP → V VP-Übergang tritt einmal auf. Die Gesamtwahrscheinlichkeit der Implementierung von Regeln 7 beträgt 0,75 und die Regeln 8 sind 0,25.

Der Leser kann die Wahrscheinlichkeiten für die anderen Regeln selbst berechnen und bestimmen, welche Struktur des zweiten Satzes wahrscheinlicher ist (da wir die Implementierungen der Regeln als unabhängige Ereignisse betrachten, ist es möglich, die Wahrscheinlichkeit der Erzeugung einer Struktur durch Multiplizieren der Wahrscheinlichkeiten der Regeln zu finden). Sie können sich nicht auf die Wahrscheinlichkeiten abstrakter Regeln beschränken, sondern berücksichtigen die Wahrscheinlichkeiten der lexikalischen Füllregeln, zum Beispiel: V → hasse, V → nervig, ADJ → nervig usw.

Für diese Sprachanalyse werden viel komplexere CGCs und HKSA verwendet. In KSG-1, zum Beispiel, spiegelt nicht die Notwendigkeit, sich über das Thema und Prädikat, so dass der Satztyp zu vereinbaren Ich nehme einen Apfel Sie erkennt auch das Recht.

Es war die VKSG, die die Grundlage des Formalismus bildete, den Bannard in seinen Arbeiten verwendete.

Bannards Modell

Die Forscher folgen der Hypothese, dass Kinder zuerst sehr spezifische Konstruktionen lernen, die an bestimmte Wörter gebunden sind.Allmählich (nach zwei Jahren) werden diese Konstruktionen abstrakter. Dieser Ansatz wird als nutzungsbasiert bezeichnet, was übersetzt werden kann als benutzerorientiertund in diesem Fall als Wortschatzorientiert. Konkrete Wörter, stabile Ausdrücke sowie abstraktere Konstruktionen werden dabei als Zeichen betrachtet.

In seinem Modell unterscheidet Bannard zwischen zwei Arten von Charakteren. Das erste ist bestimmte Zeichen: Wörter (trinken) Aussagen (Ich will ein trinken) oder Teile von Aussagen (will ein trinken). Zweitens – Schemata – besteht aus bestimmten Zeichen und Schlitze – leere Stellen, an denen Sie andere Zeichen (beider Typen) einfügen können. Das Schema enthält immer bestimmte Wörter.

Ähnliche Zeichen können zu Gruppen zusammengefasst werden, die ungefähr der grundlegenden Semantik entsprechen Kategorien. Beim Laichen wird jedem Knoten eine bestimmte Kategorie zugewiesen, und nur Zeichen dieser Kategorie können ihn füllen.

In Abb. 3 zeigt, wie Sie, indem Sie zwei Kategorien markieren, die Phrase generieren und analysieren können Der Mann will ein Schokoladenkeks mit Schemata (rechts) und ohne (links).

Abb. 3 Mögliche Phrasenanalyse der Mann will einen Schokoladenkeks. A – Verwenden nur bestimmter Zeichen, B – Verwenden von Schemas. Abbildung aus dem besprochenen Artikel inPNAS

Nur Zeichen, die das Objekt aufrufen (Nominalgruppen, Substantive, Pronomen usw.) können in die Kategorie REF (aus dem Wort "Referent") fallen, Zeichen, die einen Prozess oder eine Handlung aufrufen (Verben, Verbgruppen) fallen in die Kategorie PROCESS. Die Kategorie UTTERANCE ("Äußerung") wird für technische Zwecke eingeführt und ist das erste Symbol für jede Generation.

Die folgenden ungefähren Analogien können zwischen der Grammatik von Bannard und GGP-1 hergestellt werden. Systeme sind wie Nicht-Terminal-Zeichen: Sie werden definitiv durch etwas anderes ergänzt werden. Konzept Kategorien nicht explizit in der GC-1 dargestellt, aber es ist offensichtlich, dass NP, N und PRO würden in die Kategorie REF, und V und VP in der Kategorie PROCESS fallen. Spezifische Zeichen sind wie TerminalsymboleAber der wesentliche Unterschied besteht darin, dass Bannard spezifische Zeichen als konkretes lexikalisches Material hat, und in der CGS-1 sind dies auch abstrakte Zeichen. Sie werden erst im letzten Stadium nach der Erzeugung der syntaktischen Struktur durch konkrete Wörter ersetzt.

Dies ist der Hauptunterschied zwischen einem solchen Formalismus und dem üblichen CRG: Bannard im rechten Teil der Regeln immer es gibt bestimmte Wörter (nach der Figur zu urteilen,Diese Aussage der Autoren gilt nicht für die Generierung des ersten Knotens aus der Servicekategorie UTTERANCE. Dies gibt Autoren die Möglichkeit, ihre Regeln zu benennen. lexikalisch-spezifischwidersetzen sie sich abstrakten Regeln und kommen schließlich zu ihren wichtigsten Schlussfolgerungen.

Modellarbeit

Die Grammatik von Bannard ist wie folgt aufgebaut. Für jede Aussage im Hauptteil des Korpus werden alle anderen Aussagen gesucht, die mindestens ein Wort mit dem gegebenen gemeinsam haben. Alle Aussagen gefunden ausgeglichen (siehe Abbildung 4.), wonach alle möglichen Schemata und spezifischen Zeichen extrahiert werden. In diesem Fall wird das Schema extrahiert X habe X eins und spezifische Zeichen Mama und das. Der Ausrichtungs- und Extraktionsprozess wird für alle Teilstrings einer gegebenen Anweisung wiederholt, die aus mehr als einem Wort bestehen (in diesem Fall) Mama haben, Mama, hab das, hab das, Habe diesen hier und dieser eine) – usw.

Abb. 4 Nach der Ausrichtung aller Anweisungen mit gemeinsamen Wörtern werden Zeichen extrahiert. In diesem Fall das Schema X habe X eins und spezifische Wörter Mama und das. Abbildung aus dem besprochenen Artikel inPNAS

Nachdem alle möglichen Zeichen erhalten wurden, ist es notwendig, das lexikalisch-spezifische HKSG zu finden, das basierend auf diesen Zeichen alle Aussagen im Korpus erzeugen würde.Dies geschieht automatisch unter Verwendung von Bayes'scher unkontrollierter Grammatikausgabe (siehe Artikel: M. Johnson et al., 2007. PCFGs über Markov-Kette Monte Carlo, PDF, 106 Kb; J. Finkel et al., 2007. Der Unendliche Baum , PDF, 280 Kb; P. Liang et al., 2007. Das unendliche PCFG mit hierarchischen Dirichlet-Prozessen, PDF, 262 Kb).

Weder die Kategorien noch die Regeln der Erzeugung werden im Voraus festgelegt, das Programm selbst leitet all dies ab und wählt die optimale Grammatik aus (genauer gesagt nicht eine richtige, sondern den Bereich der am besten geeigneten Grammatiken). Das einzige, was gesetzt wird, ist eine Präferenz für ökonomische Grammatiken: eine, in der es weniger Kategorien und Zeichen gibt. Als Ergebnis modelliert die resultierende Grammatik die Erzeugung aller Anweisungen im Korpus vollständig.

Die abstrakte Grammatik ist in gleicher Weise aufgebaut: Das Programm teilt Wörter automatisch in Kategorien ein und zeigt Generierungsregeln (X → Y) an. Die Anzahl der Kategorien und Regeln ist ebenfalls nicht im Voraus festgelegt.

So erhielten die Forscher schließlich vier abstrakte und vier Lexiko-spezifische Grammatiken (Brian-2, Anni-2, Brian-3, Anni-3) sowie vier Korps, auf denen sie getestet werden sollten.

Experiment 1: Vollständigkeit der Analyse und Messung der Überraschung

Vollständigkeit

Die Lexiko-spezifische Grammatik von Brian-2 (erhalten für das Korpus von Brians Aussagen im Alter von zwei Jahren) bestand aus 802 Zeichen und drei Kategorien, Anni-2 – aus 1898 Zeichen und vier Kategorien, Brian-3 – aus 5343 Zeichen und sechs Kategorien,Anni-3 – aus 5385 Zeichen und sechs Kategorien. Der Unterschied ist nicht überraschend: In zwei Jahren sprach Annie viel besser als Brian. Laut der MacArthur-Umfrage (MacArthur-Bates Communicative Development Inventories) war sie 75% ihrer Kollegen in der Sprachentwicklung voraus, während Brian nur 25% betrug.

Offensichtlich werden Grammatiken mit dem Alter weniger individuell und die Unterschiede werden geglättet.

Die Forscher testeten, wie gut diese Grammatiken die Analyse der entsprechenden Testfälle ermöglichen. Hauptindikator war die Vollständigkeit, also der Anteil der erfolgreich analysierten Aussagen.

Überlegen Sie, was Vollständigkeit ist, z. B. KSG-1. Einige Vorschläge, die es generieren kann (z. B. Ich nahm einen Apfel), manche nicht (zum Beispiel Ich lese zwischen den Zeilen). Also der Körper von zwei Sätzen Ich nahm einen Apfel und Ich hasse nervige Nachbarn KSG-1 wird in der Lage sein, 100% und den Körper von zwei Sätzen vollständig zu analysieren Ich nahm einen Apfel und Ich lese zwischen den Zeilen – mit einer Fülle von 50%.

Die Ergebnisse sind in Abb. 5

Abb. 5 Vollständigkeit der Analyse von Testfällen. Y-Achse die Vollständigkeit wird verschoben (Anteil der erfolgreich analysierten Aussagen). Die Schraffur gibt die erforderliche Anzahl der Einsätze an (von unten nach oben, von null bis acht). Schwarz zeigt den Anteil der Aussagen, mit denen die Grammatik nicht fertig wurde. Abbildung aus dem besprochenen Artikel inPNAS

Die Ordinatenachse ist vollständig. Es ist in allen vier Fällen recht hoch: 84%, 75%, 70% bzw. 81%.

Das Diagramm zeigt einen weiteren interessanten Parameter – die Anzahl der Operationen Einsätzenotwendig für die korrekte Analyse von Aussagen. Einfügung ist die Ersetzung eines Zeichens (eines bestimmten oder eines Schemas) in einen Zeitschlitz eines Schemas (siehe die Beschreibung des Bannard-Modells oben), das heißt, einfach den Platz in dem Schema ausfüllen. Ganz unten in jeder Spalte befindet sich der Anteil der Sätze, für deren Analyse keine Notwendigkeit besteht, eine einzelne Insert zu schreiben (das heißt, alle diese Aussagen sind in der Grammatik in Form eines spezifischen Zeichens gespeichert). Oben ist der Anteil derjenigen für die Analyse, von denen eine Einfügung benötigt wird. Es kann gesehen werden, dass 58% von Brians Aussagen im Alter von zwei Jahren mit nicht mehr als einem Insert analysiert werden können (mit anderen Worten, sie sind vom Grammatikstandpunkt aus sehr primitiv). Zwei Einfügungen sind für 80% der Anweisungen ausreichend, und nur eine Anweisung benötigt vier Einfügungen. In zwei Jahren ist Annies Grammatik weniger primitiv: Mit Hilfe von nur einem Insert können nur 32% analysiert werden, aber zwei Inserts genügen für 61%.

In drei Jahren wird die Grammatik viel schwieriger.Brian hat nicht mehr als eine Einfügung für 26% der Aussagen und 10% erfordern mindestens vier Einfügungen. Annie hat die entsprechenden Anteile von 13% und 36% (das heißt, sie ist immer noch vor Brian im Besitz der Rede). Die Autoren nennen die Merkmale der Sprachaktivitäten von Kindern, die so bewertet werden können Produktivität und schließen, dass es um drei Jahre deutlich zunimmt.

Maß des Wunders

Die Forscher überprüften auch, wie gut die resultierenden Modelle Testdaten vorhersagen. Als Indikator wählten sie Perplexität (Perplexität) – das Maß dafür, wie gut die Wahrscheinlichkeitsverteilung von Ereignissen (Wörtern und Sätzen) mit der Verteilung von Ereignissen in realen Daten übereinstimmt, mit anderen Worten, das Maß dafür, wie überrascht das Modell mit realen Daten ist. Je geringer die Perplexivität ist, desto höher ist die Wahrscheinlichkeit eines gegebenen Korpus von Texten in einer gegebenen Grammatik und desto angemessener das Modell.

Perplexivität kann berechnet werden, aber wie schätzt man die erhaltenen Werte ein? Zum Vergleich verwenden Forscher komplett abstrakt Vksg wird auf denselben Daten angezeigt. Diese Grammatiken ähneln unserem KSG-1: Die Wörter in ihnen sind nur im Wörterbuch enthalten, und sie erscheinen nicht in den Regeln der Erzeugung. In Abb. Aus 6 ist ersichtlich, dass in der lexikalspezifischen HKSL die Perplexivität geringer ist.

Abb. 6 Die Perplexivität lexikospezifischer probabilistischer kontextfreier Grammatiken (UB-PCFG, nutzungsbasierte probabilistische kontextfreie Grammatik), die automatisch für vier Korpora der Kindersprache erhalten werden, wird gezeigt weiße Farbe. Perplexivität völlig abstrakter probabilistischer kontextfreier Grammatiken (HKSL), die für diese Schalen auch automatisch abgeleitet werden, – Schattierung. Schwarz Perplexivität wird für abstrakte VKSG mit Korrekturen gezeigt, dass die Sätze von Phrasen, mit denen sie umgehen und mit denen lexiko-spezifische Grammatiken umgehen, unterschiedlich sind (daher ist ein direkter Vergleich nicht ganz signifikant). Abbildung aus dem besprochenen Artikel in PNAS

Experiment 2: Kreuzvorhersagbarkeit

Soweit die resultierende Grammatik an die Eigenschaften dieses Kindes oder eines bestimmten Alters gebunden ist? Um die Antwort auf diese Frage zu finden, verwendeten die Forscher jede der vier Grammatiken auf jeden der vier Testfälle. Die Ergebnisse (Vollständigkeit und Perplexität) sind in Tabelle 2 aufgeführt:

Grammatik Brian-2Grammatik Anni-2Grammatik Brian-3Anni-3-Grammatik
Korps Brian-284% (105,4)36% (636,3)46% (1076)34% (1486,2)
Anni-2 Korps15% (381,9)75% (184,1)71% (317,6)81% (425,9)
Korps Brian-38% (455,7)42% (361,5)70% (364,6)63% (363,7)
Anni-3 Korps3% (489,5)29% (526,4)59% (575,8)81% (276,5)

Tabelle 2. Vollständigkeit und Perplexivität bei der Anwendung verschiedener Grammatiken auf verschiedene Testfälle (von dem diskutierten Artikel bis PNAS)

Es zeigt sich, dass Grammatiken, die im Alter von zwei Jahren erhalten werden, nicht gut mit Fällen im Alter von drei Jahren zurechtkommen. Im Falle von Brian ist dies besonders stark (anscheinend war die relative Entwicklung im dritten Jahr seines Lebens größer als die von Annie). Viel interessanter ist jedoch, dass Grammatiken, die man in drei Jahren erhält, nicht gut mit Fällen aus zwei Jahren zurechtkommen. Zwar ist die Vollständigkeit der Anwendung der Anni-3-Grammatik auf den Korpus von Anni-2 höher als die der Anni-2-Grammatik, auf der anderen Seite ist die Perplexivität jedoch viel höher. Grammatik Brian-3 bewältigt den Körper von Brian-2 viel schlechter als die Grammatik von Brian-2, in beiden Parametern. Dies beseitigt die Angst, dass Grammatiken zu "weich" sind, das heißt, sie erlauben zu viele Aussagen.

Was die Unterschiede zwischen den Kindern betrifft, so ist klar, dass Brians Grammatik Annies Daten schlechter abschneidet als Annies Grammatik, und Annies Grammatik wird schlechter mit Brians Daten zurechtkommen als Brians Grammatik. Es ist jedoch bezeichnend, dass der Unterschied in drei Jahren geringer ist als in zwei. Dies bestätigt die These eines lexikalisch orientierten Ansatzes: Am Anfang sind Grammatiken sehr individuell, allmählich gleichen sie sich mehr und mehr denen konventioneller.

Experiment 3: Hinzufügen von Kategorien

Ein vokabularorientierter Ansatz geht davon aus, dass Kinder abstrakte Kategorien allmählich beherrschen. In früheren Arbeiten argumentierte Tomazello, dass die Kinder mit 23 Monaten bereits die Kategorie des Nomens hatten und dass sie nach 25 Monaten noch nicht die Kategorie des Verbs hatten.

Die Forscher untersuchten, was passiert, wenn die automatische Grammatik etwas "geschoben" wird, indem man einigen grammatischen Kategorien Wörter vorweist. Zuerst fügten sie Kategorien eines Substantivs (N) und eines Eigennamens (PropN) hinzu, das heißt, sie "markierten" Substantive; dann wurde die Verb-Kategorie (V) hinzugefügt. Dazu wurde eine manuelle Kennzeichnung von Fällen verwendet, wobei jedem Wort seine Wortart zugewiesen wurde.

Die Ergebnisse sind in Abb. 7

Abb. 7 Die Vollständigkeit der Analyse (Rückruf), abhängig von den gegebenen Kategorien (oben für Brian, unten für Annie; Lichtsäulen – In zwei Jahren, die Dunkelheit – in drei). Linkes Spaltenpaar: keine Kategorien angegeben mittleres Paar: Die Kategorien für den allgemeinen Namen und den Eigennamen werden festgelegt. richtiges Paar: Die Kategorien für den allgemeinen Namen, den Eigennamen und das Verb werden festgelegt. Abbildung aus dem besprochenen Artikel inPNAS

Nach zwei Jahren erhöht sich für beide Kinder die Vollständigkeit der Kategorien um 6% für Brian, 13% für Annie. Das Hinzufügen einer Verbkategorie erhöht die Vollständigkeit nur ein wenig: weitere 2% für Brian (und die Vollständigkeit liegt innerhalb des möglichen Fehlers für das vorherige Ergebnis, wenn nur Kategorien von Namen angegeben sind); weitere 3% für Annie (hier geht die Vollständigkeit über die Grenzen des möglichen Fehlers hinaus).

In drei Jahren, in Brian, verbessert das Hinzufügen von Kategorien von Namen die Vollständigkeit um 14% und das Verb um weitere 7%. Für Annie ändern sich die Ergebnisse nicht: wieder 13% und weitere 3%.

Diese Ergebnisse stimmen im Allgemeinen mit den Annahmen der Autoren überein: In zwei Jahren haben Kinder bereits eine allgemeine Vorstellung von Kategorien von Namen und in drei Jahren von einer Kategorie von Verben. Die Tatsache, dass Annie, in drei Jahren, eine Verbkategorie hinzufügt, fast keine Wirkung hat, passt sehr gut. Die Autoren schlagen vor, dass sie alle drei Kategorien in zwei Jahren gemeistert hat, und durch die drei Hauptänderungen nicht geschehen ist.

Jedenfalls stellen die Forscher fest, dass die Entwicklung von Kategorien sehr langsam vor sich geht, so dass die Aufnahme und Einführung aller Kategorien von Namen und Kategorien eines Verbs auf einmal eine ziemlich grobe Methode ist.Es erlaubt Ihnen, mit einer Sicherheit nur eins zu sagen: In zwei Jahren sind die Kategorien der Kindernamen nicht mehr vollständig an bestimmte Wörter gebunden. In drei Jahren kann man dasselbe über die Kategorie des Verbs sagen.

Fazit

Die Autoren konnten ihre Hypothese bestätigen: lexikalisch-spezifische Grammatiken funktionieren besser als abstrakte. Und sie funktionieren vielleicht nicht nur besser, sondern reflektieren die kognitive Realität besser. Darüber hinaus ermöglichen diese Grammatiken zu beschreiben, wie sich die Sprachkompetenz des Kindes entwickelt und komplexer wird (sehr im dritten Lebensjahr).

Die Studie bestätigte andere lexikalisch orientierte Thesen. Erstens wird die Grammatik mit zunehmendem Alter weniger individuell und austauschbarer. Zweitens erfolgt die Entwicklung von grammatischen Kategorien allmählich (das Substantiv – früher, das Verb – später).

Intuitiv erscheinen alle diese Schlussfolgerungen ziemlich plausibel. Die Ablehnung übermäßig abstrakter Modelle erlaubt es uns wirklich, die Sprache von Kindern besser zu beschreiben.

Es ist jedoch bedauerlich, dass Lexiko-spezifische Grammatiken nur durch Perplexivität mit abstrakten verglichen werden, aber nicht durch Vollständigkeit, sondern durch Grammatiken, einschließlich der Kategorien Name und Verb, nur durch Vollständigkeit, nicht aber durch Perplexivität.Darüber hinaus stellt sich für solche Studien eine Standardfrage: Ist es möglich, eine globale Schlussfolgerung zu ziehen, die auf Daten basiert, die nur für eine Sprache (Englisch) und für einen Typ von Grammatiken (HKSD) erhalten wurden?

Die Autoren listen weitere mögliche Einschränkungen ihrer Befunde auf. Zunächst berücksichtigten sie nur eine kleine Stichprobe (etwa 5%) aller Aussagen, die die Kinder während des Jahres gemacht hatten. Zweitens haben sie nur die Erstellung von Aussagen studiert – es gibt die Meinung, dass Kinder Grammatik besser kennen als ihre Produktivität zeigt, nur ein Teil von Aussagen kann nicht generiert werden.

Bannard, Liven und Tomazello formulieren daher ihre endgültige Schlussfolgerung folgendermaßen: Sie konnten zeigen, dass der lexikalisch-spezifische Ansatz zur Beschreibung der Sprache von Kindern, die die Sprache gut beherrschen, die Standard-Bewertungskriterien erfüllt.

Quelle: Colin Bannard, Elena Lieven, Michael Tomasello. Modellierung des frühen grammatischen Wissens von Kindern // Proceedings der Nationalen Akademie der Wissenschaften. 13. Oktober 2009. V. 106. Nein. 41. P. 17284-17289.

Alexander Berditschewski


Like this post? Please share to your friends:
Schreibe einen Kommentar

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: