Skip navigation

3.6. A szabályok a nyelvelsajátításban és a nyelvtudásban

Az alábbi Nádasdy-esszében példát láthatunk arra, hogyan is okoskodik a nyelvész, míg a gyerekeket hallgatja a buszon. És hogy hogyan is zajlik a nyelvészek szerint a nyelvelsajátítás. http://seas3.elte.hu/delg/publications/modern_talking/28.html

Nádasdy írása és a korábban összefoglaltak alapján melyek a fő különbségek az emberi nyelvelsajátítás és a számítógép „nyelvelsajátítása” között?

A legeslegfontosabb különbség az, hogy mi, emberek, a nyelvelsajátításra vagyunk „programozva”. Azaz a jelenleg legelfogadottabb nyelvelsajátítási elmélet szerint (innáta hipotézis, lásd Chomsky 1965/1986) a nyelvi alapok megszületésünktől ott vannak a fejünkben, csak a paraméterek beállítására várnak, ahogy Nádasdy is fogalmazta a fenti cikkében. Azaz nem kell külön elmagyarázni nekünk, mi is a mondat, az ige, az alany, az egyeztetés, a névmás: implicite tudjuk magunktól. Ahogy azt is, hogy mik a lehetséges nyelvi szabályok.

A számítógép ezzel szemben semmit sem tud a nyelvről, és a nyelvészeti programok lefuttatása után sem fog tudni semmit. Adatokat és futási szabályokat (algoritmusokat) fog tárolni a memóriájában, illetve a háttértárolókon, amiknek minden körülmények között „engedelmeskedik”.

Természetesen beültethető a számítógép memóriájába egy, az emberi „alaphuzalozásnak” megfelelő nyelvtan, illetve készíthető olyan algoritmus, ami az erre épülő emberi nyelvelsajátítást imitálja. De csak akkor, ha már teljesen feltártuk a szabályait, vagyis sikerült modelleznünk. Ez még nem történt meg. Ahogy még azt sem tudjuk biztosan, hogy a paraméterek beállítása hogyan történik, és hogy egyáltalán pontosan milyen paraméterek is vannak. Éppen ezeket kutatja az általános vagy elméleti nyelvészet: a (joggal) feltételezett univerzális nyelvtan paramétereit és ezek beállításait, amelyek definiálják az egyes emberi nyelveket.

Ami a kenyere van - melege van különbséget illeti, ennek az elsajátítása hasonlóan történik (a jelenlegi elképzelések szerint) az emberek fejében, ahogy egy statisztikai tanulóalgoritmus tanul. Vagyis először az általánosat sajátítjuk el, és utána tanuljuk meg újabb és újabb példák (input adatok) alapján a kivételes alakokat. Ez az oka annak, hogy a nyelvelsajátításnak abban a szakaszában, amikor az embergyerek már szabályokat alkalmaz, nem csak utánoz (kb. óvodáskorban), megjelennek a túlgenerált alakok: lót, sarkban, olvasnák stb. Ilyenkor a gyerek a kivételes alakok használata helyett szabályos alakokat generál: azaz nem veszi figyelembe a kivételes töveket, vagy azt, hogy kivételesen figyelmen kívül hagyandó a hangrendi illeszkedés szabálya. Ahogy a statisztikai alapú számítógépes elemzőprogram sem tudja helyesen elvégezni a Meg ölelni (is) akartalak mondat speciális, statisztikai értelemben nem „szabályos” szegmentálását.

A másik különbség az emberi anyanyelv-elsajátítás és a számítógépes programok működése között a kis gyakoriságú kivételek kezelése. Az ember ugyanis az anyanyelvének apró kivételeit is elsajátítja (ha nem is a nyelvelsajátítás korai fázisában). A számítógép számára a kisgyakoriságú szabályok nem igazán érdekesek. Egészen pontosan a számítógépes programokat megtervezők számára nem érdekesek. Szabályosnak a nyelvészetben (de minden tudományban) azt tekintjük, ami gyakori, kivételnek azt, ami ritka. Ahogy Nádasdy Ádám írja: „Mit csinálunk akkor, amikor valamiből kevés van? Azt mondjuk rá: rendhagyó. Abnormális, azaz a normától eltérő. Ha a ritkát abnormálisnak minősítjük, ezzel a rendszert igyekszünk menteni, hiszen ami abnormális, az nem követelhet magának helyet a rendszerben, nem kell a számára új rubrikát nyitni.” (Nádasdy 2004)

Egy harmadik, igen lényeges különbség az emberi nyelvtudás és a számítógép „nyelvtudása” között a pragmatikai ismeretek kezelése. Egészen pontosan az, hogy a legutóbbi időkig a számítógépes nyelvészet nem törekedett a pragmatikai ismeretek kódolására. A számítógépes programok ritkán alkalmazzák a grice-i maximákat (mennyiség, minőség, relevancia, mód, Grice 1997, az eredeti kiadás 1975-ben jelent meg; az interneten sok helyen ismertetik ezeket, keressen rá!). A kisgyermekek nyelvelsajátításának fontos része a társalgási módok, társalgási szabályok begyakorlása.

Azaz.. Azért voltak és vannak olyan számítógépes programok, amelyek pragmatikai alapokra építenek.

1950-ben Alan Turing definiált egy tesztet, aminek az volt a célja, hogy el lehessen dönteni, hogy egy adott program intelligens-e vagy sem (ezt az időszakot a mesterséges intelligenciakutatás kezdetének lehet tekinteni). A teszt lényege: monitoron és billentyűzeten keresztül egyszerre két féllel kell a tesztelőnek kommunikálnia. Az egyik fél biztosan ember, a másik biztosan számítógép. Ha ötperces diskurzus után a kérdezők min. 33%-a nem tudja eldönteni, hogy melyik beszélgetőpartnere gép és melyik ember (vagyis a tesztelők legalább harmadát sikerül elbizonytalanítani: a forrásokban néhol 30%, máshol 33% szerepel), akkor a program intelligensnek tekinthető. A tesztet természetesen számtalan kritika érte. Turing 2000-re jósolta az olyan programok létrejöttét, amelyek sikeresek lesznek ezen a teszten. Ezzel szemben csak 2014 nyarán röppent fel olyan hír, hogy egy program sikeresen teljesítette a Turing-tesztet, de végül ez az eredmény is kétségesnek bizonyult (Eugene Goostman nevű program, amivel egy 13 éves ukrajnai fiút személyesítettek meg, így leplezendő az esetleges hibáit a kommunikációban).

A Turing-teszten természetesen nem a tényekre vonatkozó tudását próbálják tesztelni a kérdezők a beszélgetőpartnereknek, hiszen abban a számítógépek sokkal jobbak lennének. Nem is a logikai képességeit, hiszen abban is jobbak (a kezdeti próbálkozások során éppen azzal lehetett lebuktatni a programokat, hogy gyorsabban számoltak, mint az emberek). A kérdezők éppen a diskurzuskezelési szabályokat tesztelik, a reakciókat, pl. a grice-i maximák betartását stb. Vagyis a mesterséges intelligencia-kutatók éppen olyan szoftvereket próbálnak írni, amelyek ezen a téren is versenyképesek az emberekkel szemben.

Voltak korai kezdeményezések ilyen beszélgető-robotokra, ilyen volt az 1966-ban létrehozott ELIZA. Eliza egy rogersianus szemléletű terapeutát utánozott, azaz gyakran tükrözte vissza azt, amit a partnere mondott. Technikailag a beszélgetőtárs mondatából az egyik kulcsszó alapján Eliza adatbázisából kiválasztódik egy előre gyártott mondat-panel. Mutatok egy magyar nyelven létrehozott példasort (mert Eliza amúgy angolul kommunikált):

eliza

1. ábra: Beszélgetés Elizával.
Forrás: Babarczi Anna (2006): A nyelvtechnológia. Kézirat.

1. FELADAT

Mennyiben hasonlítható ehhez az Annával folytatott beszélgetés az Ikea weboldalán (lásd a 6. vizsgálatot)?

Ma már a számítógépes nyelvészeti programok tervezésénél is egyre nagyobb hangsúlyt kap a pragmatika. Jó példa erre a PTE BTK Nyelvtudományi Tanszékén Alberti Gábor vezetésével folyó kutatás-fejlesztés, a ReALIS (Alberti 2011). A 2014-es Találkozások című konferencián például a tantermi kérdések vizsgálatáról szóló előadással szerepelt a ReALIS-csapat: „Ez az elmélet formális keretben próbálja leírni az emberi társalgás személyközi folyamatait, és a jelentések alakulását eltérő mentális terek („világocskák”) találkozásaként reprezentálja. Feltevése, hogy minden mondat közöl valamilyen tartalmat, és az egyes mondattípusokhoz (kijelentő, kérdő, felszólító, felkiáltó, óhajtó) meghatározhatjuk azokat az alapfeltételeket, amelyek a beszélő és a hallgató tudására, vágyára, szándékára vonatkoznak. Ezeket az alapbeállításokat akár teljesen felül is írhatja a beszélő és a hallgató közötti szokatlan szereposztás, vagy módosíthatják különféle nyelvi elemek (például a diskurzuspartikulák).” (Alberti - Szabó 2014) .

Ahogy a tantermi interakciók, úgy az autizmus jellemzői is modellezhetők a ReALIS formális eszközeivel. Az állítás az, hogy az autizmus nem más, mint a ReAlisban definiált világocska-struktúra kisebb, nagyobb, vagy legrosszabb esetben végletes redukciója. Az a kapacitás, ami másnál a világocska-struktúra kiépítésére, megjegyzésére és manipulálására fordítódik, az az autistánál annak az egyetlen vagy kevés világocskának a több tartalommal való megtöltésére fordítódik: így lehetséges a zsenialitásig fokozódó részképességek (pl. Esőember c. film). (Alberti - Schnell - Szabó 2014)

Vagyis az utóbbi években egyre erősebb a szándék a pragmatikai tudás nyelvtechnológiai alkalmazására. A klasszikus nyelvtechnológiai programok (mint a helyesírás-ellenőrzők, beszédfeldolgozók, fordítók, keresők) azonban egyelőre semmilyen pragmatikai tudással nem rendelkeznek.