James R. Hurford

Fonologia w ujęciu ewolucyjnym

Fonologia definiowana jest jako nauka o ustrukturyzowaniu dźwięków mowy w naturalnych systemach językowych. Głównymi czynnikami odpowiedzialnymi za taką a nie inną organizację wzorców fonetycznych w danym języku są możliwości i ograniczenia aparatu artykulacyjnego oraz percepcji słuchowej człowieka. Fizjologia narządów mowy i słuchu jest zasadniczo jednorodna, a międzyosobnicze różnice są na tyle niewielkie, iż możemy wykluczyć ich wpływ na kształtowanie się organizacji strukturalnej samych języków. Potencjalny materiał dźwiękowy podlegający organizacji fonologicznej może być różnicowany dzięki precyzyjnej kontroli sensomotorycznej narządów mowy: mobilności szczęk i podniebienia, elastyczności ruchów warg i języka oraz zmian położenia nagłośni modulującej przepuszczany przez nią strumień powietrza. Zakres możliwych brzmień generowanych przez to instrumentarium jest bardzo szeroki. Wyobraźmy sobie, że wspomniane artykulatory aktywuje sekwencja przypadkowych impulsów nerwowych – produkowane w ten sposób sygnały w niczym nie przypominałyby dźwięków mowy. Mówienie ma się tak do tych nieskoordynowanych artykulacji jak taniec baletnicy do chwiejnego chodu pijaka, który potyka się o własne nogi. Repertuar głosek artykułowanych w dowolnym języku jest rezultatem precyzyjnie dobieranych i zdyscyplinowanych ruchów narządów mowy, które pozwalają je wymawiać zgodnie z przyjętą w danej społeczności konwencją. Wypracowanie perfekcyjnej wymowy wymaga odpowiednio wczesnej ekspozycji na dźwięki danego języka oraz odpowiednio długiej praktyki. Po przekroczeniu wieku około ośmiu lat osoby przyswajające nowy język rzadko osiągają umiejętność wymawiania wszystkich charakterystycznych połączeń głoskowych bez „obcego” akcentu.

Koordynację funkcji poszczególnych organów artykulacyjnych w trakcie mówienia można porównać do współbrzmienia instrumentów w orkiestrze (Browman i Goldstein, 1992, 1995). Podczas strojenia każdy instrument wydaje dźwięki w sposób niezależny od pozostałych – czego rezultatem jest kakofonia. To samo dotyczy autonomii ruchów narządów mowy: ust (które możemy zamykać i otwierać w dowolnej chwili), strun głosowych (których wibrację możemy swobodnie uruchamiać i wstrzymywać), języka (który może w nieskrępowany sposób zmieniać swoje położenie), czy też podniebienia (które możemy unosić i obniżać według uznania). Żadne wrodzone predyspozycje nie determinują sposobu wykonywania któregokolwiek z tych ruchów. Mimo to każdy rodzaj zasobów języka mówionego jest ustrukturyzowany kombinatorycznie w oparciu o podstawowy repertuar segmentów fonetycznych i sylab, produkowanych w wyniku ściśle skoordynowanej aktywności całego zespołu wymienionych artykulatorów. Bez takiej koordynacji dźwięki mowy nie istniałyby w rozpoznawalnej przez nas dzisiaj postaci, częściowo skodyfikowanej w międzynarodowym zapisie fonetycznym (IPA).

Podstawowy trening aparatu artykulacyjnego pod kątem produkcji określonych segmentów fonetycznych pełniących funkcje dystynktywne w danym języku, ma miejsce w okresie niemowlęcym. Ludzkie niemowlę, w przeciwieństwie do młodych małp człekokształtnych, przechodzi fazę spontanicznego gaworzenia, wypróbowując możliwości własnych organów artykulacyjnych – robi to początkowo w sposób dość chaotyczny, lecz z czasem jego wokalizacje zaczynają przypominać dźwięki mowy zorganizowane w struktury sylabiczne, składające się z sekwencji spółgłoskowo-samogłoskowych (CV). Naprzemienne następowanie po sobie samogłosek i spółgłosek pozwala lepiej rozpoznawać cechy artykulacyjne i audytywne poszczególnych głosek i wyodrębniać je jako samodzielne jednostki. Strukturę sylaby CV odnajdujemy w każdym języku. W niektórych językach wyłoniły się sylaby o bardziej złożonych strukturach, z klasterami spółgłosek i kompleksami samogłoskowymi (takimi jak np. dyftongi), jednakże każda tendencja do takiej złożoności jest okupiona utrudnieniami w percepcji wyrażeń zawierających tego rodzaju głoski. Audytywna informacja zwrotna (słyszenie własnego głosu) pomaga niemowlęciu „kalibrować” ruchy artykulatorów i naśladować wzorce akustyczne adekwatne dla danego języka. Predyspozycja do gaworzenia pełni zatem funkcję dostosowawczą w grupie społecznej, która już czerpie korzyści z możliwości komunikowania się za pomocą zachowań werbalnych. Oznacza to, że biologiczna ewolucja tych predyspozycji sensomotorycznych, które wspierają precyzyjne dostrajanie i koordynowanie ruchów narządów mowy, mogła zostać zainicjowana poprzez wyłonienie się adaptacyjnej funkcji mowy artykułowanej. Byłby to modelowy przykład koewolucji w konfiguracji geny—kultura (a ściślej: geny—język).

Analizując systemy językowe, wyodrębniamy charakterystyczne dla nich zestawy fonemów – te najbardziej elementarne jednostki języka są wielokrotnie wykorzystywane w różnych konfiguracjach, stanowiąc podstawowy „budulec” dla kombinatorycznie mniej lub bardziej rozbudowanych form wyrażeniowych. Indywidualne zasoby językowe obejmują zwykle dziesiątki tysięcy słów. Utrzymywanie ich w pamięci nie byłoby możliwe, gdyby poszczególne wyrażenia były niepowtarzalne pod względem fonetycznym. Wspólnoty językowe propagują jednak także pewien rodzaj parawerbalnych form wyrażeniowych, których struktura znacznie odbiega od typowych wzorców fonetycznych. Rozważmy to na przykładzie Brytyjczyków: mają oni zwyczaj wyrażać obrzydzenie rodzajem gardłowego odgłosu, który zwykle zapisywany jest jako ‘ugh’; przedniojęzykowe mlaśnięcie (zapisywane jako ‘tsk’) jest wyrazem ich dezaprobaty; w reakcji na dotkliwe zimno artykułują specyficzny rodzaj dwuwargowej afrykaty (‘brrr’) itd. Wyrażenia te nie składają się z fonemów regularnie używanych do tworzenia wypowiedzi w języku angielskim. W takich parawerbalnych formach ekspresji możemy dostrzec reminiscencje przed-fonologicznego etapu rozwoju języka, kiedy to repertuary dźwięków mowy były jeszcze bardzo ograniczone i nie zawierały aż tylu wielofunkcyjnych, systematycznie zorganizowanych jednostek fonetycznych. Z chwilą wyłonienia się odpowiednio dużych zasobów słownictwa, utrzymywanie w pamięci coraz bardziej zróżnicowanych wyrażeń stało się niepraktyczne i uciążliwe. Dysponujemy symulacjami komputerowymi procesu, w którym wielokrotnie wykorzystywane jednostki fonetyczne „wykrystalizowują się” z przestrzeni pierwotnie nieukształtowanych wokalizacji (de Boer i Zuidema, 2010; Zuidema i de Boer, 2009). Konkurencyjne presje adaptacyjne (łatwość artykulacji i wzajemna dystynktywność używanych wyrażeń) prowadzą do wyłonienia się niewielkich repertuarów fonemów, które są w systematyczny sposób wykorzystywane w różnych konfiguracjach do tworzenia większych segmentów. Ten proces ewolucyjny można postrzegać jako przykład samoorganizacji systemu fonetycznego pod wpływem naturalnych ograniczeń aparatu mowy oraz oddziaływania dwóch wymienionych presji adaptacyjnych.

Zjawisko samoorganizacji można zaobserwować również w przypadku ewolucji repertuarów samogłosek. Modelowanie rozkładów samogłosek jest względnie proste, ponieważ przestrzenie obejmujące kontinuum artykulacyjne i akustyczne dla samogłosek zostały bardzo dobrze zbadane i można je precyzyjnie wyskalować w trzech podstawowych wymiarach. Języki różnią się pod względem ilości samogłosek – niektóre mogą angażować zaledwie dwie samogłoski, a inne ponad dwanaście, jak w przypadku języka angielskiego. Statystycznie najbardziej rozpowszechnione rozkłady samogłosek obejmują pięć rodzajów głosek, zbliżonych do [i], [e], [a], [o], [u] – z takim rozkładem mamy do czynienia np. w języku hiszpańskim. Systemy z mniejszą lub większą ilością samogłosek występują odpowiednio rzadziej. Niezależnie od ilości odrębnych jednostek, repertuary samogłosek w językach naturalnych wykazują tendencyjnie symetryczne rozkłady w obrębie regionów podobnie brzmiących dźwięków, wydzielonych z przestrzeni akustycznej obejmującej wszystkie potencjalne samogłoski. Semi-optymalny rozkład tych regionów ilustrują symulacje komputerowe procesu samoorganizacji systemów samogłoskowych, które stopniowo wyłaniają się z pierwotnie chaotycznych rozkładów formantów samogłoskowych w przestrzeni potencjalnych wokalizacji. Symulacje te adekwatnie modelują autentyczne rozkłady repertuarów samogłosek występujące w językach naturalnych. Przebieg takiej symulacji można interpretować jako model pradawnych procesów ewolucyjnych, które doprowadziły do wyłonienia się efektywnie zorganizowanych systemów samogłoskowych w protolektach. Łatwość ich realizacji przy możliwie niewielkim wysiłku artykulacyjnym oraz wystarczająco wyraźna audytywna dyferencjacja poszczególnych głosek – to połączone presje adaptacyjne, które były bezpośrednią przyczyną emergencji takiej a nie innej organizacji systemu samogłoskowego w trakcie symulacji. [Model ten sugeruje, iż] identyczne presje stabilizują repertuary samogłosek w językach naturalnych, utrzymując je w rozkładach o relatywnie zbliżonej symetrii przez cały okres glottogenezy.

Relacjonowane wyżej symulacje efektywnie modelują najważniejsze kryteria organizacji systemów fonologicznych w językach naturalnych, takie jak: fundamentalna struktura sylaby CV, zestawy bazowych fonemów spółgłoskowych i samogłoskowych, a także typowe dystrybucje samogłosek w przestrzeni akustycznej oraz w kontinuum ruchów artykulacyjnych. Jak dotąd nie dysponujemy precyzyjnymi symulacjami, które modelowałyby sposoby wzajemnego oddziaływania na siebie sąsiadujących ze sobą głosek (koartykulacja), choć jest to z pewnością bardzo istotny aspekt dynamicznej organizacji systemów fonologicznych. Niemniej jednak stosunkowo łatwo jest dostrzec ewolucyjny wymiar efektów związanych z procesem koartykulacji. Naturalne tendencje do modyfikowania wymowy w pewnych konfiguracjach fonologicznych realizowane są przez wszystkich komunikatorów, co z czasem prowadzi do zmian w kanonicznych wzorcach fonemów, które podlegają konwencjonalizacji – dochodzi do wyłonienia się nowej synchronicznej reguły opisującej taki efekt. Przykładowo, zupełnie naturalną tendencją jest bezdźwięczna wymowa kanonicznie dźwięcznych spółgłosek w wygłosie wyrazów, ponieważ antycypowana jest wówczas (bezdźwięczna) pauza. W języku niemieckim takie ubezdźwięcznienie zdążyło się już nawet „zinstytucjonalizować” i realizowane jest we wszystkich spółgłoskach wygłosowych. Wiele innych synchronicznych reguł fonologicznych stanowi generalizacje będące efektem procesu „stabilizowania się” zmian, które zostały zainicjowane na wcześniejszym etapie glottogenezy danego języka.


CZYTAJ DALEJ

 

Przekład tekstu autorstwa prof. J. Hurforda publikuję za uprzejmą zgodą Autora.
The translation appears here by the kind permission of the author of the original work.
 

Tekst źródłowy: Hurford, J.R. (2012). Linguistics from an evolutionary point of view.
W: R. Kempson, T. Fernando i N. Asher, (red.), Handbook of the Philosophy of Science. Volume 14: Philosophy of Linguistics. Amsterdam: Elsevier BV, 473–498.
DOI: 10.1016/B978-0-444-51747-0.50014-7

Cytowanie: Odnosząc się do tych treści w innych publikacjach, należy uwzględnić podany na końcu permalink (odnośnik bezpośredni) do tej sekcji lub link do kompletnego tekstu przekładu. Tekst przyjęto do druku w czasopiśmie AVANT.

 


Z języka angielskiego przełożył Arkadiusz Jasiński
permalinkhttp://evolectorium.com/spip.php?article34
data publikacji: 08.05.2014


Creative Commons License


Artykuł dostępny na licencji CC BY-SA 4.0
Creative Commons · Uznanie autorstwa
Na tych samych warunkach 4.0 Międzynarodowe
.

 


 
 


Bibliografia i przypisy

  • Browman, C. P. i Goldstein, L. (1992). Articulatory phonology: an overview. Phonetica 49, 155–180.
  • Browman, C. P. i Goldstein, L. (1995). Dynamics and articulatory phonology. W: R. F. Port i T. Van Gelder, red., Mind As Motion: Explorations in the Dynamics of Cognition. Cambridge, MA: MIT Press, 175–194.
  • de Boer, B. i Zuidema, W. (2010). Multi-Agent Simulations of the Evolution of Combinatorial Phonology. Adaptive Behavior, 18 (2), 141–154. DOI: 10.1177/1059712309345789
  • Zuidema, W. i de Boer, B. (2009). The evolution of combinatorial phonology. Journal of Phonetics, 37 (2), 125–144. DOI: 10.1016/j.wocn.2008.10.003