Come riconosce il cervello i suoni del linguaggio?
E’ possibile che il cervello riconosca i suoni del linguaggio?
Il Medical News Today riportano una scoperta fondamentale su come il cervello riconosce i suoni del linguaggio, aprendo nuovi scenari per la comprensione dei disturbi dell’apprendimento.
I ricercatori dell’“Università della California, San Francisco” hanno dimostrano in un nuovo studio, pubblicato sulla rivista “Science”, come il cervello riconosce i suoni del linguaggio a partire dalla formazione del suono.
Nella comunità scientifica è ormai noto che il luogo deputato all’interpretazione e alla comprensione del linguaggio è il giro temporale superiore (conosciuto come “Area di Wernike”) . Tuttavia non si è ancora compreso esattamente il processo attraverso il quale il cervello effettivamente processi i suoni delle parole.
Per indagare quest’aspetto i ricercatori dell’“Università della California San Francisco” (UCSF) hanno condotto uno studio che rappresenta una delle più avanzate ricerche sull’interpretazione del linguaggio da parte del cervello.
scopriamo di più…
Sebbene gli studi precedenti siano stati in grado di analizzare le risposte neurali prodotte da stimoli linguistici naturali o prodotti dal computer, i ricercatori della UCFS, grazie alla nuova tecnologia impiegata, sono riusciti a analizzare ogni fonema della lingua inglese.
I ricercatori hanno infatti posizionato alcuni dispositivi per la registrazione neurale sulla superficie del cervello, ovvero a “cervello aperto”, di sei pazienti che si stavano sottoponendo a un operazione per l’epilessia. Questo ha permesso ai ricercatori di registrare istantaneamente i cambiamenti che si verificavano nel cervello e quindi di comprendere come il cervello è sintonizzato con il linguaggio.
I ricercatori hanno registrato le risposte prodotte dal giro temporale superiore dei pazienti mentre ascoltavano 500 frasi in lingua inglese, pronunciate da 400 persone diverse.
Quello che i ricercatori si aspettavano era di vedere i cervelli dei pazienti rispondere ai singoli “fonemi”, ovvero le unità minime del suono che vengono combinate per produrre unità significative del discorso, ovvero le parole o le frasi (ad esempio, il suono “C” pronunciato in “casa”).
Invece i ricercatori hanno osservato che il cervello era sintonizzato con una funzione ancora più basilare del linguaggio, ciò che i linguisti chiamano “features”, ovvero le caratteristiche fonetiche. Queste caratteristiche sono peculiari “segni distintivi acustici” che il corpo umano fa quando muove le labbra, la lingua o le corde vocali per pronunciare i fonemi.
i tipi di “feature”
Esistono due tipi di “feature”: le “occlusive” e le “fricative”. Le occlusive si presentano quando, per fare un certo tipo di suono, il parlante deve bloccare completamente il flusso d’aria grazie alle labbra o alla lingua e rilasciarlo rapidamente subito dopo, causando un breve scoppio d’aria. Un esempio di occlusive sono le consonanti P,T,B e D.
Le “fricative” invece si presentano quando la via aerea è solo parzialmente ostruita, permettendo così all’aria in parte di fuoriuscire e generando dunque attrito nel tratto vocale. S, Z e V sono esempi di fricative.
Analizzando i dati dai cervelli dei pazienti, i ricercatori hanno osservato che il giro temporale superiore dei pazienti “si accendeva” quando i partecipanti udivano le differenti caratteristiche fonetiche. I ricercatori hanno osservato quindi che il cervello riconosceva maggiormente i diversi “pattern acustici” generati da un’ occlusiva o da una fricativa, piuttosto che i singoli fonemi come B o Z.
Suoni come forma
I ricercatori hanno paragonato questo sistema di interpretazione della struttura dei suoni al modo in cui il cervello riconosce gli oggetti visivi, utilizzando i bordi e le forme. Il sistema visivo ci permette di identificare gli oggetti che conosciamo indipendentemente dalla prospettiva dalla quale noi li stiamo osservando, così i ricercatori ipotizzano che il cervello allo stesso modo potrebbe applicare un algoritmo simile per comprendere i suoni.
L’autoreìdello studio, Dr. Edward F. Chang, sostiene che:
“(…) Dallo studio di tutti i suoni del linguaggio in inglese abbiamo scoperto che il cervello ha un’organizzazione sistematica per le unità sonore di base. Un po’ come un sorta di elementi della tavola periodica“
I ricercatori della UCSF sperano che i loro risultati contribuiscano nell’indagine scientifica sui disturbi della lettura (la dislessia), in cui le parole scritte sono associate ai diversi suoni linguistici in modo scorretto dal cervello.
Inoltre, tali risultati sono rilevanti di per sé: il Dr. Chang sostiene che questi sono “un sguardo parziale e molto intrigante ai processi che riguardano l’elaborazione del parlato. Sono state identificate le regioni del cervello in cui il linguaggio è processato, ma nessuno ha davvero compreso come questo processo si verifica.”
A tale proposito, recentemente il “Medical News Today” ha riportato uno studio in cui è stato individuato che il cervello utilizza entrambi gli emisferi per elaborare il linguaggio, a differenza della convinzione precedente, la quale riteneva che fosse coinvolto solamente l’emisfero sinistro nell’elaborazione del linguaggio.
Queste scoperte aprono prospettive nuove per la diagnosi e il trattamento dei disturbi dell’apprendimento.
Lara Lanzoni
Psicologa