Comment le cerveau traite-t-il l’information visuelle associée aux sons de la parole 

11.03.2022

Comment le cerveau traite-t-il l’information visuelle associée aux sons de la parole ?

 

Nous avons le plaisir de vous annoncer la publication du dernier article de Chotiga Pattamadilok et Marc Sato, chercheur.e.s CNRS au LPL, intitulé « How are visemes and graphemes integrated with speech sounds during spoken word recognition? ERP evidence for supra-additive responses during audiovisual compared to auditory speech processing » dans la revue Brain and Language.

 

Référence :

Chotiga Pattamadilok, Marc Sato. How are visemes and graphemes integrated with speech sounds during spoken word recognition? ERP evidence for supra-additive responses during audiovisual compared to auditory speech processing. Brain and Language, Elsevier, 2022, 225, ⟨10.1016/j.bandl.2021.105058⟩⟨hal-03472191v2⟩

 

Document en texte intégral sur HAL : https://hal.archives-ouvertes.fr/hal-03472191v2

 

Résumé :

Les gestes articulatoires et l’orthographe sont les deux principales informations visuelles qui sont étroitement liées à la parole. Il existe cependant peu d’études qui cherchent à savoir si les associations entre les sons de parole et chacune de ces informations visuelles s’appuient sur le même, ou sur différents, processus cognitifs. Notre étude en EEG examine cette question en identifiant les stades de traitement de la parole pendant lesquels ces deux formes d’association audio-visuelle ont lieu.

 

Contact : chotiga.pattamadilok@lpl-aix.fr