Ciência
06/01/2022 às 12:00•2 min de leitura
Pesquisadores de diversas universidades pelo planeta, por meio de um trabalho colaborativo publicado no Journal of Neuroscience, revelaram como o cérebro humano é capaz de ativar um mecanismo de identificação vocal mesmo quando as pessoas estão em meio a multidões. Segundo o estudo, o órgão consegue concentrar sua atenção em um único falante permitindo que a voz e a fala possam ser perfeitamente compreendidas e "recortadas" das outras no ambiente.
Para entender de que forma ocorre a aplicação focal do cérebro humano em um único interlocutor, os neurocientistas contaram com o suporte do exame de eletroencefalografia (EEG), método de monitoramento não invasivo utilizado para registrar a atividade elétrica do cérebro. A técnica foi aplicada em voluntários durante a reprodução de histórias simultâneas e analisou o comportamento das ondas cerebrais caso os participantes fossem recomendados a focar a atenção em apenas um único relato.
(Fonte: Shutterstock)
“Nossas descobertas sugerem que a acústica, tanto da história assistida quanto da história não vista ou ignorada, é processada de forma semelhante”, disse o professor associado de Neurociência Edmund Lalor, da University of Rochester Medical Center e coautor do projeto. “Mas descobrimos que havia uma distinção clara entre o que aconteceu a seguir no cérebro", ele explicou.
A descoberta logo revelou que o processo de identificação linguística ocorre devido à conversão da fala em fonemas — as menores unidades sonoras que formam as palavras de uma língua e são representadas graficamente por letras —, articulando-se por meio da conversação. Curiosamente, apenas uma das histórias chama a atenção do cérebro e se transforma em algo compreensível, enquanto os sons simultâneos emitidos por outras pessoas são ignorados pela atividade neural.
(Fonte: StockSnap/Reprodução)
Isso explicaria evidências claras de processamento de traços fonéticos categóricos para fala assistida, esclarecendo como o cérebro humano resolve o problema de festas, reuniões e eventos com muitas pessoas, com o suporte da otimização da atenção. Essa priorização do fonema em detrimento da acústica apoiaria a noção existencial de uma hierarquia de codificação em que a detecção aconteceria de forma separada, com a unidade da linguagem operada como um estágio distinto.
"Essa conversão é o primeiro passo para entender a história assistida", concluiu Lalor. “Os sons precisam ser reconhecidos como correspondentes a categorias linguísticas específicas, por exemplo fonemas e sílabas, para que possamos determinar quais palavras estão sendo faladas, mesmo se soarem diferentes. Um exemplo disso é quando palavras são ditas por pessoas com sotaques diferentes ou em tons de voz distintos”, falou o professor.