Artes/cultura
10/06/2024 às 08:00•2 min de leituraAtualizado em 11/07/2024 às 11:00
Como o cérebro distingue música de fala? Esta questão intrigou cientistas por décadas, mas uma pesquisa recente revelou que o sistema auditivo humano usa parâmetros acústicos simples para diferenciar esses sons, abrindo novas possibilidades terapêuticas para diversos distúrbios de linguagem.
Apesar de suas diferenças aparentes – com a música variando em tom, timbre e textura sonora, e a fala caracterizada por sua fluidez e ritmo – a distinção entre os dois é feita pelo cérebro de forma surpreendentemente básica.
Cientistas da Universidade de Nova Iorque revelaram que a principal diferença está na taxa de modulação de amplitude, ou seja, como o volume do som muda ao longo do tempo. A música tende a ter uma modulação mais lenta e constante, enquanto a fala apresenta uma modulação mais rápida e irregular.
Os pesquisadores utilizaram a unidade de medida Hertz (Hz) para avaliar essas taxas. Sons mais lentos, como uma música com batida de 1,6 Hz, soam mais como música para nossos ouvidos. Em contraste, a fala ocorre geralmente a uma taxa de 4-5 Hz, duas a três vezes mais rápida do que muitos ritmos musicais.
Para aprofundar essa compreensão, mais de 300 participantes foram submetidos a quatro experimentos distintos. Eles ouviram segmentos de áudio sintetizados que mimetizavam características de música e fala, com diferentes velocidades e regularidades de modulação de amplitude.
Os clipes de áudio eram deliberadamente ambíguos, contendo apenas pistas sobre volume e velocidade. Os participantes então classificaram esses sons como música ou fala, baseado apenas nessas características.
Os resultados foram reveladores: clipes com taxas mais lentas, ou seja, com menos de 2 Hz, e modulações mais regulares foram geralmente classificados como música, enquanto aqueles com taxas mais rápidas — acima de 4 Hz — e modulações irregulares foram percebidos como fala.
Essa distinção é similar ao fenômeno da pareidolia (onde vemos rostos felizes em tomadas ou escutamos chamar nosso nome em meio a ruídos), que é quando o nosso cérebro usa pistas simples para identificar formas complexas. Assim, até mesmo um clipe de ruído branco, com as características certas, pode ser percebido como música ou fala.
Essas descobertas têm implicações importantes para o tratamento de diversas doenças, como é o caso da afasia, um distúrbio de linguagem que afeta milhares de pessoas anualmente, inclusive o ator norte-americano Bruce Willis.
A terapia de entonação melódica, por exemplo, já utiliza a música para ajudar pacientes com afasia a recuperar a capacidade de falar, aproveitando seus mecanismos musicais intactos.
Por isso, compreender melhor como o cérebro distingue música de fala pode levar a programas de reabilitação mais eficazes, beneficiando não apenas pacientes com afasia, mas também aqueles com outros distúrbios auditivos ou de linguagem.
Em suma, a capacidade do cérebro de diferenciar entre música e fala baseia-se em parâmetros acústicos básicos, como a taxa e a regularidade da modulação de amplitude. Esta compreensão não apenas revela mais sobre como processamos o som, mas também abre novas possibilidades terapêuticas, trazendo esperança e novas ferramentas para aqueles que lutam contra distúrbios de comunicação.