EEG/fMRI e Ecolocalização Humana: Como o Corpo Acumula Evidências pelo Som
09/05/2026 at 04:05:18
Author: Jackson Cionek
09/05/2026 at 04:05:18
Author: Jackson Cionek
A ecolocalização humana parece, à primeira vista, uma habilidade extraordinária: pessoas cegas emitem cliques com a boca e usam os ecos para perceber objetos, direções e espaços. Mas o estudo de García-Lázaro e Teng mostra algo ainda mais profundo: o cérebro não percebe o espaço de uma vez. Ele acumula evidências pelo som.
A pergunta científica do artigo é muito bonita: a percepção espacial por ecolocalização depende de um único eco ideal ou emerge da integração progressiva de vários ecos ao longo do tempo? Para responder, os pesquisadores combinaram psicofísica com EEG em especialistas cegos em ecolocalização e participantes videntes sem treino.
O estudo merece elogio porque pega uma habilidade humana real, usada na vida cotidiana por algumas pessoas cegas, e transforma isso em uma pergunta experimental precisa. Em vez de tratar a ecolocalização como curiosidade, o artigo pergunta como o cérebro constrói uma representação espacial quando a visão não está disponível.
Participaram 4 especialistas cegos em ecolocalização, todos homens, e 21 participantes videntes novatos, sendo 12 homens. Os especialistas foram recrutados por uso ativo e prolongado de cliques com a boca em atividades da vida diária. Os controles videntes não tinham treino em ecolocalização. Todos tinham audição normal avaliada por audiometria.
Os estímulos foram cliques de boca sintetizados e ecos espacializados, simulando um objeto virtual a 1 metro de distância, em diferentes posições no plano horizontal: 5°, 10°, 15°, 20° ou 25° à esquerda ou à direita. Cada tentativa apresentava sequências de 2, 5, 8 ou 11 cliques, separados por 750 ms. A tarefa era decidir se o objeto virtual estava à esquerda ou à direita da linha média corporal. A Figura 1 mostra a geração dos cliques, a tarefa e o pipeline EEG/MVPA.
O EEG foi registrado com um sistema Brain Products actiCHamp Plus, com 64 canais, touca EasyCap em configuração 10–20 modificada, referência online em Fz, digitalização a 1000 Hz e uso do StimTrak, também da Brain Products, para marcar com mais precisão o início dos estímulos sonoros. Esse detalhe é muito relevante para BrainLatam/Brain Support, porque mostra um desenho EEG auditivo de alta precisão temporal, compatível com estudos de percepção, decisão e neurociência ecológica.
Os resultados comportamentais foram claros. Os especialistas cegos precoces tiveram desempenho muito superior ao dos controles videntes. Os três participantes cegos precoces ficaram acima de 88% de acertos, enquanto os controles videntes ficaram próximos do acaso, com média de 51,83%. O participante com cegueira tardia ficou acima do acaso, mas não diferiu estatisticamente dos controles videntes.
Esse ponto é muito importante: a ecolocalização não depende apenas de ouvir sons. Ela envolve experiência, treino, corpo e história sensorial. A cegueira precoce parece favorecer uma reorganização mais profunda da percepção espacial auditiva, enquanto a cegueira tardia pode manter referências espaciais mais calibradas pela visão.
O achado central aparece quando os autores analisam o número de cliques. Para especialistas cegos, especialmente EB2 e EB3, a precisão melhorou conforme aumentava o número de cliques. Ou seja: cada clique acrescentava informação. O cérebro não estava apenas esperando “o melhor eco”. Ele parecia somar evidências sucessivas até construir uma representação espacial mais estável.
A Figura 3 é muito didática: ela mostra que os limiares de localização diminuem com mais cliques. Em termos simples, quanto mais amostras sonoras o ecolocalizador recebe, menor precisa ser a diferença espacial para que ele consiga localizar o objeto. Para EB2, cada clique adicional melhorou a precisão em aproximadamente 0,61°. Para EB3, a melhora foi ainda mais forte, cerca de 2° por clique, até atingir um platô.
A Figura 4 mostra outro ponto importante: quando o objeto está mais lateralizado, por exemplo a 20° ou 25°, são necessários menos cliques para localizar. Quando está muito perto da linha média, como 5°, a tarefa é mais difícil e exige mais evidência acumulada. Isso confirma que a percepção espacial pelo som depende da força das pistas acústicas e do número de amostras disponíveis.
O EEG mostrou a parte mais fascinante. Usando MVPA com classificadores SVM, os autores conseguiram decodificar se o eco vinha da esquerda ou da direita. Nos especialistas cegos precoces, a lateralidade do eco já podia ser discriminada neuralmente desde os primeiros cliques. Nos controles videntes, essa decodificação não apareceu de forma significativa.
A Figura 5 mostra que o pico inicial de decodificação EEG se relacionou com o desempenho comportamental: quem tinha melhor discriminação neural da lateralidade também localizava melhor os ecos. Isso liga diretamente cérebro e comportamento. Não é apenas “atividade cerebral bonita”; é atividade neural relacionada à capacidade real de perceber o espaço pelo som.
Outro resultado forte aparece na evolução da sequência. A Figura 6 mostra que as respostas neurais mudam conforme a posição ordinal do clique: primeiro clique, segundo, quinto, oitavo, décimo primeiro. Isso sugere que o cérebro não responde a cada clique como se fosse igual ao anterior. Ele atualiza o estado neural conforme a sequência avança.
Os modelos computacionais do artigo reforçam essa ideia. Os autores compararam regras de leitura neural: soma acumulativa, melhor amostra isolada, softmax e inclinação ao longo da sequência. Em EB2, o melhor modelo foi a integração cumulativa. Em EB3, o melhor modelo foi a integração sensível à taxa de mudança. Nenhum participante com variabilidade comportamental suficiente favoreceu uma leitura estritamente baseada em uma única melhor amostra.
Isso é central para a BrainLatam2026: o cérebro ecolocalizador não parece funcionar como uma câmera auditiva que captura uma imagem pronta. Ele funciona como um sistema vivo de amostragem, comparação, acúmulo e decisão. Cada clique é uma pergunta ao território. Cada eco é uma resposta parcial. A percepção nasce da conversa entre corpo e mundo.
Um detalhe microfisiológico importante para aprofundar essa leitura é que a localização sonora depende de comparações extremamente rápidas entre os sinais que chegam aos dois ouvidos. Diferenças mínimas de tempo de chegada, fase e intensidade são processadas em circuitos do tronco encefálico auditivo, especialmente em estruturas como a oliva superior medial e lateral. A literatura sobre localização sonora mostra que as diferenças interaurais de tempo e de nível são pistas fundamentais para localizar sons no eixo horizontal, e que esses cálculos dependem de circuitos binaurais capazes de comparar informações vindas das duas orelhas. (Nature)
Nesse ponto entram as sinapses elétricas. Elas são formadas por junções comunicantes, frequentemente associadas à connexina 36 — Cx36, e aparecem amplamente em centros do sistema auditivo de camundongos e ratos, incluindo regiões onde há sinapses puramente elétricas e sinapses mistas, com componentes elétricos e químicos. Essas sinapses não “pensam” a direção do som, mas ajudam a criar condições de acoplamento, sincronização e transmissão temporal muito precisa, fundamentais para circuitos que precisam comparar diferenças de tempo e fase em escalas muito pequenas. (PubMed Central)
Na linguagem BrainLatam2026, isso aprofunda a ideia de APUS: o corpo-território não começa apenas no córtex. Ele começa em microdiferenças temporais entre os ouvidos, em fase, atraso, intensidade, sinapses químicas e sinapses elétricas. Antes de “saber” de onde vem o som, o corpo já está comparando tempos, fases e ecos. A ecolocalização humana mostra esse princípio em ação: o som sai do corpo, retorna do território e é integrado por circuitos auditivos capazes de acumular evidências espaciais clique após clique.
Embora o artigo use EEG, a ideia de EEG/fMRI pode entrar como horizonte experimental. O EEG mostra o tempo: quando cada eco começa a gerar evidência neural. O fMRI poderia mostrar o espaço anatômico: redes auditivas, parietais, motoras, atencionais e possivelmente occipitais envolvidas na ecolocalização. Juntos, EEG e fMRI poderiam unir dinâmica temporal e localização cerebral.
Na lente da Mente Damasiana, a ecolocalização é um exemplo belíssimo de consciência em ação. Interocepção, propriocepção e percepção auditiva não estão separadas. O sujeito regula boca, mandíbula, respiração, cabeça, postura, ouvido e atenção. O clique sai do corpo, toca o ambiente e retorna como informação do território.
Aqui entra APUS, como corpo-território. O ecolocalizador não está apenas ouvindo o ambiente. Ele está estendendo o corpo pelo som. O clique é uma ação corporal que atravessa o espaço e retorna como mapa. O ambiente deixa de ser exterior puro e passa a funcionar como extensão sensível da propriocepção.
A lente-avatar deste blog pode ser APUS com Jiwasa. APUS percebe o corpo-território; Jiwasa percebe o sincronismo entre corpo, som e ambiente. Na ecolocalização, o corpo não domina o mundo: ele conversa com o mundo. Cada eco é uma resposta do território.
Esse estudo também conversa com os Eus Tensionais. Um ecolocalizador experiente organiza um Eu Tensional muito refinado: emitir, esperar, escutar, comparar, decidir e mover. Não é tensão rígida. É tensão funcional. É um estado de prontidão sensível, capaz de transformar som em direção.
A pergunta BrainLatam2026 seria: a alta performance na ecolocalização depende apenas da audição ou de uma integração mais eficiente entre EEG, respiração, movimento de cabeça, EMG facial/cervical, HRV/RMSSD, GSR e fNIRS? Para responder, poderíamos criar um desenho multimodal com EEG + fNIRS + EMG + respiração + HRV/RMSSD + GSR + sensores inerciais, além de um estudo complementar com fMRI.
O EEG mostraria a acumulação rápida de evidências a cada clique. A fNIRS observaria córtex pré-frontal e parietal em tarefas mais naturais. O fMRI poderia mapear redes auditivas, visuais e espaciais. O EMG registraria microações da face, mandíbula e pescoço. Sensores inerciais mediriam pequenos movimentos de cabeça. HRV e respiração mostrariam regulação autonômica durante a exploração.
Um desenho latino-americano poderia comparar pessoas cegas especialistas, pessoas cegas iniciantes, videntes treinados e crianças em tarefas sonoras de localização. Também poderíamos criar tarefas em ambientes reais: corredor, sala de aula, praça, floresta, trilha, espaços urbanos e territórios culturais. A pergunta seria: como o cérebro-corpo aprende a transformar eco em pertencimento espacial?
A crítica decolonial generosa é que a neurociência muitas vezes separa percepção, corpo e território. Mas a ecolocalização mostra o contrário. O mundo não é apenas representado no cérebro. Ele é explorado por ciclos de ação e retorno. Em contextos latino-americanos, isso abre espaço para estudar orientação corporal em comunidades, práticas de escuta, navegação em mata, rios, cidades, música, dança e saberes corporais tradicionais.
A ponte com DREX Cidadão aparece quando pensamos em acessibilidade e políticas públicas. Pessoas cegas não precisam apenas de adaptação técnica; precisam de território acessível, segurança, mobilidade, educação sensorial e tecnologias que respeitem sua autonomia. Uma sociedade em Zona 2 cria condições para que diferentes corpos ampliem sua inteligência perceptiva.
Fechamento
Este estudo mostra que a ecolocalização humana não é mágica. É corpo, som, cérebro, sinapses, tempo, fase e território acumulando evidências. Cada clique amplia o campo possível de ação. Para BrainLatam2026, isso é fundamental: perceber não é receber o mundo pronto; é construir presença com o ambiente. A ecolocalização revela uma neurociência do APUS: o corpo se estende pelo som, escuta o retorno do território e transforma eco em direção.
Referências
García-Lázaro, H. G., & Teng, S. (2026). Neural and Behavioral Correlates of Evidence Accumulation in Human Click-Based Echolocation. eNeuro, 13(4). doi:10.1523/ENEURO.0342-25.2026.
Rubio, M. E., & Nagy, J. I. (2015). Connexin36 expression in major centers of the auditory system in the CNS of mouse and rat: Evidence for neurons forming purely electrical synapses and morphologically mixed synapses. Neuroscience, 303, 604–629. doi:10.1016/j.neuroscience.2015.07.026. (PubMed Central)
Pecka, M., Brand, A., Behrend, O., & Grothe, B. (2008). Interaural Time Difference Processing in the Mammalian Medial Superior Olive: The Role of Glycinergic Inhibition. Journal of Neuroscience, 28(27), 6914–6925. doi:10.1523/JNEUROSCI.1660-08.2008. (Journal of Neuroscience)
Keine, C., et al. (2025). Cellular and synaptic specializations for sub-millisecond sound localization in the mammalian auditory brainstem. Frontiers in Cellular Neuroscience. (Frontiers)




