Blog

Decodificação das percepções visuais através de algoritmos de aprendizado de máquina

   

      A busca por compreender como os cérebros processam informações sensoriais e geram percepções visuais tem sido um dos desafios mais intrigantes na neurociência. Recentemente, a combinação de avanços em técnicas de registro neurais e algoritmos de aprendizado de máquina permitiu um estudo decodificar a visão de ratos com base em suas atividades cerebrais, ou seja, apenas a partir de dados neuronais, uma inteligência artificial conseguiu reproduzir em imagem exatamente o que o rato enxergou. Aqui, vamos explorar as inovações recentes nessa área, destacando o papel dos algoritmos de aprendizado de máquina e como isso pode evoluir para possível descoberta do código neural.


     A decodificação neural envolve a interpretação de padrões de atividade neural para entender as informações que o cérebro está processando. Com a ajuda de avanços em técnicas de registro neural, como eletroencefalogramas (EEGs), eletrofisiologia invasiva de alta resolução e imageamento de cálcio, por exemplo, estudos têm coletado dados ricos que capturam a atividade de neurônios individuais ou redes neurais inteiras. Esses dados são então processados e analisados com algoritmos de aprendizado de máquina para identificar padrões que correspondem a estímulos sensoriais específicos. 
 
    Nesse contexto, um trabalho publicado na revista Nature realizado na École polytechnique fédérale de Lausanne, utilizou algoritmos de aprendizado de máquina (chamada de CEBRA) para tradução das atividades cerebrais em informações compreensíveis sobre o que um camundongo está percebendo visualmente durante a exposição de um filme. Para isso, foram desenvolvidos modelos preditivos que mapeiam padrões de atividade neural para estímulos visuais específicos, como formas, cores e movimentos. Esses modelos, muitas vezes baseados em redes neurais artificiais, aprendem a relação entre as atividades cerebrais e as percepções visuais por meio de treinamento com dados de estímulo e resposta. Para esse estudo, esses sinais foram obtidos através do implante de eletrodos intracerebrais diretamente na região do córtex visual dos camundongos. Além disso, outra abordagem utilizada foi o imageamento de cálcio, método onde ratos geneticamente modificados são criados com a capacidade de expressar proteínas que brilham em verde quando os neurônios estão ativos e foram captadas por sondas ópticas implantadas no córtex visual. Ao estimular visualmente esses camundongos, os neurônios ativados emitem sinais luminosos verdes, proporcionando uma representação visual da atividade cerebral em resposta a estímulos visuais específicos. Esses dados adquiridos servem de fonte para a aprendizagem de máquina, que envolve uma técnica baseada em aprendizado contrastivo, ou seja, uma técnica que aprende como os dados de alta dimensão podem ser organizados ou incorporados em um espaço de dimensão inferior chamado espaço latente, de modo que pontos de dados semelhantes fiquem próximos e dados mais diferentes os pontos estão mais distantes (classificação por clusters). Isso permite a identificação de padrões neurais e comportamentais, podendo ser traduzidos em recursos sensoriais, como cores ou texturas de imagens (Imagem ao lado). Abaixo, você pode observar o vídeo do filme exibido para o camundongo e o vídeo construído pela aprendizagem de máquina a partir dos dados da atividade cerebral do animal.


 
     Esse algoritmo pode ser aplicado a muitos conjuntos de dados envolvendo tempo ou informações conjuntas, incluindo comportamento animal, dados de expressão gênica e etc, possuindo uma ampla aplicação na neurociência e consequentemente potenciais aplicações clínicas. Para isso, é imprescindível que novos trabalhos investiguem novas formas de aquisição de dados cerebrais mais acurados envolvendo outros inputs sensoriais para aperfeiçoar esse tipo de aprendizagem de máquina e realizar possíveis descobertas mais profundas sobre o código neural.



Referências:
 
Schneider, Steffen, Jin Hwa Lee, and Mackenzie Weygandt Mathis. "Learnable latent embeddings for joint behavioural and neural analysis." Nature (2023): 1-9.
 
Hossain, Khondoker Murad, et al. "Status of deep learning for EEG-based brain–computer interface applications." Frontiers in computational neuroscience 16 (2023): 1006763.
 
Musall S, Kaufman MT, Gluf S, Churchland AK. Movement-related activity dominates cortex during sensory-guided decision making. bioRxiv. 2020.
 
Yamins DLK, DiCarlo JJ. Using goal-driven deep learning models to understand sensory cortex. Nat Neurosci. 2016.
 
Giovannucci A, Friedrich J, Gunn P, Kalfon J, Brown BL, Koay SA, Taxidis J, Najafi F, Gauthier JL, Zhou P, Khakh BS, Tank DW, Chklovskii DB, Pnevmatikakis EA. CaImAn an open source tool for scalable calcium imaging data analysis. eLife. 2019.
 
Steinmetz NA, Zatka-Haas P, Carandini M, Harris KD. Distributed coding of choice, action and engagement across the mouse brain. Nature. 2019.
 


Autor: Rodrigo Oliveira
#eeg-latam #brain-biochemical-homeostasis #cognitive-consciousness #brain #brain-states #functional-connectivity #brain-scan








AREAS OF INTEREST