Lançada na metade de 2022, a inteligência artificial Stable Diffusion foi construída para gerar imagens a partir de descrições de texto, aos moldes dos robôs Dalle e MidJourney, “primos mais famosos” da onda de IAs generativas que ganhou o mundo.
Pesquisadores da Universidade de Osaka, no Japão, usaram ondas cerebrais para alimentar a Stable Diffusion e gerar imagens a partir delas. Um artigo científico com o experimento foi pré-publicado em dezembro e aprovado no dia 3 de março.
Quatro pessoas participaram do experimento japonês. Elas foram apresentadas a 2.270 imagens diferentes que mostravam girafas, ursos de pelúcia, relógios e trens.
Depois, foram submetidas a ressonâncias magnéticas, onde precisavam pensar nas imagens que viram. Áreas do cérebro eram ativadas quando isso acontecia. Os impulsos elétricos foram transformados em números pelos pesquisadores.
Após o procedimento, os números gerados foram interpretados pela Stable Diffusion, que gerou imagens a partir deles. É como se a mente dos participantes tivesse sido “lida”, a partir de construções das figuras que imaginaram.
Trata-se do primeiro experimento do tipo a conseguir resultados que podem ser inteligíveis. Mesmo com imperfeições e pouca clareza, é possível identificar trens e ursos de pelúcia nos resultados. “Conseguimos fazer uma interpretação quantitativa e qualitativa de uma perspectiva biológica”, diz o artigo.
A expectativa é que, no futuro, pessoas que não possam se comunicar por qualquer motivo possam fazê-lo apenas pensando nas imagens daquilo que querem comunicar.
A concretização de algo do tipo ainda está distante, e são necessários vários outros testes e ajustes, como, por exemplo, o fato de que nem todo pensamento é linear, 100% imagético ou 100% verbal. Eles surgem, muitas vezes, de forma desordenada e misturando estímulos sensoriais diferentes. Apesar disso, os pesquisadores acreditam que deram um primeiro passo, e pretendem continuar realizando as experiências ao longo de 2023.