A inteligência artificial pode não necessitar de grandes conjuntos de dados afinal.
Uma nova pesquisa da Universidade Johns Hopkins demonstra que sistemas de inteligência artificial construídos com designs inspirados na biologia podem começar a se assemelhar à atividade cerebral humana mesmo antes de serem treinados com dados. O estudo sugere que a forma como a IA é estruturada pode ser tão importante quanto a quantidade de dados…
Uma nova pesquisa da Universidade Johns Hopkins demonstra que sistemas de inteligência artificial construídos com designs inspirados na biologia podem começar a se assemelhar à atividade cerebral humana mesmo antes de serem treinados com dados. O estudo sugere que a forma como a IA é estruturada pode ser tão importante quanto a quantidade de dados que ela processa.
Repensando a Abordagem Pesada em Dados da IA
As descobertas, publicadas na Nature Machine Intelligence, desafiam a estratégia dominante no desenvolvimento de IA. Em vez de depender de meses de treinamento, enormes conjuntos de dados e enorme poder computacional, a pesquisa destaca o valor de começar com uma base arquitetônica semelhante à do cérebro.
“A maneira como o campo da IA está se movendo atualmente é jogar uma quantidade enorme de dados nos modelos e construir recursos computacionais do tamanho de pequenas cidades. Isso requer gastar centenas de bilhões de dólares. Enquanto isso, os humanos aprendem a ver usando muito poucos dados”, disse o autor principal Mick Bonner, professor assistente de ciência cognitiva na Universidade Johns Hopkins. “A evolução pode ter convergido para esse design por uma boa razão. Nosso trabalho sugere que designs arquitetônicos mais semelhantes ao cérebro colocam os sistemas de IA em um ponto de partida muito vantajoso.”
Bonner e seus colegas tinham como objetivo testar se a arquitetura sozinha poderia dar aos sistemas de IA um ponto de partida mais semelhante ao humano, sem depender de um treinamento em larga escala.
Comparando Arquiteturas Populares de IA
A equipe de pesquisa focou em três tipos principais de designs de redes neurais comumente usados em sistemas de IA modernos: transformadores, redes totalmente conectadas e redes neurais convolucionais.
Eles ajustaram repetidamente esses designs para criar dezenas de diferentes redes neurais artificiais. Nenhum dos modelos foi treinado anteriormente. Os pesquisadores então mostraram os sistemas não treinados imagens de objetos, pessoas e animais e compararam sua atividade interna com as respostas cerebrais de humanos e primatas não humanos que viam as mesmas imagens.
Por Que as Redes Convolucionais se Destacaram
Aumentar o número de neurônios artificiais em transformadores e redes totalmente conectadas produziu pouca mudança significativa. No entanto, ajustes semelhantes em redes neurais convolucionais levaram a padrões de atividade que corresponderam mais de perto àqueles observados no cérebro humano.
De acordo com os pesquisadores, esses modelos convolucionais não treinados apresentaram desempenho equivalente a sistemas de IA tradicionais que normalmente requerem exposição a milhões ou até bilhões de imagens. Os resultados sugerem que a arquitetura desempenha um papel maior na formação de comportamentos semelhantes aos do cérebro do que se acreditava anteriormente.
Um Caminho Mais Rápido para uma IA Mais Inteligente
“Se o treinamento em dados massivos é realmente o fator crucial, então não deveria haver maneira de alcançar sistemas de IA semelhantes ao cérebro apenas por meio de modificações arquitetônicas”, disse Bonner. “Isso significa que, ao começar com o plano correto, e talvez incorporando outras percepções da biologia, podemos ser capazes de acelerar dramaticamente o aprendizado em sistemas de IA.”
A equipe agora está explorando métodos de aprendizado simples inspirados pela biologia que poderiam levar a uma nova geração de frameworks de aprendizado profundo, potencialmente tornando os sistemas de IA mais rápidos, eficientes e menos dependentes de grandes conjuntos de dados.
