Pesquisadores desenvolveram um novo tipo de dispositivo de memória que, segundo eles, pode reduzir o consumo de energia de inteligência artificial (IA) em pelo menos 1.000.
Chamado de memória computacional de acesso aleatório (CRAM), o novo dispositivo realiza cálculos diretamente em suas células de memória, eliminando a necessidade de transferir dados entre diferentes partes de um computador.
Na computação tradicional, os dados se movem constantemente entre o processador (onde os dados são processados) e a memória (onde os dados são armazenados) — na maioria dos computadores, este é o módulo RAM. Este processo é particularmente intensivo em energia em aplicações de IA, que normalmente envolvem computações complexas e quantidades massivas de dados.
De acordo com números da Agência Internacional de Energiao consumo global de energia para IA pode dobrar de 460 terawatts-hora (TWh) em 2022 para 1.000 TWh em 2026 — o equivalente ao consumo total de eletricidade do Japão.
Relacionado: Intel revela o maior 'computador neuromórfico' de IA que imita o cérebro humano
Em um estudo revisado por pares publicado em 25 de julho na revista npj Computação Não Convencionalos pesquisadores demonstraram que o CRAM poderia executar tarefas-chave de IA como adição escalar e multiplicação da matriz em 434 nanossegundos, usando apenas 0,47 microjoules de energia. Isso é cerca de 2.500 vezes menos energia em comparação com sistemas de memória convencionais que têm componentes lógicos e de memória separados, disseram os pesquisadores.
A pesquisa, que levou 20 anos para ser feita, recebeu apoio financeiro da Agência de Projetos de Pesquisa Avançada de Defesa dos EUA (DARPA), bem como do Instituto Nacional de Padrões e Tecnologia, da Fundação Nacional de Ciências e da empresa de tecnologia Cisco.
Jian Ping Wangum dos principais autores do artigo e professor do departamento de engenharia elétrica e de computação da Universidade de Minnesota, disse que a proposta dos pesquisadores de usar células de memória para computação foi inicialmente considerada “louca”.
“Com um grupo de estudantes em evolução desde 2003 e uma verdadeira equipe de professores interdisciplinares formada na Universidade de Minnesota — desde física, ciência e engenharia de materiais, ciência da computação e engenharia, até modelagem e benchmarking e criação de hardware — [we] agora demonstraram que esse tipo de tecnologia é viável e está pronto para ser incorporado à tecnologia”, disse Wang em uma afirmação.
Os dispositivos de RAM mais eficientes normalmente usam quatro ou cinco transistores para armazenar um único bit de dados (1 ou 0).
A CRAM obtém sua eficiência de algo chamado “junções de túnel magnético” (MTJs). Uma MTJ é um pequeno dispositivo que usa o spin de elétrons para armazenar dados em vez de depender de cargas elétricas, como a memória tradicional. Isso a torna mais rápida, mais eficiente em termos de energia e capaz de suportar melhor o desgaste do que chips de memória convencionais como a RAM.
O CRAM também é adaptável a diferentes algoritmos de IA, disseram os pesquisadores, o que o torna uma solução flexível e com eficiência energética para computação de IA.
O foco agora se voltará para a indústria, onde a equipe de pesquisa espera demonstrar o CRAM em uma escala maior e trabalhar com empresas de semicondutores para dimensionar a tecnologia.