(Fonte da imagem: Divulgação/NVIDIA)

Tradicionalmente, os projetos que tentaram desenvolver uma inteligência artificial realmente eficiente confiaram na reunião de diversas CPUs para atingir esse objetivo. Porém, projetos como o Deep Learning, da Google, mostram que essa tática possui limitações que não podem ser resolvidas meramente com a adição de mais força bruta de processamento a um sistema.

Andrew Ng, pesquisador de Stanford que trabalhou com a empresa nesse projeto, acredita que esse tipo de aproximação está longe da ideal tanto pelos limites que ela impõe quanto pelos altos custos envolvidos. Recentemente, ele publicou um estudo que propõe o uso de GPUs como forma de obter tecnologias de inteligência artificial que não exijam o investimento de quantidades absurdas de dinheiro.

Atualmente, o principal motivo que leva ao uso de CPUs é o fato de ser mais fácil ligá-las em rede e fazê-las trabalhar em conjunto em relação a placas de vídeo convencionais. Segundo Ng, apesar dos desafios que programadores teriam que enfrentar, a mudança de paradigma implicaria em diversas vantagens financeiras. Ele acredita que a primeira geração de computadores do tipo custaria US$ 20 mil para ser construída — valor ínfimo quanto comparado ao US$ 1 milhão cobrado pelo sistema Deep Learning original.

Revolucionando o campo da inteligência artificial

Para testar essa hipótese, o pesquisador construiu junto a sua equipe uma versão aprimorada da plataforma proposta que custou US$ 100 mil. Finalizado, o sistema emprega 64 GPUs NVIDIA GTX 680 distribuídas entre 16 computadores, que se mostraram capazes de realizar as mesmas tarefas que o sistema da Google — a diferença é que a plataforma concorrente precisa de mil máquinas para operar corretamente.

(Fonte da imagem: Reprodução/Extreme Tech)

Ng acredita que o projeto tem o potencial de fazer pela inteligência artificial o mesmo que a Apple e a Microsoft fizeram pela computação pessoal. Atualmente, ele e seu time trabalham no desenvolvimento de um código proprietário que possa fazer os núcleos CUDA das placas de vídeo trabalhar de forma mais eficiente para seus propósitos.

Até o momento, o pesquisador ainda não decidiu se o software especializado e as especificações do hardware usado nos testes vão ser disponibilizados de maneira livre. Mesmo que isso não aconteça, o trabalho publicado por Ng já serve como uma forma de entender um pouco os algoritmos e técnicas utilizados — ao que tudo indica, outros cientistas devem investir em hipóteses semelhantes em um futuro próximo, nem que seja para provar que as teorias empregadas não funcionam conforme o divulgado.

Cupons de desconto TecMundo: