Versão aberta do ChatGPT é liberada, mas treiná-lo pode sair caro

1 min de leitura
Imagem de: Versão aberta do ChatGPT é liberada, mas treiná-lo pode sair caro
Imagem: Shutterstock

Com o grande sucesso do gerador de texto ChatGPT da OpenAI, uma versão “genérica” foi lançada em código aberto no finalzinho de 2022. Teoricamente, o novo sistema é capaz de realizar qualquer uma das tarefas que o famoso chatbot de inteligência artificial executa, como rascunhos de email, sugestões de código de computador e textos acadêmicos.

Criado por Philip Wang, o desenvolvedor responsável pela engenharia reversa do sistema de criação de imagens Make-A-Video da Meta, o novo modelo é uma combinação do PaLM do Google com a técnica Aprendizagem por Reforço com Feedback Humano (RLHF na sigla em inglês).

smart people are cooler

Tecnologia, negócios e comportamento sob um olhar crítico.

Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo

Mas há um porém: esse combinado de PaLM com RLHF não vem pré-treinado. Isso significa que os usuários da IA de Wang deverão, eles próprios, compilar os corpus de dados e usar o seu hardware pessoal para treinar o modelo e processar posteriormente as solicitações. Só que estamos falando aqui em gigabytes de texto e um hardware que dê conta dessa tarefa.

Como treinar uma inteligência artificial?

Fonte: Shutterstock/Reprodução.Fonte: Shutterstock/Reprodução.Fonte:  Shutterstock 

De acordo com o TechCrunch, o novo modelo de gerador de texto funciona de forma análoga ao ChatGPT, mas, por ser uma ferramenta estatística que prevê palavras, precisa ser alimentada por um grande número de exemplos, como postagens das redes sociais, textos noticiosos e ebooks variados.

Para aprender a probabilidade de ocorrência de palavras, o RLHF treina um modelo de linguagem produzindo uma enorme gama de respostas a um determinado prompt humano. Essas respostas têm então que ser classificadas por voluntários humanos para criar uma espécie de "sistema de recompensa" que criará um ranking de preferências. 

Naturalmente, não se trata de um processo acessível para a maioria dos usuários. O modelo de linguagem natural PaLM do Google, por exemplo, demandou 540 bilhões de parâmetros de linguagem. Um estudo de 2020 do AI21 Labs calculou as despesas para treinar um modelo com apenas 1,5 bilhão de parâmetros em até US$ 1,6 milhão (R$ 8,8 milhões).

smart people are cooler

Tecnologia, negócios e comportamento sob um olhar crítico.

Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo

Você sabia que o TecMundo está no Facebook, Instagram, Telegram, TikTok, Twitter e no Whatsapp? Siga-nos por lá.