Cientistas lançam ferramenta que 'envenena' IAs geradoras de imagens

2 min de leitura
Imagem de: Cientistas lançam ferramenta que 'envenena' IAs geradoras de imagens
Imagem: GettyImages

Pesquisadores da Universidade de Chicago nos Estados Unidos descobriram uma forma de impedir que inteligências artificiais violem direitos autorais: bichinhos "invisíveis". Os cientistas encontraram uma forma de "envenenar" obras originais que, quando usadas para treinar uma IA, são entendidas como imagens de animais.

Batizada de "Nightshade", a ferramenta incorpora pequenas alterações em imagens, invisíveis aos olhos humanos, mas que interferem radicalmente no treinamento de modelos generativos. Para usuários comuns, a imagem modificada é idêntica a original, enquanto para a IA ela acaba como uma foto de um animal aleatório, como se fosse uma alucinação.

smart people are cooler

Tecnologia, negócios e comportamento sob um olhar crítico.

Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo

Esse é um exemplo de imagem "envenenada" com pixels distorcidos com o Nightshade. (Imagem: Nightshade/Reprodução)Esse é um exemplo de imagem "envenenada" com pixels distorcidos com o Nightshade. (Imagem: Nightshade/Reprodução)Fonte:  Nightshade/Reprodução 

O mecanismo pode servir como uma solução para proteger artistas de terem suas obras usadas para treinar inteligências artificiais sem autorização. Atualmente, alguns artistas já adotam a ferramenta para resguardar suas obras, tal como a ilustradora Karla Ortiz.

A profissional percebeu que suas obras foram utilizadas para treinar modelos de ferramentas de IA como DreamUp e Stable Diffusion, mas sem consentimento ou compensação financeira. Então, a aplicação do filtro Nightshade serviu bem para preservar seus trabalhos.

"Ocorreu-me que grande parte disso é basicamente a totalidade do meu trabalho, a totalidade do trabalho dos meus colegas, a totalidade do trabalho de quase todos os artistas que conheço", reclamou Ortiz. "E tudo isso foi feito sem consentimento de ninguém, sem crédito, sem compensação, nem nada", complementou.

Como funciona o Nightshade?

O truque do Nightshade é alterar o valor dos pixels contidos nas imagens. "Máquinas só veem uma grande matriz de números, certo? Esses valores de pixels variam de 0 para 255 e isso é a única coisa que os modelos são capazes de interpretar", explicou o líder da pesquisa Shawn Shan. A ferramenta altera o valor de vários desses pixels, o suficiente para "confudir" a IA que for alimentada pela imagem.

As imagens geradas a partir de mídias envenenadas pelo Nightshade são distorcidas e quase irreconhecíveis. (Imagem: NBC News/Reprodução)As imagens geradas a partir de mídias envenenadas pelo Nightshade são distorcidas e quase irreconhecíveis. (Imagem: NBC News/Reprodução)Fonte:  NBC News/Reprodução 

Segundo o estudo, o Nightshade escolhe um conceito que melhor se enquadra para confundir a IA para um determinado prompt. Se for solicitada uma imagem de um cachorro, por exemplo, o modelo receberá uma foto distorcida com pixels de gatos.

O Nightshade não deve acabar de vez com modelos geradores de imagens, mas deve ajudará artistas a serem compensados pelo seu trabalho, acredita o professor e cientista da computação da Universidade de Chicago, Ben Zhao. "Se você é algum tipo de criador — fotógrafo, por exemplo — e você não quer qeu suas fotos sejam utilizadas para alimentar um modelo de treinamento, então pode considerar usar o Nightshade", explicou o docente.

A ferramenta Nightshade é gratuita e o grupo de pesquisa pretende manter assim. Mais informações sobre o recurso estão disponíveis no site oficial.

smart people are cooler

Tecnologia, negócios e comportamento sob um olhar crítico.

Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo

Você sabia que o TecMundo está no Facebook, Instagram, Telegram, TikTok, Twitter e no Whatsapp? Siga-nos por lá.