Software

Cientistas lançam ferramenta que 'envenena' IAs geradoras de imagens

A solução permite que artistas protejam as próprias obras de serem usadas para treinamento de modelos de IA; veja os resultados!

Avatar do(a) autor(a): Igor Almenara Carneiro

05/04/2024, às 14:00

Cientistas lançam ferramenta que 'envenena' IAs geradoras de imagens

Fonte:  NBC News/Reprodução 

Imagem de Cientistas lançam ferramenta que "envenena" IAs geradoras de imagens no tecmundo

Pesquisadores da Universidade de Chicago nos Estados Unidos descobriram uma forma de impedir que inteligências artificiais violem direitos autorais: bichinhos "invisíveis". Os cientistas encontraram uma forma de "envenenar" obras originais que, quando usadas para treinar uma IA, são entendidas como imagens de animais.

Batizada de "Nightshade", a ferramenta incorpora pequenas alterações em imagens, invisíveis aos olhos humanos, mas que interferem radicalmente no treinamento de modelos generativos. Para usuários comuns, a imagem modificada é idêntica a original, enquanto para a IA ela acaba como uma foto de um animal aleatório, como se fosse uma alucinação.

Esse é um exemplo de imagem "envenenada" com pixels distorcidos com o Nightshade. (Imagem: Nightshade/Reprodução)Esse é um exemplo de imagem "envenenada" com pixels distorcidos com o Nightshade. (Imagem: Nightshade/Reprodução)

O mecanismo pode servir como uma solução para proteger artistas de terem suas obras usadas para treinar inteligências artificiais sem autorização. Atualmente, alguns artistas já adotam a ferramenta para resguardar suas obras, tal como a ilustradora Karla Ortiz.

A profissional percebeu que suas obras foram utilizadas para treinar modelos de ferramentas de IA como DreamUp e Stable Diffusion, mas sem consentimento ou compensação financeira. Então, a aplicação do filtro Nightshade serviu bem para preservar seus trabalhos.

"Ocorreu-me que grande parte disso é basicamente a totalidade do meu trabalho, a totalidade do trabalho dos meus colegas, a totalidade do trabalho de quase todos os artistas que conheço", reclamou Ortiz. "E tudo isso foi feito sem consentimento de ninguém, sem crédito, sem compensação, nem nada", complementou.

Como funciona o Nightshade?

O truque do Nightshade é alterar o valor dos pixels contidos nas imagens. "Máquinas só veem uma grande matriz de números, certo? Esses valores de pixels variam de 0 para 255 e isso é a única coisa que os modelos são capazes de interpretar", explicou o líder da pesquisa Shawn Shan. A ferramenta altera o valor de vários desses pixels, o suficiente para "confudir" a IA que for alimentada pela imagem.

As imagens geradas a partir de mídias envenenadas pelo Nightshade são distorcidas e quase irreconhecíveis. (Imagem: NBC News/Reprodução)As imagens geradas a partir de mídias envenenadas pelo Nightshade são distorcidas e quase irreconhecíveis. (Imagem: NBC News/Reprodução)

Segundo o estudo, o Nightshade escolhe um conceito que melhor se enquadra para confundir a IA para um determinado prompt. Se for solicitada uma imagem de um cachorro, por exemplo, o modelo receberá uma foto distorcida com pixels de gatos.

O Nightshade não deve acabar de vez com modelos geradores de imagens, mas deve ajudará artistas a serem compensados pelo seu trabalho, acredita o professor e cientista da computação da Universidade de Chicago, Ben Zhao. "Se você é algum tipo de criador — fotógrafo, por exemplo — e você não quer qeu suas fotos sejam utilizadas para alimentar um modelo de treinamento, então pode considerar usar o Nightshade", explicou o docente.

A ferramenta Nightshade é gratuita e o grupo de pesquisa pretende manter assim. Mais informações sobre o recurso estão disponíveis no site oficial.



Redator de tecnologia desde 2019, ex-Canaltech, atualmente TecMundo e um assíduo universitário do curso de Bacharel em Sistemas de Informação. Pai de pet, gamer e amante de músicas desconhecidas.