Cientistas lançam ferramenta que 'envenena' IAs geradoras de imagens
A solução permite que artistas protejam as próprias obras de serem usadas para treinamento de modelos de IA; veja os resultados!

05/04/2024, às 14:00
)
Fonte: NBC News/Reprodução
Imagem de Cientistas lançam ferramenta que "envenena" IAs geradoras de imagens no tecmundo
Pesquisadores da Universidade de Chicago nos Estados Unidos descobriram uma forma de impedir que inteligências artificiais violem direitos autorais: bichinhos "invisíveis". Os cientistas encontraram uma forma de "envenenar" obras originais que, quando usadas para treinar uma IA, são entendidas como imagens de animais.
Batizada de "Nightshade", a ferramenta incorpora pequenas alterações em imagens, invisíveis aos olhos humanos, mas que interferem radicalmente no treinamento de modelos generativos. Para usuários comuns, a imagem modificada é idêntica a original, enquanto para a IA ela acaba como uma foto de um animal aleatório, como se fosse uma alucinação.
Esse é um exemplo de imagem "envenenada" com pixels distorcidos com o Nightshade. (Imagem: Nightshade/Reprodução)
O mecanismo pode servir como uma solução para proteger artistas de terem suas obras usadas para treinar inteligências artificiais sem autorização. Atualmente, alguns artistas já adotam a ferramenta para resguardar suas obras, tal como a ilustradora Karla Ortiz.
A profissional percebeu que suas obras foram utilizadas para treinar modelos de ferramentas de IA como DreamUp e Stable Diffusion, mas sem consentimento ou compensação financeira. Então, a aplicação do filtro Nightshade serviu bem para preservar seus trabalhos.
"Ocorreu-me que grande parte disso é basicamente a totalidade do meu trabalho, a totalidade do trabalho dos meus colegas, a totalidade do trabalho de quase todos os artistas que conheço", reclamou Ortiz. "E tudo isso foi feito sem consentimento de ninguém, sem crédito, sem compensação, nem nada", complementou.
Como funciona o Nightshade?
O truque do Nightshade é alterar o valor dos pixels contidos nas imagens. "Máquinas só veem uma grande matriz de números, certo? Esses valores de pixels variam de 0 para 255 e isso é a única coisa que os modelos são capazes de interpretar", explicou o líder da pesquisa Shawn Shan. A ferramenta altera o valor de vários desses pixels, o suficiente para "confudir" a IA que for alimentada pela imagem.
As imagens geradas a partir de mídias envenenadas pelo Nightshade são distorcidas e quase irreconhecíveis. (Imagem: NBC News/Reprodução)
Segundo o estudo, o Nightshade escolhe um conceito que melhor se enquadra para confundir a IA para um determinado prompt. Se for solicitada uma imagem de um cachorro, por exemplo, o modelo receberá uma foto distorcida com pixels de gatos.
O Nightshade não deve acabar de vez com modelos geradores de imagens, mas deve ajudará artistas a serem compensados pelo seu trabalho, acredita o professor e cientista da computação da Universidade de Chicago, Ben Zhao. "Se você é algum tipo de criador — fotógrafo, por exemplo — e você não quer qeu suas fotos sejam utilizadas para alimentar um modelo de treinamento, então pode considerar usar o Nightshade", explicou o docente.
A ferramenta Nightshade é gratuita e o grupo de pesquisa pretende manter assim. Mais informações sobre o recurso estão disponíveis no site oficial.