Como a regulamentação das IAs pode impactar o cenário da cibersegurança?

5 min de leitura
Imagem de: Como a regulamentação das IAs pode impactar o cenário da cibersegurança?
Imagem: GettyImages

Todo mundo que está na internet hoje precisa se preocupar com o futuro da inteligência artificial. Afinal, essa tecnologia irá se tornar cada vez mais onipresente na nossa vida e pode impactar em várias questões o nosso cotidiano.

De acordo com um levantamento feito pela Blaze Information Security, os gastos dos brasileiros com IA cresceram 120% em relação ao ano anterior. E a tendência é que isso só aumente: conviveremos cada vez com a automação nas tarefas comerciais e domésticas, análise de dados, algoritmos especializados no nosso comportamento, aplicativos que simulam vozes e imagens humanas, e assim por diante.

Tudo isso suscita novas demandas e questões – por exemplo, no que diz respeito à nossa cibersegurança. Tendo isso em mente, é preciso estar atento aos desafios que surgem e à regulação necessária para que seja sempre realizado um uso ético da nova tecnologia.

Afinal, a IA, quando não moderada, também pode ser utilizada para aplicar novas modalidades de golpe, ameaçando ainda mais a vida dos cidadãos.

A legislação de IA pelo mundo

Várias nações estão hoje se debruçando sobre a questão da regulamentação da IA. Recentemente, representantes de 27 países (incluindo os da União Europeia, o Canadá e o Brasil) se uniram para tentar elaborar diretrizes para o uso seguro de programas de inteligência artificial.

Na Europa, o Parlamento apresentou em junho de 2023 o 'AI Act', legislação com regras que devem ser adotadas pelos países signatários. Com a aprovacão final, do projeto, ocorrida no dia 13 de março de 2024, estabeleceu-se a primeira legislação de IA do mundo.

O 'AI Act' define a inteligência artificial como "um sistema baseado em máquinas, concebido para funcionar com níveis de autonomia variáveis que pode apresentar capacidade de adaptação após a implantação. Para objetivos explícitos ou implícitos e com base nos dados de entrada que recebe, conclui a forma de gerar resultados, tais como previsões, conteúdos, recomendações ou decisões que podem influenciar ambientes físicos ou virtuais".

A Europa aprovou recentemente a IA Act, com regras para o uso de inteligência artificial. (Fonte: GettyImages)A Europa aprovou recentemente a IA Act, com regras para o uso de inteligência artificial. (Fonte: GettyImages)Fonte:  GettyImages 

Dentre os fatores estabelecidos pelo 'AI Act', estão que os sistemas de IA sejam:

  • seguros;
  • transparentes;
  • rastreáveis;
  • não discriminatórios;
  • que respeitem a privacidade das pessoas.

Porém, especialistas defendem que ainda não está claro nesta lei como esses objetivos devem ser cumpridos. Há também a prerrogativa de que sistemas de inteligência artificial estejam sempre sob supervisão humana.

Isso tem estimulado que outras nações, incluindo aqui o Brasil, procurem estabelecer suas próprias regras. No país, há pelo menos quatro Projetos de Lei (PLs) buscando criar essa normativa. A ideia é que a regulamentação ajude a diminuir riscos causados pelo mau uso da IA, como a invasão da privacidade dos cidadãos, o roubo de dados e o desrespeito aos direitos de grupos minoritários.

Quais são os principais desafios jurídicos na regulamentação da IA?

Os projetos propostos por políticos brasileiros até o momento visam estabelecer uma legislação comum que se adeque às necessidades das partes interessadas. Mas é preciso tomar algumas decisões em relação a qual será o "nível" dessa regulação.

Especialistas dizem que uma regulação "forte" pode tornar difícil que empresas pequenas se desenvolvam dentro desse cenário, já que não teriam condições de atender a todos os requisitos da lei. Por isso, há uma visão de que a legislação aprovada precisa ainda ser nivelada pela realidade brasileira.

Dentre os projetos que estão transitando, há o PL 21/2020, também conhecido como o marco legal para regulamentar o uso de IA. Ele enumera princípios que devem guiar a aplicação da IA no país, contendo temas como o respeito à dignidade humana, transparência dos algoritmos e proteção de dados pessoais.

Há dúvidas sobre qual o nível de regulação necessária para o país. (Fonte: GettyImages)Há dúvidas sobre qual o nível de regulação necessária para o país. (Fonte: GettyImages)Fonte:  GettyImages 

Já o PL 2338/2023 visa estabelecer os direitos do cidadão que é afetado pela IA, além de criar ferramentas de fiscalização. O projeto se centraliza em cinco pilares: princípios; direitos dos afetados; classificação de riscos; obrigações e requisitos de governança; supervisão e responsabilização.

Mas um dos desafios que ainda torna a regulação complexa é a falta de conhecimento técnico dos legisladores sobre a tecnologia. Há quem diga que isso pode representar uma ameaça na evolução da IA no país, pois seus limites poderiam ser impostos artificialmente.

Portanto, pode-se dizer que o Brasil vive hoje em certo impasse: a regulação forte pode, talvez, inibir propostas inovadoras de uso da IA. Por outro lado, a ausência de normas pode conduzir a um uso problemático da tecnologia.

Como poderia ser a futura regulamentação da inteligência artificial no Brasil?

Ainda não há uma regulamentação aprovada para a inteligência artificial no Brasil, mas as propostas ainda estão cercadas de nebulosidade e opiniões diversas. Uma questão importante é notar que os projetos foram produzidos antes do lançamento do ChatGPT, e, por isso, ainda não lidavam com as IA generativas.

Por isso, uma legislação útil poderia ser aquela que preveja regras para uso dessa tecnologia, estabelecendo como se deve lidar com questões relevantes como deepfake de áudio e vídeo - que tendem a causar muitos problemas em momentos críticos da vida política, como durante as eleições.

Outra possibilidade sinalizada pelos advogados é que a legislação já existente no Código Civil seja aplicada nesses casos. É a opinião, por exemplo, do advogado Antonio Carlos Morato, da Faculdade de Direito da USP. O professor pesquisa direito autoral e inteligência artificial e disse não ver a necessidade de leis específicas para esse tipo de uso.

Os projetos que estão discutidos no Brasil foram criados antes da IA generativa. (Fonte: GettyImages)Os projetos que estão discutidos no Brasil foram criados antes da IA generativa. (Fonte: GettyImages)Fonte:  GettyImages 

"Sem dúvida, é possível evitar que utilizações não autorizadas ocorram com o que já temos na Constituição Federal, Código Civil e Lei de Direitos Autorais. O Projeto de Lei n° 3614/23, por exemplo, pretende apenas detalhar o que já existe no texto atual do Código Civil”, declarou em entrevista à Fapesp.

O fato é que, independente de qual seja o nível de regulação, torna-se cada vez mais necessário que o Brasil pense em regras que atendam as suas necessidades específicas, de modo a já agir preventivamente quanto a futuros problemas que podem ser causados pela IA.

Curte conteúdos sobre o futuro da tecnologia? Então siga acompanhando as discussões sobre o tema aqui no TecMundo.

Você sabia que o TecMundo está no Facebook, Instagram, Telegram, TikTok, Twitter e no Whatsapp? Siga-nos por lá.