1. Pular para o conteúdo
  2. Pular para o menu principal
  3. Ver mais sites da DW

"Lei é importante, mas problema está longe de ser resolvido"

15 de dezembro de 2023

Legislação sobre divulgação de conteúdo sexual criado a partir de inteligência artificial ganha atenção, mas descompasso entre atuação no Congresso e velocidade da tecnologia é um problema, avalia professor da FGV.

https://p.dw.com/p/4a6Pv
Mão mexendo em um teclado de notebook
Alexandre Pacheco acredita que o projeto de lei não alcança um contexto mais amplo no debate sobre inteligência artificial, que envolve "diversas partes do nosso corpo e da nossa representação".Foto: Dominic Lipinski/PA/dpa/picture alliance

A aprovação de um projeto de lei que criminaliza a criação e a divulgação de nudes criados por inteligência artificial (IA)é importante, mas é só a ponta do iceberg. Essa é a avaliação de Alexandre Pacheco da Silva, professor de Direito da Fundação Getulio Vargas (FGV) em São Paulo e coordenador do Centro de Ensino e Pesquisa em Inovação da instituição. "Ele [projeto de lei] responde a um episódio pontual, grave e importante, mas o problema está longe de ser resolvido", destaca.

O texto, de autoria da deputada Erika Kokay (PT-DF) e analisado pela Câmara dos Deputados em 7 de dezembro ainda precisa ser debatido entre os senadores. A medida fixa punição de 1 a 4 anos e multa para quem divulgar "montagens que tenham como objetivo incluir pessoa em cenas de nudez, inclusive com uso de Inteligência artificial em vídeo, áudio e fotografia". A pena também será aplicada para quem divulgar registros de intimidade sexual sem autorização.

A legislação também atinge jovens menores de 18 anos. O uso da inteligência artificial será crime tipificado pelo Estatuto da Criança e do Adolescente (ECA), com reclusão de 2 a 6 anos de prisão e multa. A proposta é uma resposta a episódios recentes de manipulação de imagens envolvendo adolescentes.

No início de novembro, a Polícia Civil do Rio de Janeiro abriu inquérito para apurar o compartilhamento de fotos de meninas nuas do colégio Santo Agostinho, modificadas por inteligência artificial. Também no mês passado, cerca de 40 alunas do colégio Marista São Luís, no Recife (PE), alegaram que imagens foram manipuladas e divulgadas na internet. O caso está sendo investigado pela Polícia Civil de Pernambuco. 

Alexandre Pacheco acredita que o projeto de lei não alcança um contexto mais amplo no debate sobre inteligência artificial, que envolve "diversas partes do nosso corpo e da nossa representação".

"O que acontece na prática é que nossos representantes respondem ao que está nas manchetes e ao que causa maior comoção. Mas por que não pensar esse fenômeno como algo muito maior do que o 'Deepnude'? Existe algo superior a isso, que é o 'Deepfake', um conceito para dizer como posso criar versões artificiais de diversas partes do nosso corpo e da nossa representação. Um projeto de lei que olhe para isso tem muito mais fôlego para o futuro", analisa.

DW: Como avalia o projeto de lei aprovado na Câmara que criminaliza a geração de imagens de mulheres em situação de nudez e intimidade por meio da Inteligência artificial?

Alexandre Silva Pacheco: Precisamos entender o contexto e o impacto da tecnologia nos nossos dias. Se não conseguirmos compreender as características e as tendências envolvendo novas tecnologias, não conseguiremos compreender qual vai ser o grau de eficácia das normas criadas.

Tivemos um episódio recente envolvendo aplicativos que simulam a imagem de um corpo nu por meio de uma fotografia em que a pessoa está coberta. A plataforma faz isso com base na silhueta e nos traços. Isso aconteceu em uma escola na Barra da Tijuca, no Rio de Janeiro, mas há outros episódios. O que o projeto de lei faz? Ele estabelece uma proibição geral de uso de aplicativos e programas de inteligência artificial para criação dessas imagens falsas, as "Deepnudes".

A questão de fundo, no entanto, é que a inteligência artificial é capaz de simular não só a nudez, mas a voz, o timbre e a cadência na fala de alguém ou mesmo dublar uma imagem imitando o movimento da boca. São formas de exposição que nós não conseguimos mais controlar e isso é um desafio enorme enquanto sociedade. O projeto de lei, ao olhar apenas para o problema do corpo nu, não está entendendo um desafio muito maior. Ele responde a um episódio pontual, grave e importante, mas o problema está longe de ser resolvido.

O que fazer com esse descompasso entre o desenvolvimento acelerado de novas tecnologias e a velocidade das instituições democráticas?

É fato que a mobilização dos nossos representantes, seja na esfera municipal, estadual ou federal, para discutir um tema complexo como esse, é completa e tem um ritmo particular. Mas acredito que precisamos investir na aproximação entre políticos e as universidades e Academia, que estão refletindo sobre isso diariamente. Especialistas do Direito, da Psicologia, da Ciência da Computação e assim por diante. Essa aproximação será fundamental para darmos conta dessa diferença entre o tempo do parlamento e das transformações tecnológicas.

O que acontece na prática é que nossos representantes respondem ao que está nas manchetes e ao que causa maior comoção. Mas porque não pensar esse fenômeno como algo muito maior do que o "Deepnude"? Existe algo superior a isso, que é o "Deepfake", um conceito para dizer como posso criar versões artificiais de diversas partes do nosso corpo e da nossa representação. Um projeto de lei que olhe para isso tem muito mais fôlego para o futuro, e não apenas o corpo nu. Precisamos ser menos responsivos aos episódios que nos chocam para abrir discussões mais amplas enquanto sociedade.

Homem com as mãos na cabeça, demostrando preocupação. Em primeiro plano, um notebook
Alexandre Pacheco da Silva aconselha vítimas de crimes envolvendo o uso de inteligência artificial a buscar ajuda de um advogado especialista na áerea antes de registrar ocorrência na delegaciaFoto: picture-alliance/dpa/C. Klose

Essa é a primeira lei sobre o tema ou ela se junta a outras?

O Código Penal tem sofrido emendas recentes que permitem hipóteses novas a crimes na camada digital. A questão é que o Código Penal não estava preparado para o "Deepnude", porque as respostas a esse fenômeno ainda recaem sobre um ambiente analógico.

É possível enquadrar um caso de cópia da voz no ambiente digital como falsidade ideológica. Mas como nós enfrentamos esse universo das "Deepfakes" em sua extensão tendo em vista que a tecnologia de hoje não será a mesma de amanhã? Como administrar a tendência contemporânea de cada vez mais copiar traços que definem identidade do indivíduo e explorar esses traços em benefício? São questões que estão sendo colocadas e vão permanecer aí.

Existem legislações no exterior que podem ajudar o Brasil a ter um arcabouço jurídico sobre o tema?

Essa pergunta é interessante, porque, no passado, nós falávamos que a tecnologia surgia antes nos países ditos desenvolvidos e demorava para chegar aqui. Cinema, carros, tudo. Nesse caso, a disseminação de aplicativos ocorre simultaneamente em diversos países.

Não temos em quem nos inspirar para entender como enfrentar o problema, encontrar uma resposta que já foi testada e averiguar o seu saldo. O problema ocorrido no Rio de Janeiro também já aconteceu em escolas dos EUA e da Índia. Isso faz com que o Brasil ocupe um lugar no debate internacional e que nos possibilita uma reflexão conjunta. Mas, ao mesmo tempo, é angustiante não ter esse referencial.

Qual tem sido o método utilizado para gerar esses "deepnudes"? É algo complexo ou que pode ser feito rapidamente?

Se olharmos para o passado, esse é um fenômeno que já acontecia com os editores de foto, que poderiam criar uma montagem. Mas era um processo artesanal, que demorava bastante, era feito por algumas pessoas e a chance de identificar a farsa era maior, porque a qualidade era inferior. Houve um aprimoramento dessas ferramentas com a inteligência artificial, com tudo sendo feito digitalmente e de maneira mais precisa. São plataformas que cobram no máximo 30 dólares do usuário para ter uma licença e que entregam um resultado quase imperceptível ao olho humano. E elas são fáceis de usar. O usuário faz o upload da imagem, simula a nudez retirando peças de roupa e pronto. A imagem criada pode ser distribuída em qualquer aplicativo. Ficou simples, e a tendência é que seja ainda mais simples no futuro.

É uma questão de tempo pensarmos qual será a próxima dimensão a ser explorada sobre como representar o corpo humano de diferentes maneiras, e esse é o problema. Nós deveríamos estar pensando os limites da representação por inteligência artificial e de que tipo de controle podemos conferir à legislação para impedir que os nossos corpos sejam explorados.

Qual deve ser a responsabilidade das plataformas nesse processo?

O modelo que vigora no Brasil cria uma isenção parcial para as plataformas quando elas administram o conteúdo de terceiros. Por exemplo: pode ser um post em uma rede social ou como no caso dos aplicativos que transformam essas fotos e que estão em lojas digitais, como Google Play ou Apple Store.

Via de regra, no que que essas empresas estão prestando atenção? Na compatibilidade desses aplicativos em seus sistemas operacionais. Se estiver funcionando, tudo certo. E não acho que as lojas virtuais devam fazer essa filtragem. Mas WhatsApp, Facebook ou Instagram devem moderar os conteúdos de uma foto com nudez, algo que elas têm buscado fazer.

Me parece que os Projetos de Lei estão alcançando e atribuindo a responsabilidade às lojas para que elas não disponibilizem o aplicativo em suas lojas digitais. O ponto é que a internet é um espaço muito maior que essas lojas, e quem quiser encontrar esse aplicativo, vai achar.

As imagens geradas por inteligência artificial deixam alguma marca que ajuda na identificação?

Existem ferramentas que tentam detectar essas imagens artificiais. Quais são os problemas dessas ferramentas?  A taxa de acurácia de precisão é baixa. Imagens que foram modificadas e dão um "falso negativo". São aplicativos auxiliares, para os casos mais fáceis, mas que não são suficientes para conseguirmos ter um nível de segurança para avaliar se de fato a imagem foi alterada.

Acredito que esse é um grande desafio, porque nós começamos o século 21 com um uma discussão sobre desinformação, mas agora o desafio enorme é entender que cada vez mais a realidade influenciada por uma camada digital passa a ser contestada por nós mesmos. Como garantir que sou eu falando nesta chamada de vídeo ou que estou em um cenário real?  Cada vez mais teremos dúvida sobre o que é uma representação fidedigna de um ser humano e isso vai transformar nossa sociedade.

A partir do momento que a imagem é veiculada, o que a vítima deve fazer? As delegacias estão preparadas para o avanço dessa tecnologia e, mais do que isso, identificar os autores?

Em primeiro lugar, se a vítima tem condições, procurar um advogado especialista em direito penal digital. Isso é importante para que a pessoa consiga entender o que aconteceu e saiba classificar o fato juridicamente. Isso é muito importante na hora de lavrar o boletim de ocorrência, sobretudo em uma delegacia convencional. É preciso lembrar que nem todas as cidades têm delegacias especializadas em crimes cibernéticos.

Ter a presença do advogado com conhecimento na esfera digital ajuda a classificar as condutas que aconteceram e explicar na prática quais foram os prejuízos. E também ajuda a evitar que o caso seja tratado como fato menor ou sem relevância, algo bastante comum. Se a vítima não estiver em uma delegacia especializada, o caso será remetido para o local apropriado mais próximo da residência para abertura do inquérito e investigação.

Arte gerada por inteligência artificial: quem é o artista?