A youtuber Gabi Belle um dia foi surpreendida com uma foto sua posando nua circulando pela internet. Depois do calafrio, a influenciadora se acalmou e recordou que nunca posou nua para uma foto em um campo, como mostra a imagem. Ela sabia que a foto era falsa.
A moça, de 26 anos, pediu ajuda a uma amiga para remover as imagens da internet, mas ela foi surpreendida com mais de 100 fotos falsas dela nua espalhadas em diversos sites.
As imagens estavam hospedadas em sites conhecidos por hospedar pornografia gerada por Inteligência Artificial.
Bella afirmou que derrubou as fotos, mas depois novas imagens, ainda mais explícitas, começaram a aparecer.
“Eu me senti violada… Minhas partes íntimas não foram feitas para que todo o mundo veja. Eu não consenti com isso. Então é muito estranho que alguém faça imagens assim de mim”, afirmou em entrevista.
De forma barata e fácil de fazer, ferramentas de Inteligência Artificial (IA) conseguem “desnudar” pessoas em fotografias ou inserir o rosto de pessoas em vídeos pornográficos de forma bem realista.
As ferramentas analisam o corpo da pessoa e geram uma imagem de como, supostamente, deve ser aquela pessoa sem roupas.
Os 10 principais sites que hospedam fotografias pornográficas geradas por IA tiveram um crescimento de mais de 290% destas postagens desde 2018.Os dados foram apurados pelo Washington Post.
Genevieve Oh, analista da indústria, afirmou que os sites contém fotos pornográficas falsas de celebridades, figuras políticas e adolescentes.
As principais causas por trás da criação de imagens pornográficas falsas com Inteligência Artificial são:
As imagens e vídeos pornográficos gerados com IA são conhecidos como “deepfake porn”. Contra esse problema, as vítimas têm poucos recursos. Não existem leis federais que regulamentam a internet contra as deepfakes.
Apenas alguns estados americanos criaram regulamentos para atacar o problema. Especialistas em direito alertam que as imagens falsas não serão enquadradas por problemas de direitos autorais.
Os fakes são gerados a partir de bancos que contém milhões de imagens.
O risco para mulheres e meninas é maior, elas são os principais alvos das imagens falsas de IA. Muitas têm dificuldade em lidar com a visibilidade gerada.
Um estudo feito em 2019 pela Sensity AI, companhia que monitora deepfakes, descobriu que 96% das imagens falsas geradas são de pornografia e 99% tem como alvo mulheres.
Sophie Maddocks, pesquisadora e advogada especializada em direito digital a Universidade da Pensilvânia afirmou:
“Agora está mirando em garotas, principalmente. Garotas novas e mulheres que não estão nos olhos do público”.
Miriam Al Adib Mendiri estava voltando para casa após uma viagem e encontrou com sua filha de 14 anos desconsolada. A filha mostrou para ela uma própria, em que aparecia completamente nua.
“Mãe, veja. O que eles fizeram comigo?”
A garota de 14 anos nunca posou nua, mas um grupo de garotos da sua cidade pegou suas fotos vestidas em suas redes sociais, e fizeram o mesmo com diversas outras garotas, e usaram a IA “nudifier”.
O nudifier é um app que auxilia a criar fotos de pessoas peladas. Analisando milhões de imagens, o software consegue prever de forma quase precisa como um corpo seria se estivesse sem roupas.
As imagens criadas são realistas e chocam muitas pessoas. Além de facilmente criar fotos, ele pode inserir o rosto de pessoas em vídeos pornográficos de maneira realista.
A atriz Scarlett Johansson já fez uma declaração sobre vídeos pornográficos feitos por IA: “nada pode impedir alguém de copiar e colar minha imagem [em um desses vídeos]”.
Apesar de muitos geradores de imagens bloquearem os usuários de criar materiais pornográficos, alguns softwares de Inteligência Artificial tem o código aberto, como o Stable Diffusion, o que permite que as pessoas adaptem a tecnologia para permitir a criação dos deepfakes.
Segundo um estudo de Genevieve Oh nos 10 sites que mais hospedam imagens pornográficas fake:
Em sua pesquisa, Oh encontrou 40 sites populares que hospedam vídeos falsos gerados por Inteligência Artificial:
Em junho de 2023 o Federal Bureau of Investigation (FBI) alertou para uma alta de casos de extorsão sexual. Golpistas usavam imagens das redes sociais de uma pessoa, geravam fotos falsas e ameaçavam espalhá-las caso a pessoa não os pagasse.
Segundo informações dadas pelo FBI ao Washington Post, a prática está se expandindo. Em setembro 26.800 pessoas foram vítimas dessa extorsão, um aumento de 149% em relação a 2019.
O mecanismo de busca Google tem políticas de segurança para prevenir que imagens não consensuais apareçam nas buscas dos usuários, mas as proteções para deepfakes ainda não são robustas.
Pornografias deepfake e as ferramentas para criá-las ainda aparecem de forma proeminente nas pesquisas do Google. Mesmo que o usuário não esteja ativamente buscando pornografia gerada por IA, os resultados ocupam as primeiras páginas.
Ned Adriance, porta-voz do Google, declarou que a companhia está “trabalhando ativamente para trazer mais proteção às buscas”.
Adriance afirma também que a empresa permite os usuários solicitar a remoção da pornografia falsa e está expandido seus mecanismos de defesa para não exigir das vítimas solicitações individuais para derrubar deepfakes.
Tiffany Li, professora de direito da Universidade de São Francisco, afirmou que é bem difícil conseguir penalizar os criadores desse conteúdo. Como as IAs usam um enorme banco de dados de imagens, é difícil uma vítima provar que uma foto sua foi usada.
A urgência em regular imagens e vídeos gerados por Inteligência Artificial envolve a preocupação da distribuição em massa de conteúdo falso.
Sam Gregory, diretor executivo da organização Witness, afirma que há uma preocupação com os impactos da IA nas eleições. Sua organização lida com direitos humanos no mundo tecnológico.
As regras ainda não atacam o problema da pornografia de imagens e vídeos falsos, completou Gregory.
Os deepfakes espalhados em pequenos grupos podem acabar com a vida de uma pessoa.
Imagens de nudez falsas, pornografia infantil e pessoas expostas em momentos íntimos, mesmo que falsos, são apenas alguns dos problemas.
Os geradores de pornografia com Inteligência Artificial melhoram nos últimos tempos. Há 1 ano, os resultados das imagens eram bem precários, segundo o site Tech Crunch. Hoje, com as ferramentas de geração de imagens e vídeos mais desenvolvidas e disponíveis para o público, conteúdos cada vez mais realistas vêm sendo produzidos.
O realismo causa alarme. Imagens de celebridades em conteúdos sexuais, imagens falsas de pessoas comuns envolvidas em conteúdo pornográfico, tudo isso permite problemas como:
Muitas vezes, a criação do conteúdo explícito é feita sem o consentimento ou o conhecimento do indivíduo envolvido.
Segundo o portal de notícias de tecnologia Fagen wasanni, “qualquer um com conexão com a internet e conhecimento técnico básico consegue criar vídeos pornográficos realistas”.
Isto é uma ameaça séria à privacidade individual e ao consentimento das pessoas.
Segundo a Tech Crunch, o Washington Post contou a história de como uma professora de uma cidade pequena foi demitida após um vídeo sexual seu ser exposto, os alunos haviam criado com Inteligência Artificial.
Cupom aplicado 37% OFF
Cupom aplicado 62% OFF
MAIOR DESCONTO
Cupom aplicado 54% OFF
Assine e tenha 12 meses de acesso a todo o catálogo e aos próximos lançamentos da BP