Geração E

Deepfakes e IA: As novas faces da humilhação e do ódio contra as mulheres

Uso negativo da tecnologia deepfake tem permitido usar a identidade de pessoas reais para criar conteúdos pornográficos sem qualquer tipo de consentimento

A tecnologia de deepfakes, até há pouco tempo vista como uma “curiosidade”, mera manipulação de imagens, evoluiu para algo bem mais sombrio: um instrumento de violência digital em larga escala. Recentemente, uma investigação do jornal dinamarquês Politiken revelou detalhes perturbadores sobre esta realidade ao identificar Jack V., um homem residente nos subúrbios de Toronto, como responsável por operar uma das maiores plataformas de deepfakes pornográficos do mundo: a “Platform S”. A operação clandestina administrada por este homem expôs milhares de mulheres a um cenário digital distorcido e cruel, onde os seus rostos foram usados para criar conteúdos pornográficos sem qualquer tipo de consentimento.

A plataforma não se limitava a explorar celebridades, políticas e outras figuras públicas; também mulheres comuns foram vítimas. O impacto destas falsificações é devastador e duradouro. A existência destas imagens alteradas cria uma marca digital que é quase impossível de apagar, perpetuando o sofrimento das vítimas muito além do momento em que o conteúdo é divulgado. Para muitas mulheres, a simples consciência de que existe uma versão falsa e sexualizada de si mesmas a circular na internet é suficiente para causar danos emocionais profundos e um sentimento constante de vulnerabilidade. A internet, com memória infinita, transforma essa exposição num pesadelo recorrente e sem data para terminar.

O caso de Jack V. está longe de ser isolado. Nos últimos anos, diversas denúncias deram a conhecer deepfakes pornográficos não consentidos. Em 2019, a atriz Scarlett Johansson teve o rosto manipulado em múltiplos vídeos explícitos. Embora tenha conseguido recorrer à justiça, o processo revelou a fragilidade da legislação para lidar com este tipo de crime. Em 2022, a jornalista indiana Rana Ayyub foi alvo de deepfakes com o objetivo explícito de desacreditar o seu trabalho e intimidá-la, numa forma de violência digital que se estendeu para além do campo pessoal e atingindo igualmente o seu campo de atuação política e de ativismo.

Mas não são apenas figuras públicas que enfrentam essa realidade. Estudantes universitárias, professoras, profissionais de saúde e até menores de idade têm os seus rostos associados a vídeos explícitos que, muitas vezes, são partilhados em plataformas de fácil acesso. A rapidez com que estas falsificações se propagam torna quase impossível remover todas as cópias, que continuam a circular em lugares paralelos, como a dark web.

Enquanto a tecnologia avança, a legislação permanece estagnada. Em muitos países, criar e disseminar deepfakes pornográficos não consentidos ainda não é considerado crime. Nos Estados Unidos, existem projetos de lei em discussão, como o "Deepfake Accountability Act", mas enfrentam barreiras significativas para serem aprovados. Na União Europeia, embora a legislação sobre privacidade e proteção de dados ofereça algumas salvaguardas, está longe de cobrir todas as situações impostas por estas novas tecnologias.

A ausência de um enquadramento legal robusto cria um ambiente perfeito para a proliferação destes conteúdos, deixando as vítimas desprotegidas e sem mecanismos eficazes para exigir justiça. Mesmo quando os responsáveis são identificados, a remoção dos vídeos é uma luta contra o tempo e contra a natureza volátil da internet, porque a cada segundo o conteúdo pode ser replicado em múltiplas plataformas.

A Inteligência Artificial está a criar novas formas de exposição e vulnerabilidade para as mulheres, em particular através de redes associadas a movimentos de ódio. Estes grupos promovem um discurso de ódio e ressentimento contra as mulheres, utilizando estas novas ferramentas para humilhar, perseguir e até mesmo ameaçar.

Vídeos falsos são usados como arma contra as mulheres

A utilização de deepfakes por estas comunidades é um exemplo claro dessa ameaça. Organizados em fóruns anónimos como 4chan, 8kun e Incels.is, partilham tutoriais sobre como criar vídeos pornográficos falsos de mulheres específicas, escolhidas muitas vezes por se posicionarem contra a misoginia online, por serem figuras públicas, ou simplesmente porque sim. Não se trata apenas de humilhação; é um método calculado de silenciamento e intimidação, destinado a fragilizar emocionalmente as vítimas e afastá-las do espaço público.

Os casos são alarmantes e podia passar o resto do texto a evidenciá-los. A ativista feminista espanhola Irantzu Varela teve o seu rosto manipulado em vídeos explícitos, que foram divulgados em redes sociais acompanhados de discursos de ódio incentivando a violência. Em 2024, a ativista britânica Laura Bates, fundadora do projeto 'Everyday Sexism', também foi vítima de uma campanha coordenada que incluiu deepfakes pornográficos e ameaças de morte promovidas por comunidades incel.

A ligação entre os incels e as deepfakes reflete objetivamente a facilidade com que a tecnologia pode ser instrumentalizada para promover a subjugação e o controlo das mulheres no ambiente digital. Não se trata apenas de uma violação de privacidade; é um ataque direto à integridade e à segurança dessas vítimas, que se veem expostas e vulneráveis diante de um público global.

Para combater esta realidade, é necessário um esforço coordenado entre Estados, empresas tecnológicas e sociedade civil. A tecnologia deepfake, quando mal utilizada, transforma-se num meio de controlo e humilhação, perpetuando um ciclo de violência digital que não pode ser ignorado. Campanhas de conscientização, o desenvolvimento de tecnologias de detecção de deepfakes e uma legislação clara e punitiva são passos urgentes para proteger as mulheres deste tipo de abuso.

As plataformas digitais também precisam ser responsabilizadas. Redes sociais e sites onde se partilham vídeos possuem os mecanismos para identificar e remover esse tipo de conteúdo, mas a falta de regulamentação específica e a ausência de incentivos financeiros para monitorização ativa fazem com que essas medidas sejam, na maioria das vezes, reativas em vez de preventivas.

Ao contrário de outros, este não é um texto de opinião. Trata-se de uma chamada de atenção, para que todos saibamos o que realmente se passa no submundo (cada vez menos “sub”) da internet. E esse submundo da internet não está distante. Pode residir no andar de cima ou sentar-se ao nosso lado no metro.

O que a investigação do Politiken revelou é apenas a ponta do iceberg. Segundo a Sensity AI, 96% dos vídeos de deepfake disponíveis na internet são de natureza pornográfica, e praticamente todos envolvem imagens de mulheres, muitas vezes sem o seu conhecimento ou consentimento. Estima-se que as buscas por este tipo de conteúdos tenha crescido 330% entre 2019 e 2023.

Não se trata de frear o avanço da tecnologia, mas de garantir que ela sirva para emancipar e não para subjugar. A dignidade e a privacidade das mulheres não podem ser vítimas colaterais da era digital. É tempo de agir, antes que a normalização da violência digital contra as mulheres se torne irreversível. O silêncio e a passividade diante deste fenómeno apenas fortalecem os agressores.