Uma mãe de São Paulo conta que descobriu, por acidente, que uma foto de sua filha de 16 anos — publicada no perfil do Instagram — havia sido manipulada por um aplicativo de inteligência artificial e transformada em uma imagem de nudez. "Ela nem sabia o que era deepfake. Eu também não sabia direito. Quando vi o que tinham feito com a foto dela, fiquei em choque", relata.

Ela não está sozinha. O avanço de ferramentas como o NudeAI — aplicativo que utiliza inteligência artificial para criar falsos "deep nudes", ou seja, imagens manipuladas que mostram pessoas reais nuas ou em conteúdos sexualmente explícitos — tem preocupado pais, educadores e autoridades de proteção de dados em todo o mundo.

Depois Depois
Antes Antes

Arraste a barra central para comparar: foto original (esquerda) × deepfake gerado por IA (direita).

Há alguns meses, a Autoridade de Proteção de Dados Pessoais da Itália interveio com uma medida urgente contra o NudeAI. A empresa responsável pelo serviço, com sede nas Ilhas Virgens Britânicas, está agora sob investigação formal. E as autoridades italianas ampliaram as verificações para todos os aplicativos de "nudificação" baseados em IA disponíveis no mercado.

O problema é mais sério do que parece. Hoje qualquer pessoa pode pegar uma foto pública das redes sociais e transformá-la, com poucos cliques, em conteúdo falso — mas extremamente realista. Sem consentimento. Sem controle. Sem qualquer indicação de que a imagem foi manipulada.

E o mais grave: até menores de idade podem se tornar vítimas — ou usuários — dessas ferramentas. Não estamos falando apenas de tecnologia ou de privacidade. Estamos falando de reputações destruídas, chantagens, cyberbullying, pornografia não consensual e enormes danos psicológicos para quem sofre esse tipo de violência digital.

"Meu filho de 14 anos me mostrou o aplicativo como se fosse uma brincadeira. Ele não entendia a gravidade", contou um pai ouvido pela reportagem em um grupo de WhatsApp sobre segurança digital para famílias. "Quando expliquei que aquilo era crime e que poderia arruinar a vida de uma pessoa, ele ficou com medo."

O fenômeno está crescendo rapidamente — e muitas pessoas, incluindo os próprios jovens, estão subestimando os riscos. A facilidade de uso dessas ferramentas é assustadora: em segundos, uma foto de rosto tirada de qualquer rede social pode ser usada para gerar um deepfake sexual altamente realista.

Interface do NudeAI

Autoridades de proteção de dados de vários países já iniciaram investigações sobre apps de nudificação por IA como o NudeAI. Foto: Reprodução / Arte O Estado

Para especialistas em segurança digital, a raiz do problema está na combinação entre acesso fácil, falta de legislação específica e desinformação. "As crianças e adolescentes de hoje cresceram com a internet, mas não necessariamente com educação digital. Saber usar um aplicativo não é o mesmo que entender as consequências do que ele faz", explica um pesquisador de segurança da informação.

🔒 O que você pode fazer agora para proteger seus filhos

  • Torne privados os perfis sociais dos seus filhos em todas as plataformas
  • Evite publicar fotos que possam ser facilmente recortadas e manipuladas
  • Converse abertamente com os jovens sobre os riscos dos deepfakes e do NudeAI
  • Utilize as ferramentas de denúncia disponíveis nas plataformas digitais
  • Em caso de abuso, procure imediatamente a Polícia e a ANPD (Autoridade Nacional de Proteção de Dados)
  • Não espere o problema chegar à sua casa para agir

A tecnologia evolui em ritmo acelerado. Mas a dignidade das pessoas deve continuar sendo uma prioridade absoluta. Informar-se hoje pode evitar danos enormes amanhã — e compartilhar esse conhecimento é o primeiro passo para proteger quem ainda não conhece esse risco.

Pais: conversem sobre esse tema com seus filhos. Não esperem que o problema chegue à sua casa.