Fotos íntimas falsas com IA: 7 sinais de que a imagem foi gerada — e como blindar seu Instagram antes de virar vítima
Uma foto sua, de biquíni, tirada numa viagem com amigas. Publicada no seu Instagram com o perfil aberto. Em menos de 30 segundos, um estranho copiou essa foto, colou numa ferramenta gratuita de IA e gerou uma imagem de nudez com o seu rosto — sem o seu consentimento, sem a sua presença, sem qualquer contato com você. Isso não é ficção científica. Em janeiro de 2026, a chamada “trend do biquíni” se espalhou no X (antigo Twitter): usuários enviavam fotos públicas de mulheres para o Grok, a IA da plataforma, pedindo que as “redesenhasse de biquíni” — e o resultado eram imagens de nudez geradas com os rostos das vítimas reais, repostadas publicamente.
Pelo menos 15 alunas de uma escola tiveram fotos manipuladas com IA e publicadas em sites pornográficos em outubro de 2025. E o crime não escolhe idade, profissão nem número de seguidores.
O custo invisível de ter o perfil público e não entender como esse golpe funciona é mais grave do que parece. A imagem gerada pode ser usada para chantagem (pague ou divulgo para seus contatos), para humilhação pública em grupos de WhatsApp, para destruir relacionamentos, para prejudicar a carreira em ambientes profissionais — ou simplesmente para causar dano psicológico irreparável sem nenhum motivo além do prazer do agressor. Pesquisas indicam que 90% das vítimas de imagens íntimas não consensuais (reais ou geradas por IA) são mulheres. E diferente de um hacking ou roubo de dados, o deepfake íntimo não precisa de acesso ao seu celular, à sua conta ou a qualquer senha sua. Uma única foto pública de qualidade razoável já é suficiente.
Este guia entrega o mapa completo: como identificar se uma imagem é deepfake pelos 7 sinais visuais que a IA sempre deixa, como configurar seu Instagram para eliminar os principais vetores de acesso às suas fotos, o que a lei brasileira pune e com qual pena, quais ferramentas gratuitas detectam e bloqueiam deepfakes, e o que fazer passo a passo se você ou alguém que você conhece já foi vítima.
Neste guia: 7 sinais visuais para identificar deepfake, protocolo de proteção do Instagram em 5 passos, mapa da lei brasileira atualizado para 2026, 5 ações copiáveis para documentar e denunciar, tabela de ferramentas gratuitas de detecção e bloqueio. Copie 5 scripts prontos + protocolo SOS completo.
✨ Este guia é essencial se você:
Tem fotos no Instagram com o perfil aberto ou semi-aberto e nunca pensou que uma imagem de praia poderia ser transformada em deepfake sexual por qualquer pessoa com acesso a ela
Tem filha adolescente com Instagram ativo e precisa entender exatamente como esse crime acontece para protegê-la — e o que fazer se já tiver acontecido
Recebeu uma imagem de alguém conhecido e não sabe se é real ou gerada por IA — ou encontrou algo sobre você mesmo e precisa agir com urgência
🛡️ Antes de continuar: as 3 ações que você pode fazer agora, em 5 minutos
- Coloque seu Instagram no privado agora: Abra o Instagram → toque no ícone de perfil → “Configurações e privacidade” → “Privacidade da conta” → ative “Conta privada”. Isso não apaga suas fotos existentes — apenas impede que novos desconhecidos as vejam. Você ainda pode aceitar seguidores que conhece.
- Remova as marcações de localização de fotos antigas: Fotos com localização revelam sua rotina — o que facilita a construção de um perfil de vítima por agressores. Edite as publicações mais antigas com localização marcada e remova esse dado.
- Acesse o StopNCII.org: Abra stopncii.org no navegador (gratuito, em português). Este serviço, parceiro da SaferNet Brasil, cria uma impressão digital (hash) das suas fotos íntimas e distribui esse hash para plataformas parceiras — incluindo Instagram e Facebook — para que elas bloqueiem automaticamente qualquer tentativa de compartilhar imagens similares. Mais de 1 milhão de imagens já estão protegidas por essa ferramenta.
- Ative a verificação em duas etapas no Instagram: Configurações → “Central de contas” → “Senha e segurança” → “Autenticação de dois fatores”. Use o aplicativo autenticador (Google Authenticator ou similar) — mais seguro do que SMS.
- Salve os contatos de denúncia: SaferNet: safernet.org.br/denuncie (gratuito e anônimo) | Delegacia virtual do seu estado (busque “delegacia virtual + [seu estado]”) | Disque 180 (Central de Atendimento à Mulher — 24 horas, gratuito). Ter esses contatos já salvos reduz o tempo de reação no momento de crise — quando cada minuto conta.
🧠 O que você precisa saber em 1 minuto sobre deepfake íntimo:
- O que é “deep nude” ou deepfake sexual: É o uso de inteligência artificial para gerar imagens de nudez com o rosto de uma pessoa real — sem que ela tenha posado para isso, sem sua presença, sem acesso ao seu celular. Qualquer foto pública com rosto visível pode ser usada. As ferramentas que fazem isso estão disponíveis gratuitamente na internet.
- O que a lei brasileira diz em 2026: A Lei nº 15.123/2025, sancionada pelo presidente Lula em abril de 2025, aumenta em 50% a pena de crimes de violência psicológica contra a mulher quando cometidos com uso de deepfake ou IA. A Câmara dos Deputados aprovou em fevereiro de 2025 um projeto que criminaliza especificamente a criação e divulgação de deepfake sexual — pena de 2 a 6 anos —, ainda em tramitação no Senado. Independente disso, quem cria ou divulga o material já responde por crimes contra a honra (artigos 138, 139 e 140 do Código Penal) e pode ser enquadrado em stalking, estelionato e extorsão dependendo do uso.
- A imagem gerada não precisa enganar ninguém para causar dano: O agressor muitas vezes não tenta fazer o mundo acreditar que a imagem é real — ele apenas ameaça enviar para seu chefe, namorado, família ou escola. O dano é psicológico, social e reputacional. A falsidade da imagem não elimina o crime nem reduz o trauma.
⚡ TL;DR
- Tempo: 12 min para ler + 5 min para aplicar o protocolo de proteção (ou pule direto para o protocolo SOS)
- Nível: Iniciante — não exige nenhum conhecimento técnico prévio
- Você vai copiar: 5 scripts prontos para denúncia + protocolo SOS completo + checklist de 12 ações de proteção
- Proteção imediata: Perfil privado + StopNCII.org + 2FA — 3 ações que eliminam os principais vetores de risco
🚀 Navegação rápida:
Índice
- Como o golpe funciona — os 3 estágios do crime
- Tabela 01: 7 sinais visuais que revelam uma foto como deepfake
- Tabela 02: Configurações do Instagram que blindam seu perfil — passo a passo
- Tabela 03: Anatomia do crime — o que acontece em cada etapa sem que você perceba
- Tabela 04: Por perfil de risco — o que cada pessoa deve fazer
- Scripts prontos para denúncia, remoção e comunicação
- Ferramentas gratuitas de detecção — como usar cada uma
- O que muda no celular vs computador para se proteger
- O que a tecnologia não resolve (e o que só a lei e a ação humana resolvem)
- Após a denúncia: o que esperar e como acompanhar
- 🚨 Protocolo SOS: foi vítima agora — faça isso nesta ordem
- Erros que transformam uma situação controlável em crise irreversível
- Casos reais: 3 situações, 3 respostas diferentes
- Ferramentas gratuitas de detecção e proteção
- Amanda aconselha
- FAQ
Como o golpe funciona — os 3 estágios do crime
A maioria das vítimas só descobre que foi alvo quando a imagem já está circulando. Entender os estágios do crime antes que ele aconteça é a única forma de interromper o ciclo — porque em cada etapa existe uma janela de proteção que se fecha rapidamente.
Estágio 1: Coleta — o agressor encontra sua foto em um perfil público
O agressor não precisa invadir nada. Ele usa o próprio Instagram para buscar por perfis abertos, filtra por localização, hashtag ou até por seguidores em comum. Uma foto de praia, de formatura, de aniversário — qualquer imagem com rosto visível em boa resolução serve. Quanto maior a qualidade da foto e mais nítido o rosto, melhor o resultado da geração por IA. Perfis públicos com mais de 500 seguidores e fotos regulares são os alvos mais frequentes — mas o critério real é simplesmente a disponibilidade da imagem. Qualquer pessoa com perfil aberto está elegível, independentemente de quem siga ou de quantos seguidores tenha.
Estágio 2: Geração — a IA cria a imagem falsa em segundos
Existem dezenas de ferramentas gratuitas e pagas disponíveis na internet que recebem uma foto comum e geram uma versão com nudez — os chamados “deep nude generators”. O processo leva entre 10 e 60 segundos. O agressor não precisa saber programar, não precisa de equipamento especial, não precisa pagar nada. Algumas dessas ferramentas têm filtros de conteúdo que bloqueiam o uso indevido — mas esses filtros são contornáveis com qualquer busca básica por versões alternativas. A barreira técnica para criar um deepfake sexual em 2026 é equivalente à barreira técnica para criar uma conta no Instagram: qualquer pessoa com acesso à internet consegue.
Estágio 3: Uso — a imagem vira instrumento de dano ou extorsão
Com a imagem gerada, o agressor tem pelo menos 4 caminhos possíveis: (1) enviá-la diretamente para a vítima com pedido de dinheiro ou favores sexuais; (2) distribuí-la em grupos de WhatsApp ou Telegram sem chantagem — apenas para humilhar; (3) publicá-la em sites de conteúdo adulto com o nome completo e localização da vítima para danos reputacionais; (4) enviá-la para o empregador, parceiro afetivo ou família da vítima para causar dano relacional específico. Em todos os casos, o dano começa no momento do compartilhamento — e cada segundo sem ação é mais uma pessoa que recebeu a imagem.
Tabela 01: 7 sinais visuais que revelam uma imagem como deepfake — analise antes de acreditar ou compartilhar
Use esta tabela para analisar qualquer imagem suspeita — seja recebida por mensagem, encontrada online ou apresentada como “prova” de algo. Nenhum sinal isolado é conclusivo, mas a presença de 3 ou mais sinais simultâneos indica fortemente manipulação por IA.
| # | Onde olhar | O que o deepfake faz errado | Como identificar na prática | Nível de suspeita |
|---|---|---|---|---|
| 01 | Pele nas bordas do rosto | A IA faz a transição entre o rosto colado e o corpo gerado — e essa borda costuma ter textura inconsistente: pele do rosto e pele do corpo têm tons ou granulados ligeiramente diferentes | Zoom no pescoço, queixo e orelhas — procure “emenda” ou diferença de tonalidade de pele entre o rosto e o restante do corpo. Se o pescoço parece mais claro ou escuro que o rosto, suspeite. | 🔴 Alto |
| 02 | Cabelo e fios soltos | A IA tem dificuldade extrema com fios de cabelo soltos, especialmente onde o cabelo encontra o fundo ou o corpo. O resultado tende a ser fios “colados”, bordas borradas ou cabelo com aparência plástica | Procure fios de cabelo que parecem “pintados” sobre o fundo em vez de naturalmente separados. Cabelo muito perfeito e uniforme também é sinal — a IA tende a suavizar em excesso. | 🔴 Alto |
| 03 | Olhos e simetria facial | Olhos de deepfake frequentemente têm luz refletida inconsistente (o reflexo de luz nos dois olhos não bate), ligeira assimetria no tamanho das pupilas ou aparência de “vidro” — muito nítidos para a foto | Olhe os reflexos de luz nos dois olhos — eles deveriam ser espelhos um do outro. Se um olho parece ligeiramente maior, mais focado ou com reflexo em posição diferente, é sinal de manipulação. | 🟡 Médio |
| 04 | Mãos e dedos | Mãos são o ponto mais fraco de qualquer gerador de IA: dedos extras, dedos fundidos, proporções erradas, unhas com formato impossível. Esse erro é tão conhecido que se tornou um marcador confiável de imagem gerada por IA | Se houver mãos visíveis na imagem, conte os dedos. Procure articulações com ângulos impossíveis ou dedos que se fundem. A presença de qualquer erro anatômico nas mãos é forte indicador. | 🔴 Alto |
| 05 | Iluminação inconsistente | A fonte de luz no rosto e no corpo deve ser a mesma. O deepfake frequentemente cola um rosto iluminado de uma forma em um corpo iluminado de outra — o resultado é uma sombra no rosto que não corresponde à direção da luz no ambiente | Observe de onde vem a luz no fundo/ambiente e compare com a direção da sombra no rosto. Se o sol está à esquerda no fundo mas a sombra no nariz indica luz à direita, a imagem foi montada. | 🔴 Alto |
| 06 | Fundo da imagem | Em áreas próximas ao contorno do corpo, a IA tende a criar artefatos no fundo: pixels borrados, padrões repetidos, texturas que “somem e voltam”, ou áreas com nitidez inconsistente em relação ao restante | Observe o fundo logo atrás dos braços, ombros e cabeça. Se o papel de parede, céu ou ambiente parece estranhamente suave ou distorcido nessas regiões, é sinal de geração artificial. | 🟡 Médio |
| 07 | Dentes e interior da boca | Dentes gerados por IA tendem a ser excessivamente brancos e uniformes, com gengivas de cor inconsistente — ou, no extremo oposto, fundidos em uma massa sem individualização. Nenhum ser humano real tem dentes tão perfeitos assim | Se a pessoa está sorrindo, observe a individualização dos dentes. Dentes “de plástico”, sem imperfeições mínimas ou com espaçamento perfeitamente regular são sinal forte de geração por IA. | 🟡 Médio |
Tabela 02: Configurações do Instagram que blindam seu perfil — onde clicar, o que ativar e o que eliminar
Esta tabela é o protocolo de proteção preventiva. Aplique em ordem: cada configuração fecha uma porta específica de acesso às suas fotos por desconhecidos.
| # | Configuração | Caminho exato no app | O que protege | Impacto no perfil público |
|---|---|---|---|---|
| 01 | Conta privada | Perfil → ☰ → “Configurações e privacidade” → “Privacidade da conta” → ative “Conta privada” | Impede que desconhecidos vejam suas fotos e vídeos — a principal fonte de imagens para geração de deepfake | ⚠️ Novos seguidores precisam de aprovação. Perfis profissionais precisam avaliar o impacto no alcance antes de ativar. |
| 02 | Restringir marcações em fotos | “Configurações e privacidade” → “Privacidade” → “Tags” → selecione “Somente pessoas que você segue” ou “Ninguém” | Impede que desconhecidos te marquem em fotos criadas por eles — um vetor usado para expor a vítima para os seguidores do agressor | ✅ Sem impacto visível no perfil. Amigos próximos ainda conseguem te marcar se forem aprovados. |
| 03 | Controlar quem vê os Stories | “Configurações e privacidade” → “Privacidade” → “Stories” → “Ocultar story de” → adicione contas suspeitas ou desconhecidas | Stories costumam ter qualidade de imagem alta e mostram localização, rotina e rosto em múltiplos ângulos — exatamente o que o agressor precisa para gerar um deepfake convincente | ✅ Sem impacto para seguidores de confiança. |
| 04 | Restringir mensagens de desconhecidos | “Configurações e privacidade” → “Privacidade” → “Mensagens” → “Outros no Instagram” → selecione “Não receber solicitações” | Impede que o agressor te envie a imagem gerada diretamente como primeiro contato de chantagem | ⚠️ Bloqueia DMs de não-seguidores. Se você usa o Instagram para negócios, avalie com cuidado. |
| 05 | Ativar verificação em duas etapas | “Configurações e privacidade” → “Central de contas” → “Senha e segurança” → “Autenticação de dois fatores” → selecione app autenticador | Protege sua conta de invasão — se o agressor invadir seu perfil, ele tem acesso a fotos privadas, conversas e dados de contatos | ✅ Sem impacto no perfil. Use app autenticador (não SMS) — SMS pode ser interceptado. |
| 06 | Remover localização de posts antigos | Abra cada post → três pontos (…) → “Editar” → toque na localização → “Remover localização” → “Concluído” | Localização em posts revela sua rotina, endereço de casa, academia, escola dos filhos — dados usados para aumentar o poder de intimidação do agressor | ✅ Sem impacto visual no feed. Posts anteriores continuam aparecendo — só sem o dado de localização. |
| 07 | Verificar apps conectados à conta | “Configurações e privacidade” → “Central de contas” → “Sua informação e permissões” → “Aplicativos e sites” → revogue o acesso de apps não reconhecidos | Apps terceiros com acesso ao Instagram podem baixar suas fotos automaticamente — muitos agressores usam esse vetor sem que a vítima perceba | ✅ Sem impacto no perfil. Revogue qualquer app que você não reconhece ou não usa mais. |
Tabela 03: Anatomia do crime — o que acontece em cada etapa sem que você perceba
Esta tabela não é teoria: é o mapa interno do crime do ponto de vista técnico e jurídico. Especialistas em segurança digital e delegadas de crimes cibernéticos identificam exatamente esses pontos como os momentos em que a proteção ainda é possível — e os momentos em que o dano já ocorreu.
| Etapa do crime | O que o agressor faz | O que acontece com sua imagem | Janela de proteção ainda existe? | Crime configurado nesta etapa |
|---|---|---|---|---|
| Coleta da imagem | Salva ou captura sua foto do perfil público | Foto sai do seu controle — você não é notificado e não tem como saber | ✅ Sim — perfil privado impede o acesso. Esta é a janela mais eficaz. | Tecnicamente não — baixar imagem pública não é crime isolado. O crime começa na etapa seguinte. |
| Geração do deepfake | Insere sua foto em ferramenta de deep nude e gera a imagem falsa | Existe uma imagem falsa de você. Ninguém além do agressor sabe ainda. | ⚠️ Parcial — StopNCII.org pode bloquear o compartilhamento futuro, mas não apaga o que já foi gerado | ✅ Sim — criação de deepfake sexual é crime pelo PL aprovado na Câmara (aguarda Senado). Já se enquadra em crimes contra a honra e violência psicológica pela Lei nº 15.123/2025. |
| Primeiro contato de chantagem | Envia a imagem para você com pedido de dinheiro, fotos reais ou favores | A imagem existe e chegou até você. A ameaça é real. | ✅ Sim — documente tudo agora. Cada mensagem é prova. NÃO pague. | ✅ Extorsão (Art. 158 CP) + crime contra honra + violência psicológica (Lei 11.340/06 e Lei 15.123/25) |
| Disseminação | Envia a imagem para contatos seus, publica em grupos ou sites | A imagem circula fora do seu controle — cada encaminhamento é uma nova vítima do dano | ⚠️ Limitada — StopNCII.org pode bloquear em plataformas parceiras; BO abre investigação. O dano já começa a ocorrer. | ✅ Divulgação de deepfake sexual: crime com pena de 2 a 6 anos (PL Câmara) | Divulgação de cena íntima (Art. 218-C CP): 1 a 5 anos | pena agravada pela Lei 15.123/25 se vítima for mulher |
| Publicação em sites adultos | Posta a imagem com nome, CPF, cidade ou redes sociais da vítima | Imagem indexada por mecanismos de busca — associada ao seu nome para sempre se não removida a tempo | ⚠️ Urgente — acione o Google Busca por imagem + SaferNet + delegacia de imediato. Cada hora conta. | ✅ Múltiplos crimes cumulativos: exposição íntima + dano à honra + possível stalking (Art. 147-A CP) |
💡 O que os especialistas em crimes digitais repetem: A janela de proteção mais eficaz é a coleta — porque se o agressor não consegue a foto, não há deepfake. A segunda janela mais eficaz é o primeiro contato de chantagem — porque quem documenta tudo e registra o BO nessa etapa tem 80% mais chance de identificação do agressor do que quem espera a disseminação acontecer.
Tabela 04: Por perfil de risco — o que cada pessoa deve fazer primeiro
Encontre seu perfil na tabela, leia o risco específico e copie a ação imediata recomendada — seja para se proteger agora, para proteger alguém da família ou para ajudar uma vítima que chegou até você.
| # | Perfil | Risco específico | Ação imediata — copie e faça agora | Prioridade |
|---|---|---|---|---|
| 01 | Adolescente (13-17 anos) | Perfil aberto com fotos de escola, praia e rotina — alvo prioritário de agressores porque a imagem gerada é mais fácil de usar para chantagem por vergonha e medo dos pais | 1. Perfil privado imediatamente; 2. Revisar lista de seguidores — remover quem não conhece pessoalmente; 3. Conversar com pais ou responsável sobre o crime sem esperar que aconteça; 4. Salvar o número do CVV: 188 | 🔴 Urgente |
| 02 | Mulher com perfil profissional público | Precisa do perfil aberto para negócios — mas fotos de alta qualidade com rosto são o ativo mais valioso para o agressor. O deepfake pode ser usado para dano reputacional profissional | 1. Cadastre suas fotos no StopNCII.org; 2. Evite publicar fotos de alta resolução com rosto sozinho (prefira fotos de grupo ou com produto); 3. Ative verificação em duas etapas; 4. Monitore seu nome no Google com Alertas | 🔴 Urgente |
| 03 | Criadora de conteúdo | influenciadora | Centenas ou milhares de fotos públicas de alta qualidade — nível de exposição máximo. Agressores usam deepfakes de influenciadoras para monetizar em sites adultos sem consentimento | 1. StopNCII.org com todas as fotos íntimas existentes; 2. Watermark discreta em fotos novas (o nome dificulta o uso comercial indevido); 3. Pesquisa reversa mensal das próprias fotos no Google; 4. Ter advogado digital ou contato de assessoria jurídica preventiva | 🔴 Urgente |
| 04 | Mãe ou pai de adolescente | Filho(a) pode ser vítima sem te contar por medo ou vergonha — e a demora em agir aumenta o dano exponencialmente | 1. Abrir conversa sem julgamento sobre o crime antes que aconteça; 2. Verificar configurações do Instagram do(a) filho(a) juntos; 3. Combinar que qualquer ameaça digital deve ser comunicada imediatamente sem punição; 4. Salvar: Disque 100 (criança e adolescente) e Disque 180 (mulher) | 🔴 Urgente |
| 05 | Professora | profissional de educação | Autoridade sobre alunos pode gerar ressentimento — e casos de deepfake de professoras por alunos já foram registrados no Brasil. O dano reputacional impacta emprego e carreira. | 1. Manter perfil separado pessoal e profissional — nunca aceitar alunos no pessoal; 2. Não postar fotos pessoais de lazer no perfil que alunos seguem; 3. Informar à escola ou instituição sobre qualquer suspeita de uso indevido de imagem | 🟠 Alto |
| 06 | Estudante universitária | Ambiente universitário concentra alto número de pessoas que se conhecem superficialmente — e o deepfake pode ser criado por colega, ex-parceiro ou alguém do mesmo círculo social | 1. Revisar lista de seguidores — remover ex-parceiros e pessoas com quem o relacionamento terminou mal; 2. Não compartilhar fotos íntimas reais por nenhuma plataforma digital; 3. Conhecer o canal de apoio da universidade para denúncias de violência digital | 🟠 Alto |
| 07 | Profissional de saúde | médica | Pacientes ou ex-pacientes podem usar imagens públicas para criação de deepfake como forma de retaliação ou assédio — com impacto direto no registro profissional | 1. Perfil profissional com foto institucional apenas — sem fotos pessoais; 2. Nunca misturar pacientes e contatos pessoais nas redes; 3. Registrar qualquer ameaça no CFM (Conselho Federal de Medicina) além do BO | 🟠 Alto |
| 08 | Homem que recebeu imagem suspeita de alguém conhecido | Pode ser usado como veículo involuntário — o agressor envia o deepfake para alguém próximo da vítima para causar dano relacional. Quem encaminha também pode ser responsabilizado | 1. Não encaminhe em hipótese alguma antes de verificar a autenticidade; 2. Use as ferramentas de detecção da Tabela de ferramentas; 3. Se suspeitar que é deepfake, avise a possível vítima diretamente e com cuidado; 4. Denuncie na plataforma onde recebeu | 🟠 Alto |
| 09 | RH | gestora de pessoas | Pode receber deepfake de funcionária ou candidata como “denúncia” anônima — um vetor usado por agressores para destruir carreiras usando o setor de RH como intermediário | 1. Estabelecer protocolo claro: nenhum conteúdo íntimo anônimo é apurado sem verificação de autenticidade; 2. Acionar ferramenta de detecção antes de qualquer ação; 3. Comunicar imediatamente ao jurídico da empresa — a empresa pode ser acionada por dano se agir com base em deepfake | 🟡 Médio |
| 10 | Pessoa que quer ajudar uma vítima | Saber como apoiar sem piorar a situação é uma habilidade rara — e erros de bem-intencionados (confrontar o agressor, compartilhar a imagem “para mostrar para a polícia”) podem aumentar a disseminação | 1. Não compartilhe a imagem por nenhum motivo — nem para “mostrar” para alguém de confiança; 2. Ajude a documentar: prints com hora, data e URL visíveis; 3. Acompanhe até a delegacia se necessário; 4. Acesse os scripts prontos do Prompt 04 deste guia para saber o que dizer | 🟡 Médio |
Scripts prontos para denúncia, remoção e comunicação — copie e use agora 📌
Estes 5 scripts estão prontos para uso imediato — para comunicar plataformas, registrar BO, usar o ChatGPT como assistente de documentação e avisar pessoas próximas de forma segura. Substitua os campos entre colchetes com os dados reais antes de enviar.
Script 01 — Solicitação de remoção de conteúdo para plataforma (Instagram, X, Telegram, site adulto):
Ao time de segurança da [nome da plataforma], Meu nome é [nome completo]. Identifico que existe na sua plataforma uma imagem gerada por inteligência artificial (deepfake) que utiliza meu rosto sem meu consentimento, com conteúdo de nudez ou cunho sexual. Trata-se de um crime previsto no Código Penal brasileiro (Art. 218-C e Art. 216-C conforme PL aprovado pela Câmara dos Deputados em 2025), além de violação dos seus próprios Termos de Serviço. URL ou localização do conteúdo: [URL ou descrição do perfil/post] Natureza do conteúdo: imagem íntima falsa gerada por IA com meu rosto Meu nome completo: [seu nome] Meu contato: [e-mail] Solicito a remoção imediata do conteúdo e a preservação dos logs de acesso para fins de investigação criminal. Esta solicitação também está sendo encaminhada à SaferNet Brasil e à Delegacia de Crimes Cibernéticos. [Seu nome] [Data]
Script 02 — Prompt para usar o ChatGPT como assistente de documentação do caso:
Preciso de ajuda para documentar um caso de deepfake/imagem falsa com minha imagem. Me ajude a organizar as informações para o registro de um boletim de ocorrência. Vou te passar os fatos em ordem cronológica e você me ajuda a formatar em linguagem clara, objetiva e com os elementos que a delegacia precisa. Os fatos são: [Descreva o que aconteceu: quando você descobriu, como, em qual plataforma, se houve contato do agressor, se houve pedido de dinheiro, se a imagem já foi compartilhada para terceiros, se você sabe quem pode ser o agressor] Por favor: 1. Organize os fatos em ordem cronológica 2. Identifique os crimes que podem se enquadrar com base no Código Penal brasileiro 3. Liste as evidências que preciso preservar antes de registrar o BO 4. Sugira a redação do texto para o boletim de ocorrência Importante: não compartilhe nem analise a imagem em si — trabalhe apenas com a descrição textual dos fatos.
Script 03 — Mensagem para avisar pessoa próxima que pode ter recebido a imagem:
[Nome], Preciso te avisar sobre algo importante. Uma imagem falsa com meu rosto está circulando — ela foi gerada por inteligência artificial e não é real. É um crime chamado deepfake sexual. Se você recebeu qualquer imagem minha de origem desconhecida ou suspeita, por favor: 1. Não encaminhe para ninguém — quem encaminha também pode ser responsabilizado criminalmente 2. Não mostre para outras pessoas 3. Se possível, faça um print com a hora, data e quem enviou — isso ajuda na investigação 4. Me avise imediatamente de onde veio Já registrei boletim de ocorrência e estou tomando as providências legais. O conteúdo é 100% falso. Obrigada pela compreensão e pelo apoio. [Seu nome]
Script 04 — Prompt para o ChatGPT criar um plano personalizado de proteção digital para o seu perfil:
Você é um especialista em segurança digital e proteção de imagem pessoal online. Meu perfil: [descreva brevemente — ex: mulher, 32 anos, criadora de conteúdo com perfil público no Instagram de 8.000 seguidores, nicho de moda, fotos regulares de rosto e corpo] Preciso de um plano de proteção personalizado contra o risco de deepfake sexual. Inclua: 1. Checklist de configurações de privacidade para o Instagram considerando que meu perfil é [público | semipúblico | privado] 2. O que devo parar de publicar imediatamente e por quê 3. O que posso continuar publicando com ajustes que reduzem o risco 4. Como monitorar meu nome e imagem na internet de forma gratuita 5. O que fazer nos primeiros 30 minutos se eu descobrir que uma imagem falsa minha está circulando Seja direto e prático. Sem teoria — só ações.
Script 05 — Prompt para o ChatGPT criar texto de denúncia na plataforma específica onde a imagem foi publicada:
Preciso criar um texto de denúncia formal para a plataforma [nome da plataforma: Instagram | X | Telegram | WhatsApp | site adulto | Google]. Contexto: Uma imagem gerada por inteligência artificial usando meu rosto sem meu consentimento está sendo divulgada nessa plataforma. A imagem é de conteúdo [sexual | íntimo | constrangedor]. Sou brasileira(o), e o crime é punível pela lei brasileira. Por favor, crie: 1. Texto de denúncia no formulário da plataforma (máximo 500 palavras, objetivo e sem linguagem emocional — plataformas processam mais rápido denúncias técnicas) 2. Assunto do e-mail para o canal de suporte da plataforma 3. Linha de acompanhamento para usar caso a plataforma não responda em 48 horas Dados que tenho: — URL do conteúdo: [cole aqui] — Data em que descobri: [data] — Evidências disponíveis: [prints com data | link direto | depoimento de testemunha]
🔑 Hack avançado: como usar o ChatGPT como seu advogado digital de primeiro atendimento
Você não precisa pagar honorários de emergência para saber seus direitos nas primeiras horas. O ChatGPT não substitui um advogado — mas pode te dizer o que preservar, o que não dizer ao agressor e qual crime se enquadra antes mesmo de você falar com um profissional.
- Peça análise jurídica do print: Cole o texto da mensagem de chantagem e diga: “Analise este texto do ponto de vista do Código Penal brasileiro. Que crimes estão configurados e qual a pena prevista para cada um?” — você chega na delegacia já sabendo o que pedir para o delegado registrar.
- Use para calcular o prazo de prescrição: Diga ao ChatGPT a data do crime e o crime configurado e pergunte: “Qual o prazo de prescrição para este crime e qual a data limite para denunciar?” — evita o erro fatal de esperar e perder o prazo legal de ação.
- Treine o que dizer (e o que NÃO dizer) ao agressor: Peça ao ChatGPT: “Vou receber uma ligação do agressor. O que eu NÃO devo dizer para não prejudicar o processo legal? E o que devo tentar descobrir que ajuda a identificá-lo?” — em menos de 2 minutos você tem um roteiro claro para a conversa mais difícil.
Ferramentas gratuitas de detecção: como usar cada uma para identificar se a imagem é falsa
Esses comandos e ferramentas funcionam em qualquer dispositivo. Use primeiro a análise visual da Tabela 01 — e confirme com pelo menos uma ferramenta abaixo antes de qualquer ação.
| Ferramenta | O que detecta | Como usar (passo a passo) | Gratuito? |
|---|---|---|---|
| Hive Moderation hivemoderation.com/deepfake-detection | Detecta se imagem ou vídeo foi gerado por IA — um dos mais precisos disponíveis gratuitamente | 1. Acesse o site; 2. Clique em “Try it now”; 3. Faça upload da imagem; 4. Aguarde o resultado em segundos — ele mostra porcentagem de probabilidade de ser IA | ✅ Sim (sem limite diário informado) |
| Intel FakeCatcher intel.com/fakecatcher | Analisa fluxo sanguíneo nos pixels do rosto — 96% de precisão em testes independentes, melhor opção disponível para imagens com rosto visível | 1. Acesse o portal da Intel; 2. Faça upload do vídeo ou imagem; 3. O sistema analisa padrões de fluxo sanguíneo invisíveis ao olho humano; 4. Resultado com pontuação de autenticidade | ✅ Sim (versão demo gratuita) |
| TruthScan truthscan.com | Detector especializado em imagens fotorrealistas geradas por IA — detecta Midjourney, DALL-E, Stable Diffusion, Canva IA entre outros | 1. Acesse truthscan.com; 2. Clique em “Detect AI Image”; 3. Upload da imagem suspeita; 4. Resultado com percentual de probabilidade e destaque das áreas alteradas | ✅ Sim |
| FotoForensics fotoforensics.com | Análise de metadados e Error Level Analysis (ELA) — detecta áreas da imagem que foram editadas ou inseridas depois da criação original | 1. Acesse o site; 2. Upload ou cole a URL da imagem; 3. Clique em “ELA” nos resultados — áreas editadas aparecem em branco brilhante; 4. Se o rosto inteiro aparecer em brilho diferente do corpo, é sinal de montagem | ✅ Sim |
| DeepfakeProof (extensão Chrome) deepfakeproof.com | Detecção em tempo real direto no navegador — analisa imagens enquanto você navega, sem precisar fazer upload manual | 1. Instale a extensão no Chrome; 2. Navegue normalmente; 3. Clique com o botão direito em qualquer imagem suspeita → “Verificar com DeepfakeProof”; 4. Resultado aparece como sobreposição na tela | ✅ Sim (análise ilimitada) |
| Google Imagens (busca reversa) images.google.com | Não detecta deepfake — mas localiza onde a imagem original foi tirada e se ela está sendo usada fora do contexto original em outros sites | 1. Acesse images.google.com; 2. Clique no ícone de câmera; 3. Upload ou cole a URL da imagem; 4. Veja onde ela aparece na internet — se aparecer em sites que você não publicou, está sendo usada indevidamente | ✅ Sim |
| StopNCII.org stopncii.org/pt-br | Não detecta — mas bloqueia preventivamente. Gera um hash (impressão digital) da sua imagem e distribui para plataformas parceiras — incluindo Meta, TikTok e outros — para bloquear futuro compartilhamento | 1. Acesse stopncii.org no celular; 2. Clique em “Criar caso”; 3. Selecione as fotos do dispositivo (elas NÃO são enviadas — só o hash); 4. Receba o número de caso; 5. Plataformas parceiras bloquearão automaticamente imagens com aquele hash | ✅ Sim — gratuito e anônimo. A imagem nunca sai do seu dispositivo. |
Celular vs computador: o que muda na prática para se proteger e denunciar
A maioria das vítimas descobre o deepfake pelo celular — por uma mensagem de WhatsApp ou notificação de marcação. Saber o que você consegue fazer em cada dispositivo evita erros nas primeiras horas, quando cada decisão conta.
| Ação necessária | Celular | Computador |
|---|---|---|
| Fazer print com data e hora visíveis | ✅ Mais rápido — botão lateral + volume. A data e hora aparecem na barra de status. Certifique-se de que a barra superior está visível no print. | ✅ Print de tela completo (Win+Print Screen | Cmd+Shift+4 no Mac) — mais fácil de mostrar a URL na barra do navegador junto com o conteúdo |
| Configurar Instagram no privado | ✅ Mais prático — perfil → ☰ → Configurações e privacidade → Privacidade da conta → Conta privada | ✅ Disponível também em instagram.com no navegador, mesmas opções |
| Usar ferramentas de detecção de deepfake | ⚠️ Funciona, mas upload de imagem via celular pode ser mais lento. Hive Moderation e TruthScan têm versão mobile funcional. | ✅ Mais eficaz — upload mais rápido, tela maior para analisar os resultados em detalhe |
| Usar o StopNCII.org | ✅ Projetado prioritariamente para mobile — as fotos ficam no dispositivo e só o hash sai. Funciona melhor pelo celular onde as fotos estão. | ✅ Funciona também — faça upload das imagens salvas no computador |
| Registrar boletim de ocorrência virtual | ⚠️ Funciona, mas o formulário é longo — risco de errar ou perder dados. Se possível, prefira o computador para o BO. | ✅ Ideal — você tem os prints abertos em outra aba, pode copiar os dados com exatidão e salvar o PDF do BO assim que concluir |
| Ligar para canais de ajuda | ✅ 180 (Central da Mulher), Disque 100 (criança e adolescente) — gratuitos, 24 horas. Funcione em qualquer celular, inclusive sem crédito. | ⚠️ Não disponível pelo computador. Use o celular para as ligações. |
| Denunciar para a SaferNet | ✅ new.safernet.org.br/denuncie — funciona pelo celular | ✅ Mais confortável para preencher o formulário completo com todas as evidências |
O que a tecnologia não resolve — e só a ação humana e a lei conseguem fazer
As ferramentas cobrem muito — mas têm limites concretos que você precisa conhecer para não criar uma sensação falsa de segurança total.
| O que você precisa | Por que a tecnologia não resolve sozinha | O que resolve de verdade |
|---|---|---|
| “Quero apagar a imagem de todos os lugares da internet” | O StopNCII.org e as denúncias em plataformas bloqueiam nas parceiras — mas a internet tem milhares de sites não parceiros, grupos fechados e canais de Telegram privados que nenhuma ferramenta alcança | BO + processo judicial com pedido de tutela de urgência (liminar) força remoção inclusive em sites que não cooperam voluntariamente. Advogado especializado em crimes digitais. |
| “Quero descobrir quem criou a imagem” | Nenhuma ferramenta de detecção identifica o criador — elas só confirmam se a imagem é falsa | BO na delegacia de crimes cibernéticos → requisição judicial de IP e logs para a plataforma. Só a via legal acessa esses dados. |
| “Quero que a pessoa seja punida” | Ferramentas de proteção não têm poder punitivo — elas bloqueiam conteúdo, não pessoas | Processo criminal com a documentação correta — o que inclui prints, IPs, logs de mensagens e o BO registrado dentro do prazo de prescrição. |
| “Quero que o dano psicológico seja reconhecido” | Nenhuma ferramenta valida o dano emocional | CVV: 188 (crise imediata) | Centro de Atenção Psicossocial (CAPS) gratuito pelo SUS | organizações especializadas como Instituto Patrícia Galvão |
| “Quero impedir que a imagem gerada fique no banco de dados da ferramenta de IA” | Ferramentas de deep nude não divulgam ou controlam bem seus bancos de dados — e muitas operam em jurisdições com legislação fraca | Ação internacional via órgãos como ANPD (Autoridade Nacional de Proteção de Dados) + advogado especializado em LGPD e crimes digitais internacionais |
📂 Após registrar a denúncia: o que esperar e como não deixar o caso morrer
O erro mais comum após a denúncia não é o que a vítima faz — é o que ela deixa de acompanhar. Casos de crimes digitais têm prazo de prescrição e exigem que a vítima seja proativa no acompanhamento para não perder o processo.
- Guarde o número do BO em dois lugares diferentes: No celular e anotado fisicamente. O número do BO é a chave de acesso a toda a investigação — sem ele, qualquer ligação de acompanhamento começa do zero. Fotografe o documento logo após o registro.
- Acompanhe as denúncias nas plataformas em 48 horas: Instagram, X e a maioria das plataformas têm prazo padrão de 48 horas para responder denúncias de conteúdo violento ou sexual. Se não houver resposta, escale: use o formulário de escalada de emergência que a maioria das plataformas disponibiliza para casos de abuso sexual — ele tem prioridade maior do que a denúncia padrão.
- Faça um acompanhamento semanal do seu caso no StopNCII.org: Use o número de caso recebido no cadastro para verificar se houve correspondências e remoções nas plataformas parceiras. A ferramenta mostra em tempo real se a imagem foi bloqueada em algum ponto da rede.
- Monitore seu nome no Google com Alertas: Acesse google.com.br/alerts → crie um alerta com seu nome completo entre aspas → selecione “Todos os resultados” e “Assim que acontecer”. Se a imagem for indexada em algum novo site com seu nome, você recebe o e-mail imediatamente — e pode acionar a remoção antes que mais pessoas encontrem.
🚨 Protocolo SOS — foi vítima agora: faça exatamente isso, nesta ordem, nos próximos 30 minutos
- NÃO PAGUE. NÃO NEGOCIE. NÃO APAGUE NADA.
Pagar não elimina a imagem — alimenta o ciclo. Agressores que recebem pagamento voltam com novas exigências em 78% dos casos documentados. Apagar mensagens destrói provas essenciais para o processo criminal. Bloqueie o agressor no Instagram e WhatsApp depois de ter feito os prints — não antes. - Documente tudo — com hora e URL visíveis:
Faça prints de: (a) a imagem e o perfil ou post onde ela aparece, com a URL na barra do navegador visível; (b) todas as mensagens do agressor com horário visível; (c) qualquer informação de identificação do agressor (nome de usuário, número, perfil). Se estiver usando o celular, certifique-se de que a barra de status com hora está visível. Salve os prints em dois lugares: na galeria do celular e num drive em nuvem (Google Drive, iCloud ou similar). - Acesse o StopNCII.org agora:
Abra stopncii.org no celular → “Criar caso” → selecione as fotos suas que podem ter sido usadas para gerar o deepfake (fotos originais suas, não a imagem falsa) → conclua o cadastro. Isso bloqueia preventivamente a imagem em Instagram, Facebook, TikTok e outras plataformas parceiras em tempo real. A foto não é enviada — apenas o hash. - Denuncie nas plataformas onde a imagem está:
Clique nos três pontos do post ou perfil → “Denunciar” → selecione “Nudez ou atividade sexual” → “Imagem íntima sem consentimento”. No Instagram, há também o fluxo específico “Imagem íntima” que aciona um time especializado. Faça a denúncia pelo app, pelo navegador e pelo formulário de suporte — os três canais simultaneamente aumentam a velocidade de resposta. - Registre o boletim de ocorrência:
Acesse a delegacia virtual do seu estado (busque “BO online + [seu estado]”) ou vá presencialmente à Delegacia da Mulher mais próxima. Informe: crime de extorsão (se houver pedido de dinheiro), violência psicológica, divulgação de imagem íntima sem consentimento (Art. 218-C do CP) e, se aplicável, ameaça (Art. 147 CP). Leve todos os prints. Se possível, use o Script 02 deste guia para preparar o texto com o ChatGPT antes de ir. - Ligue para a SaferNet ou para o 180:
SaferNet: pelo site new.safernet.org.br/helpline — tem atendimento humanizado para vítimas de crimes digitais, orientação jurídica de primeiro atendimento e suporte emocional. Disque 180: Central de Atendimento à Mulher — gratuito, 24 horas, também orienta sobre encaminhamentos legais. - Proteja seu círculo mais próximo:
Envie o Script 03 deste guia para parceiro(a), familiares e amigos próximos que possam receber a imagem. Faça isso sem vergonha — a vergonha pertence ao agressor, não a você. Avisar antes protege essas pessoas de serem usadas como veículo do dano.
👀 Os 6 erros que transformam uma situação controlável em crise irreversível
- Erro 1 — “Paguei porque achei que ia acabar”: 78% das vítimas que pagam o resgate relatam uma segunda extorsão em até 30 dias. O pagamento não elimina a imagem — apenas confirma para o agressor que você tem medo suficiente para pagar, que você tem dinheiro disponível e que não foi para a polícia. Os três juntos formam o perfil ideal de alvo para uma segunda cobrança, muitas vezes maior. Correção: NÃO pague. Documente o pedido de pagamento — é extorsão tipificada no Art. 158 do Código Penal com pena de 4 a 10 anos. O pedido de dinheiro é uma evidência a seu favor, não uma obrigação.
- Erro 2 — “Apaguei as mensagens para não ver mais”: As mensagens do agressor são provas primárias. Sem elas, o processo criminal fica fragilizado — e o agressor pode alegar que nunca existiu contato, que você confundiu a identidade ou que a comunicação foi consentida. Sem prints, sem processo. Correção: Arquive tudo antes de bloquear ou apagar. Crie uma pasta no Google Drive chamada “Evidências [data]” e salve todos os prints com data e hora visíveis. Só depois de salvar em nuvem você bloqueia o agressor.
- Erro 3 — “Não registrei BO porque tinha vergonha ou achei que não ia adiantar”: Sem BO não existe investigação, não existe requisição de IP para a plataforma, não existe identificação do agressor. A vergonha é exatamente o mecanismo que o agressor conta para operar sem consequências — e funciona porque 90% das vítimas não registram ocorrência. Cada BO registrado alimenta o banco de dados da Delegacia de Crimes Cibernéticos e pode cruzar com outros casos do mesmo agressor. Correção: BO online leva menos de 15 minutos. Você não precisa ir pessoalmente. Use o Script 02 deste guia para preparar o texto antes de começar o preenchimento.
- Erro 4 — “Confrontei o agressor e ameacei publicar o que ele fez”: Ameaçar publicar informações do agressor como retaliação pode configurar crime de ameaça ou até extorsão da sua parte — independentemente de o agressor ser o criminoso original. Além disso, agressores que se sentem acuados frequentemente antecipam a disseminação da imagem antes de qualquer ação legal acontecer. Correção: Zero contato após a documentação. Bloqueie, salve as provas e deixe o processo legal falar. Seu advogado ou a delegacia faz a comunicação — não você.
- Erro 5 — “Esperei para ver se passava sozinho”: A imagem de deepfake não “passa sozinha” — ela circula, é salva, é re-enviada e eventualmente é indexada por mecanismos de busca com seu nome. Cada dia sem ação é um dia a mais de disseminação e mais pessoas que recebem o conteúdo. As primeiras 24 horas são a janela mais eficaz de contenção — especialmente para acionar as plataformas antes que o conteúdo seja amplamente espalhado. Correção: Use o Protocolo SOS acima como guia das primeiras 30 horas. Uma ação rápida e organizada contém o dano em nível mínimo. Esperar multiplica.
- Erro 6 — “Achei que perfil privado era proteção total”: Perfil privado é a proteção mais eficaz disponível — mas não é absoluta. Se você tem ex-parceiro, colega ou conhecido entre os seus seguidores aprovados, essa pessoa já tem acesso às suas fotos. O deepfake não precisa de desconhecido — os casos mais comuns são de agressores do círculo próximo: ex-namorados, ex-maridos, colegas com quem o relacionamento acabou mal. Correção: Revise a lista de seguidores com regularidade. Remova ou restrinja contas de pessoas com quem o relacionamento se tornou conflituoso — mesmo que pareça exagero na hora. A prevenção tem custo zero; o dano tem custo incalculável.
Casos reais: 3 situações, 3 respostas diferentes — e o que cada uma ensina
Perfil 1 — Carla, 28 anos, professora: descobriu o deepfake por uma mensagem de uma aluna
| O que aconteceu | O que funcionou — e o que ensina |
|---|---|
| • Uma aluna de 16 anos mandou mensagem avisando que havia uma “foto estranha” de Carla circulando num grupo de WhatsApp de alunos da escola • A imagem usava o rosto de Carla em nudez — gerada por IA com uma foto de perfil do Instagram (que era público) como base • O criador era um ex-aluno que havia sido reprovado por ela no semestre anterior • Carla, em pânico, quase apagou todas as conversas antes de perceber que precisaria delas como prova | • A aluna que avisou estava correta em não encaminhar a imagem — apenas descrever o que viu e onde. Isso preservou a prova sem aumentar a disseminação • Carla não apagou nada, fez prints com a orientação da diretora da escola e registrou BO na mesma tarde • A escola acionou o Conselho Tutelar (por envolver menor de 18 anos como criador e como vítimas secundárias) e o caso foi encaminhado para investigação • Lição: A rede de apoio próxima (no caso, a aluna que avisou) é frequentemente o primeiro elo de contenção do dano. Criar cultura de “avisa, não encaminha” protege a todos. |
Perfil 2 — Fernanda, 35 anos, empresária: recebeu chantagem de R$ 5.000 e quase pagou
| O que aconteceu | O que funcionou — e o que ensina |
|---|---|
| • Recebeu mensagem no Instagram de uma conta desconhecida com a imagem deepfake e a exigência de R$ 5.000 em Pix em 24 horas • O agressor ameaçou enviar a imagem para os sócios da empresa dela e para o WhatsApp dos funcionários • Fernanda estava a poucos minutos de pagar quando uma amiga disse: “espera — deixa eu ligar para alguém que entende disso” • Usaram o ChatGPT com o Script 02 para organizar os fatos e verificar os crimes configurados antes de ir à delegacia | • Não pagou — seguiu o protocolo e registrou o BO com todos os prints organizados • O agressor tinha cometido extorsão (Art. 158 CP) — crime com pena de 4 a 10 anos, pena maior do que o deepfake em si • A delegacia identificou o IP da conta em menos de 30 dias via requisição judicial ao Instagram • Fernanda também cadastrou suas fotos no StopNCII.org — a imagem foi bloqueada no Instagram e Facebook antes que o agressor pudesse cumprir a ameaça • Lição: O pedido de dinheiro é extorsão — um crime mais grave do que o deepfake isolado. Documentar o pedido beneficia a vítima no processo criminal. |
Perfil 3 — Renata, 17 anos, estudante: a imagem circulou na escola por 3 dias antes de ela contar para a mãe
| O que aconteceu | O que funcionou — e o que ensina |
|---|---|
| • Um colega de sala usou uma foto de Renata em traje de banho (publicada no Instagram com perfil público) para gerar um deepfake sexual • A imagem circulou em grupos de WhatsApp da escola por 3 dias • Renata sabia desde o primeiro dia mas não contou para ninguém por vergonha — ficou 72 horas sozinha com o trauma sem buscar ajuda • Quando finalmente contou para a mãe, a imagem já havia chegado a pessoas que Renata não conhecia fora da escola | • A mãe não culpou Renata e não perguntou “por que você tinha esse tipo de foto” — o que permitiu que ela falasse tudo • Registraram BO, acionaram o Disque 100 (criança e adolescente), e a escola foi notificada formalmente • O caso foi tratado como crime contra menor (Estatuto da Criança e do Adolescente + Lei 15.123/2025) — o que aumentou a penalidade • Renata iniciou acompanhamento psicológico pelo CAPS do município • Lição principal deste caso: 72 horas de silêncio triplicaram o alcance da imagem. A maior proteção para adolescentes não é o app de privacidade — é saber que pode contar para um adulto de confiança sem ser julgada. Essa conversa precisa acontecer antes do crime, não depois. |
Mapa completo de apoio: onde ir, o que usar e quem acionar dependendo da sua situação
Esta não é uma lista genérica — é o mapa de decisão: use sua situação atual para identificar o canal certo e o que esperar de cada um.
| Situação | Canal / Ferramenta | Gratuito? | O que oferece |
|---|---|---|---|
| Preciso bloquear a imagem nas redes sociais agora | StopNCII.org stopncii.org/pt-br | ✅ Sim | Hash da imagem distribuído para plataformas parceiras — bloqueia compartilhamento no Instagram, Facebook, TikTok e outros. Taxa de remoção acima de 90% nas plataformas parceiras. |
| Preciso verificar se uma imagem é deepfake | Hive Moderation hivemoderation.com | ✅ Sim | Upload da imagem → análise por IA → percentual de probabilidade de ser gerada artificialmente. Resultado em segundos. |
| Preciso denunciar o crime formalmente | Delegacia virtual do seu estado + SaferNet Brasil new.safernet.org.br/denuncie | ✅ Sim | BO online + denúncia formalizada. A SaferNet recebe e encaminha às autoridades competentes, inclusive com possibilidade de identificação do agressor via IP. |
| Preciso de orientação jurídica de emergência | SaferNet Helpline new.safernet.org.br/helpline + OAB do seu estado | ✅ Sim (SaferNet) | Consulta inicial gratuita (OAB) | Atendimento humanizado online com orientação sobre crimes digitais. A OAB oferece consulta de primeiro atendimento gratuita para quem não pode pagar honorários. |
| Sou mulher em situação de violência ou ameaça | Disque 180 (Central de Atendimento à Mulher) | ✅ Sim — gratuito, 24h, funciona sem crédito | Atendimento, orientação legal e encaminhamento. Sigiloso. Atende também casos de violência digital incluindo deepfake sexual e chantagem. |
| A vítima é menor de 18 anos | Disque 100 + TakeItDown (NCMEC) takeitdown.ncmec.org/pt-pt | ✅ Sim — ambos gratuitos | Disque 100: denúncia de violação de direitos de crianças e adolescentes. TakeItDown: serviço específico para remover imagens íntimas de menores da internet, operado pelo Centro Nacional para Crianças Desaparecidas e Exploradas (EUA) com alcance global. |
| Preciso de suporte emocional urgente | CVV — Centro de Valorização da Vida 188 ou chat em cvv.org.br | ✅ Sim — 24h, sigiloso, sem crédito | Apoio emocional em crise. O trauma de deepfake sexual pode ser severo — buscar ajuda emocional é parte do protocolo, não complemento. |
| Quero remover a imagem do Google | Formulário de remoção do Google support.google.com → “Remover informações” | ✅ Sim | Solicita a remoção da imagem dos resultados de busca. O Google tem categoria específica para imagens íntimas não consensuais — prazo médio de resposta de 3 a 7 dias úteis. |
👉 Amanda aconselha:
- Se você está lendo isso de forma preventiva — ainda não aconteceu nada com você: Faça as três ações do bloco de abertura deste guia agora, antes de continuar lendo. Perfil privado + StopNCII.org + verificação em duas etapas. Leva 10 minutos e fecha os três principais vetores de risco. A prevenção parece exagerada até o dia em que você precisa dela — e nesse dia você vai agradecer os 10 minutos que gastou hoje.
- Se você é mãe, pai ou responsável por uma adolescente: A proteção técnica (configurações, privacidade, ferramentas) é necessária mas insuficiente. O que realmente protege adolescentes é a conversa franca — e o compromisso de que ela pode chegar até você sem medo de julgamento se algo acontecer. No Caso 3 deste guia, 72 horas de silêncio triplicaram o dano. Converse agora, antes que a situação exija. Mostre este guia para ela. Leia junto. A informação é mais protetora do que qualquer configuração de privacidade.
- Se você já está em crise e acabou de encontrar o Protocolo SOS: Você fez certo em chegar até aqui. Não pague, não apague nada, documente tudo, ligue para o 180. Você não está sozinha — e o que está acontecendo com você é crime, não vergonha. A vergonha pertence inteiramente ao agressor. Agora: respire, pegue o celular, e siga as 7 etapas do protocolo uma por vez. Uma de cada vez é suficiente.
FAQ
- Posso ser criminalmente responsabilizada por compartilhar a imagem para mostrar à polícia? Não, se o compartilhamento for restrito ao necessário para a investigação (delegada, advogado, perita). O que você deve evitar é compartilhar com outras pessoas “para mostrar” — cada encaminhamento amplifica a disseminação e pode caracterizar coparticipação. A forma mais segura é levar o celular com a imagem salva diretamente à delegacia ou à SaferNet.
- O StopNCII.org funciona para deepfakes ou só para fotos reais? Ele funciona para qualquer imagem íntima — real ou gerada por IA. Você pode cadastrar tanto fotos íntimas reais suas (para prevenir futuros vazamentos) quanto a própria imagem deepfake que foi criada (para bloquear a disseminação dela). Em ambos os casos, a imagem não é enviada — só o hash matemático é compartilhado com as plataformas parceiras.
- O perfil privado no Instagram garante proteção total? Não — garante proteção para desconhecidos, mas não para seguidores aprovados. A maioria dos casos de deepfake de pessoas comuns (não celebridades) envolve alguém do círculo próximo: ex-parceiro, colega de escola ou trabalho, familiar com quem o relacionamento se deteriorou. Revise sua lista de seguidores e remova ou restrinja contas de pessoas com quem o relacionamento se tornou conflituoso.
- A lei brasileira pune o criador do deepfake mesmo que a imagem nunca tenha sido divulgada? Sim — a Lei nº 15.123/2025 e o projeto aprovado pela Câmara em 2025 tipificam a criação do deepfake sexual como crime independentemente da divulgação. Criar a imagem já configura crime. A divulgação acrescenta penas adicionais. Se você souber que alguém criou uma imagem sua mesmo sem divulgar, o crime já está configurado e pode ser registrado.
Conclusão: a proteção começa antes do crime — e a reação começa antes do medo paralisar
O golpe das fotos íntimas com IA não é sofisticado — ele é fácil, barato e invisível até o momento em que o dano já está acontecendo. A barreira que ele explora não é técnica: é o tempo entre a imagem ser criada e a vítima saber o que fazer. Cada ferramenta, script e etapa deste guia foi construída para fechar essa janela — para que quando (e se) acontecer, você já saiba exatamente o próximo passo, sem precisar pesquisar sob pressão, sem tomar decisões erradas no pânico e sem sentir que não tem para onde ir.
O retorno concreto das ações preventivas é mensurável: perfil privado elimina o principal vetor de acesso a suas fotos por desconhecidos. StopNCII.org bloqueia a disseminação em mais de 90% das ocorrências nas plataformas parceiras. BO registrado nas primeiras 24 horas aumenta em 80% a chance de identificação do agressor. Esses não são números motivacionais — são os dados de eficácia das ferramentas documentados pelos próprios sistemas que as operam.
O próximo passo é de 5 minutos: abra o Instagram agora, vá em Configurações e privacidade, e ative a conta privada. Depois abra o StopNCII.org e cadastre as fotos que você não quer ver nunca circulando sem seu consentimento. Mostre este guia para uma mulher que você ama. Essa ação de compartilhamento vale mais do que qualquer configuração — porque o crime prospera no silêncio, e a proteção começa na informação. A imagem é falsa. A dor é real. A lei existe. A ação é possível. — e você agora sabe como dar cada uma dessas etapas.
Se você já tentou vender online, mas travou na criação de conteúdo, na conversa com o cliente ou no posicionamento. Este combo vai te entregar o mapa:
- Aprenda a conversar com a IA como um estrategista.
- Venda todos os dias no Instagram sem parecer vendedora.
- Posicione sua marca como expert com leveza e propósito.
Tudo isso com prompts prontos, estratégias de verdade e metodologia simples — testada e validada.
💡 Se você sente que tem potencial, mas não sabe como transformar isso em venda: Este é o passo certo.
R$19. Pagamento único. Menos que um lanche no iFood. Acesso vitalício. 💥 Se esse artigo te deu clareza, imagina ter um plano pra vender com IA todos os dias?
Ei, antes de ir: se este conteúdo te ajudou, você não pode perder o que separamos nestas outras categorias. É conhecimento de nível pago, entregue de graça aqui:
💬 Participe da comunidade: Escrevi este guia com a intenção de entregar um valor absurdo, da forma mais simples que encontrei. Se ele te ajudou de alguma forma, a melhor maneira de retribuir é compartilhando sua opinião.
Deixe seu comentário 👀 Faz sentido? Acha que as dicas valem o teste? Seu feedback é o combustível que me ajuda a criar conteúdos ainda melhores para você. E se você já testou algum prompt, compartilhe seus resultados! Amaria saber o que você criou :))
ps: obgda por chegar até aqui, é importante pra mim.