Saltar para o conteúdo

Violência digital: Estes números mostram como os ataques se multiplicam rapidamente devido à IA.

Homem sentado a usar telemóvel e portátil com gráficos digitais numa mesa de madeira num escritório.

O chat aparece, do nada, a meio de uma viagem de metro.

“Eu sei onde vives.” A mensagem vem acompanhada por uma fotografia da própria porta de casa: com alguns pixels a ocultar detalhes, mas inequívoca. A suposta remetente não existe: o perfil é recente, a imagem parece gerada por inteligência artificial, o nome é inventado. Cinco minutos depois, o telemóvel vibra outra vez - e outra: contas novas, ameaças novas, imagens novas. Tudo artificial, tudo assustadoramente plausível.

A mulher sentada no corredor segura o smartphone como se queimasse. As mãos tremem. Olha em redor, como se o agressor pudesse estar escondido atrás do banco seguinte. Algures, num servidor, há modelos a tentarem copiar a sua voz, a sua cara, a sua vida. O ataque já não parece vir de uma única pessoa, mas de uma máquina treinada para atropelar seres humanos. E os números sugerem que ela não é um caso isolado.

Como a violência digital se multiplica com IA

Durante muito tempo, a violência digital tinha um “tamanho” reconhecível: um perseguidor, um perfil falso, um punhado de mensagens ameaçadoras. Hoje, muitas vítimas descrevem a sensação como a de um enxame. Uma ferramenta de IA consegue criar em segundos dezenas de contas, redigir textos em português impecável e até imitar registos e maneirismos linguísticos. O que antes exigia dias de insistência passa a acontecer com um clique irritado.

Muita gente conhece aquele momento em que uma mensagem “dá um nó no estômago”. Só que, na era da IA, raramente fica por uma só. O ataque chega em simultâneo por e-mail, mensagem privada e comentários públicos. Soa a pessoas - mas, muitas vezes, é apenas código a disparar em série. E quando não há intervenção rápida, a escalada tende a ser implacável.

Investigadores da Universidade de Cambridge estimam que o assédio automatizado com recurso a IA generativa pode escalar até 1.000 vezes mais depressa do que o trolling “clássico”. Na Alemanha, a organização HateAid registou em 2023 um aumento superior a 70% nos casos reportados de violência digital com ligação a IA - desde imagens de nudez em deepfake a mensagens de voz sintéticas e conversas falsas “fabricadas”.

Uma professora contou como, de um dia para o outro, um vídeo deepfake começou a circular na escola: o seu rosto colocado num clip pornográfico. Em menos de 12 horas, tinha sido partilhado em mais de 20 grupos de WhatsApp. O aluno que enviou o link primeiro recorreu a uma ferramenta online gratuita e terá demorado talvez cinco minutos. As consequências, essas, vão acompanhá-la durante anos.

A lógica por trás disto é brutalmente simples: onde antes era preciso tempo, conhecimento técnico e disponibilidade para a confrontação, agora bastam alguns prompts e um ego ferido. A IA baixa a barreira de entrada para a violência digital - literalmente “ao carregar num botão”. E, além disso, apaga pegadas. Quem fez a ameaça? Uma pessoa real, uma rede de bots, uma campanha meio automatizada? A investigação criminal corre atrás do prejuízo; as plataformas, muitas vezes, reagem tarde; os conteúdos, entretanto, espalham-se a alta velocidade. Para quem é alvo, a distinção técnica pouco importa: o medo é real. A insónia também.

Há ainda um efeito colateral que agrava a vulnerabilidade: o material de base necessário para ataques com IA é muitas vezes banal. Um vídeo público, uma nota de voz enviada a amigos, um selfie “inofensivo” podem ser suficientes para alimentar clonagem de voz, montagem de rosto ou falsificação de estilo de escrita. E é comum que as vítimas adiem o pedido de ajuda - por vergonha, por receio de “fazer barulho”, ou por acharem que “ainda não é grave o suficiente”.

Plano de emergência de violência digital com IA: o que fazer já (não “um dia”)

Enquanto a discussão política e tecnológica avança, quem é visado precisa, hoje, de passos concretos. Um dos mais úteis é preparar um plano de emergência de violência digital antes de acontecer alguma coisa. Pode soar burocrático, mas poupa energia quando o corpo entra em modo de choque.

A ideia é simples: ter, num local acessível, uma lista com ações e contactos - para não decidir tudo com o coração a bater a 200.

Muitos serviços de apoio recomendam nomear uma pessoa de confiança como “primeiro socorro digital”: alguém que, se houver ataque, ajuda a documentar, a reportar, a organizar. Toda a gente conhece aquele instante em que o pulso dispara e a cabeça fica em branco. É precisamente aí que a rotina vale mais do que a improvisação.

Convém reconhecer também um incómodo: parte dos conselhos de auto-proteção digital soa a manual de 2012 - palavras-passe fortes, autenticação de dois fatores, definições de privacidade. E sejamos honestos: quase ninguém faz isso “todos os dias”; quase ninguém lê 15 páginas de termos e condições; quase ninguém revê backups antigos para ver que imagens ficaram esquecidas. Só que, no contexto de agressões com IA, estas medidas ganham outra urgência, porque o custo de transformar um conteúdo num instrumento de humilhação desceu drasticamente.

Um jurista que investiga violência digital há anos resumiu-o de forma seca numa conversa:

“A IA não inventa necessariamente novas formas de violência; o que faz é rodar o botão do volume até ao máximo - e retirar às pessoas agressoras o pouco esforço que ainda tinham.”

Para aumentar a proteção, faz sentido olhar para três camadas em simultâneo:

  • Prevenção no dia a dia - gerir com mais consciência imagens, voz e dados de localização; rever definições de privacidade com regularidade; reduzir rastos “invisíveis”.
  • Reação em caso de ataque - guardar provas; evitar discussões diretas com agressores; envolver apoio especializado (por exemplo, linhas e serviços como a Linha Internet Segura, a APAV, e, consoante o caso, a Polícia Judiciária ou a PSP/GNR).
  • Pressão estrutural - exigir resposta rápida de plataformas e regras eficazes por parte de legisladores e reguladores.

Sem pressão coletiva sobre plataformas e decisores, cada pessoa fica desnecessariamente exposta no meio da tempestade de IA.

Um passo adicional, muitas vezes esquecido, é alinhar expectativas com a escola, a entidade patronal ou a instituição onde o dano se materializa. Quando um deepfake circula num contexto escolar ou profissional, é decisivo haver um protocolo: preservação de evidências, comunicação interna responsável, apoio psicológico, e medidas disciplinares quando aplicável. O silêncio institucional tende a ampliar o impacto e a normalizar o abuso.

Também ajuda preparar uma “pasta de crise” digital: capturas de ecrã com data e hora visíveis, links guardados, nomes de utilizador, IDs de publicações, e um registo cronológico do que aconteceu. Em Portugal, esta organização pode ser particularmente útil caso seja necessário articular com autoridades, com a CNPD (se houver dados pessoais expostos) ou com apoio jurídico.

Porque é que estes números dizem respeito a toda a gente

A realidade, por mais desconfortável que seja, é esta: a violência digital com ligação a IA deixou de ser um problema reservado a “figuras públicas”. Entra em grupos de turma, conversas de família, matches em apps de encontros, fóruns de bairro. Se um estudo da Agência dos Direitos Fundamentais da União Europeia indica que quase metade das mulheres jovens na Europa já viveu alguma forma de assédio digital, não estamos a falar de exceções - estamos a falar de um ambiente. E, nesse ambiente, a IA funciona como acelerador.

Um ex-parceiro anónimo, um colega ressentido, um grupo radicalizado: todos tiram partido de ferramentas que transformam frustração em campanhas em minutos. Mesmo quem nunca foi alvo direto, quase de certeza conhece alguém que já foi - e que, por receio ou cansaço, não contou.

Talvez o aspeto mais inquietante dos números atuais seja este: eles mostram apenas a ponta do icebergue. Muitas pessoas não reportam deepfakes nem ódio “feito por IA” por acharem que não vai adiantar. Ou por medo do chamado “efeito Streisand”: quanto mais se tenta remover, mais se amplifica a atenção. Em paralelo, as empresas continuam a desenvolver modelos cada vez mais capazes de imitar vozes com precisão, sincronizar lábios, copiar estilos de escrita. Se a sociedade ficar apenas a observar, admirada, o campo é entregue aos mais barulhentos e agressivos. A boa notícia é que ainda há margem para virar o jogo.

Cada denúncia feita a uma plataforma cria sinais que as equipas de moderação podem usar para melhorar deteções. Cada queixa formal, por lenta que pareça, pode abrir caminho para decisões judiciais e precedentes. Cada escola que discute deepfakes e consentimento digital em sala de aula fortalece jovens antes de serem alvo - ou antes de se tornarem autores do dano. E cada pessoa pode começar por não “passar à frente” quando vê humilhações, difamações ou ameaças geradas por IA no seu círculo.

A violência digital nasce no ecrã, mas manifesta-se em corpos reais, relações reais e percursos de vida reais. A questão não é se isto nos toca - é quão cedo decidimos agir.

Ponto central Detalhe Valor para quem lê
A IA multiplica a violência digital Bots automatizados, deepfakes e texto sintético permitem ataques em grande escala com esforço mínimo. Percebe porque é que as ameaças hoje são mais rápidas e massivas - e que isso não é falha pessoal.
Plano de emergência de violência digital Passos claros: guardar provas, envolver uma pessoa de confiança, contactar apoio especializado, denunciar às plataformas. Ganha um guião de ação em vez de ficar paralisado pelo choque.
A proteção é multicamadas Combinação de prevenção individual, reação inteligente e pressão política sobre plataformas e legislação. Entende que medidas pessoais ajudam, mas só com mudanças coletivas é que a proteção se torna robusta.

FAQ

  • Pergunta 1: Como reconheço que a violência digital é “apoiada por IA”?
    Sinais comuns incluem muitas mensagens num curto espaço de tempo, textos muito semelhantes vindos de várias contas, perfis pouco claros com imagens geradas, ou vozes “perfeitas demais”. Nem sempre é possível provar a utilização de IA com certeza - mas o impacto e a gravidade contam na mesma.

  • Pergunta 2: Posso defender-me legalmente contra deepfakes?
    Sim. Em Portugal podem estar em causa direitos de personalidade, direito à imagem, proteção de dados e, consoante o caso, ilícitos criminais (como ameaça, coação, difamação, devassa da vida privada). Reúna capturas de ecrã, links de download, timestamps e procure apoio jurídico ou uma entidade de apoio à vítima.

  • Pergunta 3: Devo responder às mensagens de ódio ou tentar “dar troco”?
    Na maioria dos casos, não. Responder alimenta a dinâmica, pode escalar o conflito e consome energia. Priorize documentar, denunciar e pedir apoio. Debater só faz sentido em espaços claramente moderados e com responsabilização real.

  • Pergunta 4: Como posso apoiar amigos que estão a ser atacados?
    Ouça, acredite e não desvalorize. Ajude de forma prática: fazer capturas de ecrã, preencher denúncias, acompanhar à polícia ou a uma entidade de apoio. E no seu meio deixe claro que não aceita partilhas que humilhem terceiros.

  • Pergunta 5: Estou a ser exagerado se decidir mostrar menos coisas sobre mim online?
    Não. Ser reservado no digital não é paranoia; é auto-proteção num contexto em que dados podem ser facilmente abusados. Cada pessoa tem o direito de escolher quanta exposição ainda lhe parece segura.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário