
Madrid, 15 dez 2025 (Lusa) — Os ‘deepfakes’ (conteúdo manipulado com Inteligência Artificial (IA)), cada vez mais realistas e modificados em tempo real, serão uma das principais ameaças de 2026, concluiu um relatório empresa de segurança Kaspersky.
O relatório ‘Kaspersky Security Bulletin 2025 Statistics’ revela que a IA marcará o panorama da cibersegurança em 2026, através de modelos de linguagem e inteligência generativa que irão melhorar as capacidades de proteção, mas também ampliar as possibilidades de ciberataques por parte dos cibercriminosos.
Os ‘deepfakes’, caracterizados pelo uso de ferramentas de IA para manipular imagens e vídeos com grande realismo, continuarão a aperfeiçoar-se, especialmente no que diz respeito ao áudio, com os programas geradores ainda mais fáceis de usar e sem necessidade de conhecimentos técnicos, o que multiplicará o risco para uso malicioso.
As plataformas sociais e os serviços digitais têm sistemas que detetam o conteúdo gerado por IA e rotulam-no como tal, para alertar os utilizadores sobre o que estão a ver.
No entanto, outro ponto que o relatório da Kaspersky destaca é que ainda não existem critérios uniformes e muitas das etiquetas atuais podem ser facilmente removidas.
Por isso, a empresa espera que no próximo ano surjam novas iniciativas técnicas e normativas para tentar diminuir essa lacuna.
Nesta evolução dos ‘deepfakes’, o mais notável é a possibilidade de realizar alterações em tempo real, ou seja, que os cibercriminosos modifiquem o rosto ou a voz durante uma videochamada, melhorando o realismo e tornando-os ferramentas muito eficazes para ciberataques direcionados.
Além disso, os modelos de código aberto estão a atingir níveis de desempenho muito semelhantes aos modelos fechados, mas sem os mesmos mecanismos de controlo e proteção, facilitando o uso tanto para fins legítimos como para atividades maliciosas.
A IA será utilizada ao longo de toda a cadeia de ataque, desde a escrita até à procura de vulnerabilidades ou à implantação de ‘malware’, tornando mais difícil distinguir o que é real do que é manipulado, ao mesmo tempo que atores mal-intencionados tentam ocultar os vestígios da utilização da tecnologia para dificultar a análise.
Ainda assim, o relatório salienta que a IA poderá ser uma aliada das equipas de cibersegurança, por exemplo, para detetar vulnerabilidades e oferecer informações contextuais já preparadas para os analistas.
PYR // EA
Lusa/Fim
