Os ataques cibernéticos e de phishing continuam a aumentar e representam uma séria ameaça à segurança das empresas e dos usuários. De acordo com um relatório da Cybersecurity Ventures, o custo dos danos causados pelo crime cibernético deverá atingir 265 trilhões de dólares anualmente até 2031. Neste contexto, é fundamental reforçar a segurança nos aplicativos e plataformas que utilizamos diariamente.
Técnicas avançadas para combater deepfakes
No campo da verificação de identidade digital existem atualmente dois vetores de ataque: ataques de apresentação ou PAD pela sigla em inglês e ataques de injeção ou IAD pela sigla em inglês. Em primeiro lugar, para garantir que a tecnologia de detecção de ataques de apresentação atende aos padrões do Estado da Arte, é essencial ter certificações como iBeta Nível 1 e IBeta Nível 2, ou estar bem posicionado no FATE PAD do NIST.
Por outro lado, o vetor de ataque dos deepfakes é um pouco mais complexo. Para que um ataque com essas características ocorra, ele deve ser feito por meio de um ataque de injeção.
Atualmente, no âmbito do grupo de trabalho CEN TC 224/WG18 “Detecção de injeção de dados biométricos” (Biometric data injection detection, em inglês), está sendo feito um trabalho para desenvolver uma norma ISO específica para este tipo de ameaças; este vetor de ataque não possui atualmente um esquema de certificação que possa ser tomada como referência. Isso ocorre porque a injeção de imagens ou vídeos afeta tanto o hardware quanto o software usado para capturar as evidências que verificam digitalmente a identidade. Por esse motivo, é comum ver abordagens que atacam o problema a partir de diversas camadas de segurança:
- Técnicas baseadas na proteção da segurança e integridade do software e do hardware utilizados para capturar e comunicar provas (cibersegurança).
- Técnicas para avaliar a integridade dos dados. Por exemplo, através da implementação de marcas d’água, ou através da análise da origem da amostra biométrica.
- Técnicas de análise forense de imagens. Essas técnicas buscam detectar evidências que sugiram injeção de imagem ou vídeo.
- Técnicas baseadas em IA para detectar deepfakes ou para detectar personificação de rosto.
Facephi, garantindo segurança
Na Facephi, aplicamos uma estratégia de segurança multicamadas, utilizando inteligência artificial para melhorar a precisão e a eficiência do processo de verificação de identidade. Algoritmos de aprendizado de máquina podem ajudar a detectar e prevenir fraudes e roubo de identidade. Não nos concentramos apenas na detecção de deepfakes, mas também avaliamos o processo de captura, processamento e análise da própria imagem. Isto inclui cibersegurança robusta, integridade de dados e análise de imagens baseada em inteligência artificial.