Deepfakes ameaçam sistemas remotos de verificação de identidade, diz iProov
Soluções biométricas técnicas, como detecção de vida com base científica e inteligência ativa de ameaças, ocuparão o centro do palco na identificação de mídia sintética.
Daniel Molina, vice-presidente da iProov para América Latina. (Foto: Divulgação)
A verificação remota de identidade é um dos desafios mais prementes de uma era cada vez mais digital. Confirmar a identidade de uma pessoa sem vê-la física e pessoalmente é uma necessidade que continua a crescer em importância e dificuldade. Entre as ameaças mais insidiosas à verificação remota de identidade estão as deepfakes criadas por IA generativa. Embora deepfakes não sejam intrinsecamente prejudiciais, elas podem representar ameaças significativas à segurança.
Daniel Molina, vice-presidente da iProov para a América Latina, lembra que o olho humano é incapaz de distinguir com segurança entre imagens sintéticas e imagens reais. Isso fez com que a biometria alimentada por Inteligência Artificial tenha emergido como a defesa mais robusta contra deepfakes – e, portanto, o único método confiável de verificação remota de identidade.
“Na verdade, combater as deepfake requer investigação contínua e soluções de missão crítica com segurança em permanente evolução. Além disso, as pessoas também valorizam a conveniência da verificação biométrica facial – 72% dos consumidores em todo o mundo preferem a verificação facial para segurança online.”
No entanto, à medida que a tecnologia biométrica avança, os agentes maliciosos procuram métodos novos e mais sofisticados para comprometer estes sistemas. Molina ressalta que as deepfakes não são uma ameaça à segurança biométrica – eles são uma ameaça a qualquer método de verificação remota da identidade de um ser humano.
Ascensão da tecnologia Deepfake
As deepfake surgiram como uma diversão inofensiva, com pessoas criando vídeos e fotos para fins de entretenimento. No entanto, quando combinadas a intenções maliciosas e ferramentas de ataque cibernético, elas rapidamente se transformam em ameaças sinistras. O vice-presidente para América Latina da iProov lembra que as deepfakes rapidamente se tornaram em uma forma muito poderosa de lançar ataques de segurança cibernética, espalhar notícias falsas e influenciar a opinião pública, e muitas pessoas já se depararam com uma deepfake, mesmo sem perceber.
Molina ressalta que a tecnologia deepfake envolve o uso de ferramentas como imagens geradas por computador (CGI) e inteligência artificial para alterar a aparência e o comportamento de alguém. “Algoritmos de aprendizado de máquina (machine learning) trabalham para gerar conteúdo sintético altamente realista para imitar comportamentos humanos, incluindo expressões faciais e fala”, frisa o executivo, ao destacar que quando usada de forma maliciosa, as deepfake podem ser empregadas para criar identidades falsificadas, imitar pessoas e obter acesso a locais seguros, por exemplo.
Devido à sofisticação da tecnologia, conteúdo deepfake muitas vezes parece altamente realista para humanos treinados e até mesmo para algumas soluções de verificação de identidade – tornando difícil distinguir o genuíno do sintético. O ritmo de rápida evolução da IA significa que os deepfakes também estão evoluindo continuamente – eles não são uma ameaça estática.
Segundo Daniel Molina, a verificação biométrica facial emergiu especificamente como o único método confiável de verificação remota de identidade porque outros métodos biométricos não podem verificar a identidade, apenas autenticá-lo.
“Isso ocorre porque a voz, a íris e outros componentes biométricos geralmente não estão em nenhum dos seus documentos de identidade (ao contrário do seu rosto). Assim, não se tem nada confiável para verificar os dados biométricos – nenhuma fonte de verdade”, explica o vice-presidente da iProov para América Latina. Ele ressalta que mesmo que uma organização tenha acesso a dados oficiais de impressões digitais, por exemplo, ela não é escalonável como a verificação facial.
“O mesmo se aplica aos métodos tradicionais, como senhas e OTPs (Senhas de utilização única, pela sigla em inglês), que falharam totalmente em manter os usuários seguros online. Desse modo, é impossível ter 100% de certeza da identidade de alguém só porque essa pessoa sabe algo (uma senha) ou possui algo (um telefone com um código), por exemplo”, explica Molina. Além disso, a clonagem baseada em IA é uma ameaça a todos os métodos biométricos, sendo a voz o componente biométrico mais fácil de clonar.
Ao destacar os riscos das deepfakes, Molina afirma que é importante enfatizar o quão crítica uma solução robusta de verificação facial deve ser para se defender delas, e também para educar as organizações sobre as diferenças que envolvem as soluções disponíveis. Ele cita o Guia de Mercado do Gartner de 2023, que ressalta que “os líderes de segurança e gerenciamento de risco devem tornar a detecção de deepfake um requisito fundamental e devem suspeitar de qualquer fornecedor que não esteja discutindo proativamente suas capacidades”.
Para mitigar os riscos associados a ataques deepfake a sistemas biométricos, o vice-presidente para a América Latina da iProov destaca medidas que podem ser implementadas:
• Biometria multimodal: A combinação de vários métodos biométricos, como verificação facial e digitalização de impressões digitais, pode aumentar a segurança, tornando mais difícil para os invasores falsificarem múltiplas modalidades simultaneamente.
• Detecção de vida: A implementação de verificações de detecção de vida com base científica pode ajudar a diferenciar entre dados biométricos reais e representações sintéticas, como deepfakes que não possuem sinais vitais de vida.
• Monitoramento contínuo: Os sistemas biométricos devem incorporar monitoramento contínuo e detecção de anomalias para identificar padrões ou comportamentos incomuns que possam indicar um ataque deepfake. As organizações devem adotar técnicas avançadas que possam se adaptar ao cenário em rápida aceleração das ameaças cibernéticas (e não aquelas que dependem de defesas estáticas – a solução é um serviço em evolução e não um software).
“Soluções biométricas técnicas, como detecção de vida com base científica e inteligência ativa de ameaças, ocuparão o centro do palco na identificação de mídia sintética. No entanto, a investigação humana e as competências de pensamento crítico ainda são essenciais quando se trata de identificar ameaças potenciais”, conta Daniel Molina, ao acrescentar que a solução definitiva “reside em combinar os pontos fortes dos seres humanos e da automação para criar uma solução infalível – como faz a iProov, utilizando nossa verificação biométrica de missão crítica com nossos recursos iSOC (Centro de Operações de Segurança da iProov).”