Recentemente, se popularizou na imprensa o caso de um funcionário do setor financeiro em Hong Kong que transferiu mais de US$ 25 milhões para golpistas, depois que eles se passaram por seu diretor financeiro e outros colegas em uma videoconferência. Embora o funcionário suspeitou de um e-mail solicitando uma transação secreta, os criminosos agendaram uma videoconferência e utilizaram ferramentas de inteligência artificial para “imitar” seres humanos conhecidos pelo funcionário. A técnica tem nome: Deepfake.
O termo “Deepfake” é uma junção das palavras “deep learning” (aprendizado profundo) e “fake” (falso). É uma técnica de manipulação de mídia que utiliza inteligência artificial, especificamente machine learning e redes neurais, para criar conteúdo falso, como vídeos, áudios ou imagens, nos quais uma pessoa aparece fazendo ou dizendo algo que nunca fez ou disse na realidade.
Embora as deepfakes tenham algumas aplicações positivas, como na indústria de entretenimento para criar efeitos especiais ou dublagens, eles também têm sido usados de forma maliciosa para espalhar desinformação, difamar pessoas, criar notícias falsas e fraudes. Por causa disso, o surgimento de deepfakes tem levantado preocupações éticas, de segurança e de privacidade e tem impulsionado esforços para desenvolver métodos de detecção e combate a essa forma de manipulação.
A tecnologia, especialmente a inteligência artificial, está quebrando paradigmas em qualquer mercado. Treinar a máquina para que ela execute o pedido do ser humano será, no futuro, tão comum como “dar um Google”. Contudo, qual o limite dessa evolução ou revolução tecnológica? A resposta pode abrir uma série de discussões, mas não há outro caminho que conviver com essas transformações.
Frear o desenvolvimento tecnológico ou regular essas tecnologias significa entrar em um terreno perigoso de controle e censura. Ao mesmo tempo, a legislação de crimes cibernéticos, em todo o planeta, deve ser atualizada no mesmo ritmo da popularização dessas ferramentas de machine learning. A exemplo do que já existe hoje sobre a proteção de dados, embora tenha sido implementada tardiamente.
Do ponto de vista prático, as empresas devem estar cada vez mais conectadas com medidas de segurança cibernética. As ameaças não são apenas e-mails, arquivos, programas ou apps maliciosos, mas a falsificação de imagens realistas. Hoje é possível encontrar uma série de dicas de como identificar uma deepfake, mas todas elas podem estar obsoletas amanhã. Afinal, a evolução das ferramentas de inteligência artificial está cada vez mais veloz
Portanto, se torna cada vez mais forte os processos de compliance e também das equipes de Tecnologia da Informação. Elas podem contribuir para criar ferramentas com base em machine learning para o dia a dia de uma companhia, mas também são fundamentais para nos orientar no enfrentamento desses criminosos, utilizando a própria tecnologia como nossa aliada.
A inteligência artificial estará cada vez mais próxima do nosso cotidiano, desconfiar será uma ação constante. Contudo, devemos lembrar que no caso de Hong Kong, se em vez de uma videoconferência, o pedido e transferência tivesse sido feito na sala de reunião de forma presencial, o risco de fraude seria muito menor. O trabalho remoto ou híbrido tem muitas vantagens, mas em alguns casos o escritório físico faz toda a diferença.
Acompanhe nossas publicações em Mulheres Em Facilities e Venha para nosso grupo.
Escrito e publicado por Ana Paula Ribas dAvila Altman.





