FBI registra aumento de casos de extorsão com uso de deepfakes e nudes criados por inteligência artificial
O FBI emitiu um alerta sobre o crescente número de casos de extorsão envolvendo a criação de nudez falsa por meio de ferramentas de edição por inteligência artificial (IA). Segundo a agência de inteligência, os casos de “sextorsão” estão se tornando mais frequentes com o uso de programas de IA que geram imagens realistas de nudez.
Os golpistas utilizam fotos comuns das vítimas compartilhadas em redes sociais e, a partir delas, criam conteúdos falsos com a ajuda da IA. Essas imagens e vídeos falsos são enviados diretamente às vítimas por atores maliciosos para fins de extorsão ou assédio, de acordo com o comunicado emitido pela agência.
Leia também: Carrefour afasta gerente acusado por funcionárias de assédio sexual
A sextorsão é um crime que envolve a ameaça de exposição de imagens íntimas de uma pessoa. Uma vez que o material circula, as vítimas enfrentam desafios significativos para impedir a disseminação contínua do conteúdo manipulado ou para conseguir sua remoção da internet, alerta o FBI.
A agência recomenda que o público seja cauteloso ao compartilhar imagens de si mesmo nas redes sociais, mesmo que seja um conselho difícil de seguir. O alerta ressalta que apenas algumas imagens ou vídeos são necessários para criar um deepfake, e ninguém está completamente protegido contra tais esquemas de extorsão, a menos que remova todas as suas imagens da web.
O The Verge destaca que os deepfakes de nudes (imagens falsas altamente realistas) começaram a se espalhar na internet em 2017, quando usuários de fóruns como o Reddit passaram a utilizar novos métodos de IA para criar conteúdo explícito de celebridades femininas.
Embora tenha havido algumas tentativas de conter a disseminação desse conteúdo, as ferramentas e os sites para criação de deepfakes se tornaram mais acessíveis, com sistemas de inteligência artificial que facilitam o processo de criação de imagens falsas.