FBI adverte sobre esquemas de extorsão de Deepfake de IA
As habilidades da IA generativa para criar imagens realistas são impressionantes, mas o Federal Bureau of Investigation dos EUA diz que os criminosos estão usando deepfakes para direcionar as vítimas para extorsão.
"O FBI continua recebendo relatórios de vítimas, incluindo crianças menores de idade e adultos não consentidos, cujas fotos ou vídeos foram alterados para conteúdo explícito", disse a agência em um alerta PSA na segunda-feira.
O FBI diz que as agências policiais receberam mais de 7.000 relatórios no ano passado de extorsão online contra menores, com um aumento nas vítimas dos chamados "golpes de sextorção" usando deepfakes desde abril.
Um deepfake é um tipo cada vez mais comum de conteúdo de vídeo ou áudio criado com inteligência artificial que retrata eventos falsos que são cada vez mais difíceis de discernir como falsos, graças a plataformas de IA generativas como Midjourney 5.1 e DALL-E 2 da OpenAI.
Em maio, um deepfake do CEO da Tesla e do Twitter, Elon Musk, feito para enganar os investidores em criptomoedas, se tornou viral. O vídeo compartilhado nas mídias sociais continha imagens de Musk de entrevistas anteriores, editadas para se adequar ao golpe.
Deepfakes não são todos maliciosos, um deepfake do Papa Francisco vestindo uma jaqueta branca da Balenciaga se tornou viral no início deste ano e, mais recentemente, deepfakes gerados por IA também foram usados para trazer vítimas de assassinato de volta à vida.
Em suas recomendações, o FBI alertou contra o pagamento de qualquer resgate porque isso não garante que os criminosos não postarão o deepfake de qualquer maneira.
O FBI também recomenda cautela ao compartilhar informações pessoais e conteúdo on-line, incluindo o uso de recursos de privacidade, como tornar as contas privadas, monitorar a atividade on-line de crianças e observar comportamentos incomuns de pessoas com quem você interagiu no passado. A agência também recomenda realizar pesquisas frequentes de informações pessoais e familiares online.
Outras agências que soaram o alarme incluem a Comissão Federal de Comércio dos EUA, que alertou que criminosos têm usado deepfakes para induzir vítimas inocentes a enviar dinheiro depois de criar um deepfake de áudio de um amigo ou membro da família que diz ter sido sequestrado.
"A inteligência artificial não é mais uma ideia rebuscada de um filme de ficção científica. Estamos vivendo com ela, aqui e agora. Um golpista pode usar IA para clonar a voz de seu ente querido", disse a FTC em um comunicado. alerta do consumidor em março, acrescentando que todas as necessidades do criminoso são um pequeno clipe de áudio da voz de um membro da família para tornar a gravação real.
O FBI ainda não respondeu ao pedido de comentário de Decrypt.