Brasil

Criminosos utilizam inteligência artificial para fraudes com vídeos deep fake

Técnica manipula imagem e voz de famosos e pessoas comuns

Escrito por Meon

04 NOV 2024 - 20H45 (Atualizada em 05 NOV 2024 - 07H45)

reprodução

A crescente sofisticação da tecnologia de inteligência artificial trouxe à tona novos riscos de fraudes, especialmente por meio de uma técnica conhecida como "deep fake". Criminosos estão utilizando essa ferramenta para manipular vídeos, alterando rostos e vozes de pessoas reais para criar gravações que enganam os espectadores.

Recentemente, imagens de figuras conhecidas, como o apresentador Reinaldo Gottino e o médico Drauzio Varella, foram manipuladas para promover produtos para problemas auditivos, tentando ludibriar consumidores desavisados. No entanto, os golpes não se restringem a celebridades. A vendedora Sara, por exemplo, teve a conta de sua loja invadida por hackers que utilizaram sua imagem e voz para enganar clientes, convencendo-os a participar de um esquema de pirâmide.

Esse tipo de fraude tem gerado preocupações sobre a segurança online e a confiança nas comunicações digitais. Especialistas alertam que a facilidade com que esses vídeos podem ser produzidos torna a identificação de fraudes ainda mais desafiadora. O fenômeno dos deep fakes não só ameaça a reputação das pessoas envolvidas, mas também coloca em risco a integridade financeira de muitos consumidores.


Seja o primeiro a comentar

Os comentários e avaliações são de responsabilidade exclusiva de seus autores e não representam a opinião do site.

0

Boleto

Reportar erro!

Comunique-nos sobre qualquer erro de digitação, língua portuguesa, ou de uma informação equivocada que você possa ter encontrado nesta página:

Por Meon, em Brasil

Obs.: Link e título da página são enviados automaticamente.