O Starling Bank, do Reino Unido, fez mais um alerta sobre os perigos do mau uso da inteligência artificial. Segundo o banco britânico, milhões de pessoas podem ser vítimas de golpes que estão usando IA para clonar vozes.
Uso da IA para clonar vozes deixa golpe mais crível
- Em comunicado, o Starling Bank disse que os golpistas são capazes de usar a IA para replicar a voz de uma pessoa a partir de apenas três segundos de áudio.
- Para isso, eles só precisam de um vídeo que este indivíduo tenha postado na internet.
- Com este material em mãos, eles identificam os amigos e familiares da pessoa e usam a voz clonada para fazer uma ligação e pedir dinheiro.
- A técnica é uma evolução dos golpes mais comuns, que se passam por uma pessoa para pedir transferências por mensagens.
- O uso da voz clonada, no entanto, torna a ação muito mais perigosa e aumenta as chances de sucesso dos criminosos.
Leia mais
Muitas pessoas já foram lesadas por este tipo de golpe
De acordo com uma pesquisa com mais de três mil pessoas que o banco realizou com a Mortar Research no mês passado, mais de um quarto dos entrevistados disseram ter sido alvo de um golpe de clonagem de voz de IA nos últimos 12 meses.
A pesquisa também mostrou que 46% dos entrevistados não sabiam que tais golpes existiam e que 8% enviariam o dinheiro pedido por um amigo ou membro da família, mesmo que achassem a ligação estranha.
Em função disso, o Starling Bank está incentivando as pessoas a criar uma “frase segura” e compartilhar ela com familiares. A ideia é que seja uma frase simples e aleatória, fácil de lembrar e diferente de suas outras senhas, que pode ser usada para verificar a identidade da pessoas durante uma ligação telefônica.
O banco ainda observa que esta frase não deve ser compartilhada por mensagens de texto em nenhum momento, já que isso poderia facilitar o acesso de criminosos ao conteúdo dela. As informações são da CNN.