05 de Maio de 2025
facebook twitter instagram youtube

BRASIL Terça-feira, 01 de Abril de 2025, 07:50 - A | A

01 de Abril de 2025, 07h:50 - A | A

BRASIL / ENTENDA

Informações pessoais de quem usa foto para criar imagens em ChatGPT podem estar em risco

Dados biométricos faciais ficam mais vulneráveis ​​a ataques de roubo ou vazamento, facilitando hackeamento de contas

La Nacion
O Globo



Os filmes do Studio Ghibli geralmente têm um estilo de animação único que diverte milhões de pessoas, e, com a nova atualização do ChatGPT, as pessoas podem recriar suas imagens com esse estilo. Mas o que elas não sabem é que isso pode ser um risco, porque as informações ficam em algum lugar na web, e os criminosos podem usá-las para roubá-las.

Essas novas tendências geraram muita controvérsia, pois alguns concordam, enquanto outros acreditam que a inteligência artificial está abusando da propriedade intelectual do estúdio. Embora pareça inofensivo, isso chamou a atenção de muitos usuários, já que as redes sociais estão cheias dessas imagens no estilo Studio Ghibli, mas há um risco em criar essas fotografias com inteligência artificial.

Qual é o risco de manipular essas imagens?

O uso de fotos pode ser uma ameaça, pois milhões de pessoas contribuem com seus dados biométricos para diversas ferramentas de inteligência artificial. Como fazem isso de graça, eles não percebem que esses dados permanecem na web.

Mónica Vargas, mestra em Inteligência Artificial, explicou: "Quando o usuário utiliza essas ferramentas gratuitamente, o produto é o usuário, ou seja, seus dados são vendidos, por exemplo, para anunciar outros produtos. É por isso que você recebe coisas nas redes sociais associadas ao seu comportamento".

Ao enviar essas imagens para a web, os dados biométricos faciais ficam mais vulneráveis a ataques de roubo ou vazamento, facilitando o hackeamento de contas e representando um risco maior à segurança. Continue lendo em Globo

  ENTRE EM NOSSO CANAL AQUI  

RECEBA DIARIAMENTE NOSSAS NOTÍCIAS NO WHATSAPP! GRUPO 1  -  GRUPO 2  -  GRUPO 3

Comente esta notícia