Fabrício Carraro, da Alura, alerta sobre poder de persuasão da técnica e ensina a identificar conteúdos falsos.
O uso de inteligência artificial (IA) para modificar vídeos e imagens e criar conteúdo falso, técnica conhecida como deepfake, cresceu 830% no Brasil no último ano. Os dados são de um relatório da Sumsub, plataforma de verificação de identidade.
Para Fabrício Carraro, Program Manager da Alura, embora a IA tenha sido desenvolvida para trazer mais eficiência e agilidade ao cotidiano, ela também tem sido utilizada de forma maliciosa. As deepfakes, por exemplo, permitem a sobreposição de rostos e vozes em produções audiovisuais ao sincronizar movimentos dos lábios e expressões faciais de maneira realista.
Isso dificulta distinguir o vídeo original do falso, fazendo com que muitas pessoas acreditem nos conteúdos e acabem sendo vítimas de golpes financeiros ou disseminando desinformação. “Por isso, é crucial exercer sempre um nível saudável de ceticismo e saber identificar essas falsificações, para que menos pessoas sejam enganadas e repercutam informações equivocadas”, diz Carraro.
Para auxiliar as pessoas a não caírem nesses golpes, o especialista listou cinco dicas de como identificar uma deepfake.
Saber de onde vem uma informação antes de compartilhá-la ou mesmo acreditar nela é o primeiro passo para não cair em uma deepfake. Carraro indica sempre utilizar fontes confiáveis e reconhecidas no momento de se informar, como sites de notícias estabelecidos e organizações respeitáveis.
“Procurar evidências que corroborem aquele assunto em mais de um canal e comparar esses conteúdos, com certeza será essencial para certificar que se trata de algo real”, complementa.
Examinar cuidadosamente o vídeo ou a imagem em questão é outra forma de encontrar manipulações. Achar inconsistências no conteúdo, como distorções visuais, cortes abruptos, falhas de áudio ou edições suspeitas, é um grande ponto de atenção.
Para o especialista, os detalhes são a chave para essa análise. “Deepfakes podem ter pequenas falhas que são detectadas com uma observação minuciosa. Fique atento desde as expressões faciais e movimentos corporais das pessoas dos vídeos até contextos do cenário”, pontua.
Muitas ferramentas podem impulsionar a supervisão humana para aumentar a precisão na detecção de deepfakes. Carraro ressalta que os algoritmos podem ser capazes de ajudar a identificar possíveis sinais de manipulação, complementando a revisão dos humanos sobre as suspeitas.
“A análise forense de vídeos, assinaturas digitais e marcas d’água são apenas alguns dos recursos que podem ajudar a verificar a autenticidade de materiais digitais e ser grandes aliados na luta contra o uso incorreto da IA”, diz o especialista.
Com a IA crescendo, mais pessoas buscam se aprofundar no tema. Muitas delas podem oferecer insights e análises técnicas para ajudar a determinar se o conteúdo é genuíno ou deepfake. “Se estiver em dúvida sobre a autenticidade de uma informação, não hesite em consultar especialistas em análise de mídia ou segurança cibernética”, aconselha.
Educar-se sobre o assunto também é um passo importante, não só para que a própria pessoa não acredite em vídeos modificados, mas também ajude a conscientizar a população sobre o tema. Familiarizar-se, pelo menos com as técnicas comuns de manipulação de mídia, já é uma ótima iniciativa nesse sentido.
https://itforum.com.br/noticias/golpes-ia-5-dicas-deepfake/
Para participar de nossa Rede Têxtil e do Vestuário - CLIQUE AQUI
Bem-vindo a
Industria Textil e do Vestuário - Textile Industry - Ano XVI
© 2024 Criado por Textile Industry. Ativado por
Você precisa ser um membro de Industria Textil e do Vestuário - Textile Industry - Ano XVI para adicionar comentários!
Entrar em Industria Textil e do Vestuário - Textile Industry - Ano XVI