NATANAELGINTING VÍA FREEPIK.
MADRID 10 mar. (Portaltic/EP) - O YouTube ampliou sua ferramenta de detecção de imagens “deepfakes” impulsionadas por inteligência artificial (IA) para políticos e jornalistas, que agora poderão verificar se sua imagem está sendo usada em vídeos sem permissão.
A plataforma lançou essa ferramenta em outubro do ano passado como uma forma de ajudar os criadores de conteúdo a combater os deepfakes que usam sua imagem e voz em vídeos para os quais não deram seu consentimento.
Assim, trata-se de uma opção para supervisionar a forma como a imagem de um criador de conteúdo, criada ou modificada com IA, aparece, para ajudar a proteger sua identidade, especialmente em vídeos manipulados para refletir uma visão que ele não compartilha.
Agora, o YouTube estendeu essa ferramenta para funcionários do governo, políticos e jornalistas, como parte de um teste piloto, para que eles possam se certificar de que sua imagem não está sendo usada em vídeos deepfake sem permissão. Conforme explicado pela empresa em um comunicado em seu blog, essa ferramenta funciona de maneira semelhante ao Content ID, o sistema do YouTube para detectar e proteger conteúdos com direitos autorais. Nesse caso, ela se concentra na detecção de imagens e na busca por rostos de pessoas que estão dentro do programa de detecção de deepfakes. Caso o sistema encontre uma correspondência, a pessoa do programa pode solicitar que o conteúdo seja removido da plataforma, embora essa solicitação deva ser aprovada pelo YouTube, com base em suas políticas de privacidade.
Nesse sentido, deve-se levar em conta que a ferramenta oferece uma forma eficaz de identificar possíveis falsificações não autorizadas, mas não garante sua remoção. Isso se deve ao fato de que, no caso de figuras públicas, o YouTube protege a “liberdade de expressão”, preservando conteúdos como paródias e sátiras, “mesmo quando usados para criticar líderes mundiais ou figuras influentes”.
Com tudo isso, para participar do programa de detecção de deepfakes, os políticos e jornalistas interessados deverão verificar sua identidade antes de se inscrever, para o que deverão compartilhar um vídeo seu e um documento de identificação oficial. Assim, esses dados serão usados exclusivamente para a verificação de identidade, e não para treinar modelos de IA generativa do Google.
Esta notícia foi traduzida por um tradutor automático