MADRID 13 mar. (Portaltic/EP) -
O uso de ferramentas orientadas por Inteligência Artificial (IA) para gerar e modificar conteúdos como fotografias, áudio e vídeo está na ordem do dia e, no âmbito do novo projeto de lei sobre governança de IA aprovado pelo governo espanhol, que torna obrigatória a marcação de qualquer conteúdo gerado usando essa tecnologia, estas são algumas das medidas de identificação usadas atualmente pelas empresas.
Com o advento de ferramentas de IA capazes de gerar todos os tipos de imagens e vídeos de forma simples, como o Imagine da Meta, o Firefly da Adobe ou o Dall-E da OpenAI, é necessário fornecer aos usuários um contexto informativo sobre o conteúdo que eles veem nas redes sociais e na Internet, a fim de evitar a disseminação de informações falsas.
Com isso em mente, o Conselho de Ministros aprovou na terça-feira um projeto de lei sobre a governança da Inteligência Artificial, um regulamento que adapta o Regulamento Europeu de IA, atualmente em vigor, à legislação nacional, a fim de ordenar o uso dessa tecnologia e proteger os direitos digitais dos usuários contra o "uso negativo".
Nesse sentido, o projeto de lei identifica práticas proibidas e sistemas de alto risco relacionados à IA. Assim, além de proibir o uso dessa tecnologia em técnicas subliminares para manipular decisões ou explorar vulnerabilidades relacionadas à idade ou à situação socioeconômica dos usuários, um dos fatores que contempla é a obrigação de rotular e identificar corretamente qualquer imagem, áudio ou vídeo gerado ou manipulado por meio de ferramentas de IA.
Em outras palavras, esse regulamento impõe que qualquer conteúdo publicado na Internet ou compartilhado com outros usuários que seja criado ou modificado usando ferramentas de IA deve ser devidamente rotulado para informar abertamente outras pessoas sobre o uso dessa tecnologia e, assim, evitar possíveis enganos ou mal-entendidos entre os usuários.
Isso inclui conteúdo como, por exemplo, fotografias editadas para remover objetos de fundo, imagens realistas geradas por IA, textos escritos com essa tecnologia ou vídeos falsos com imagens e áudio que se fazem passar por pessoas reais, como no caso de 'deepfakes', entre outros conteúdos relacionados.
Essa prática poderá ser sancionada a partir de 2 de agosto deste ano, por meio de multas ou outras medidas adicionais, como exigir a adaptação ao sistema ou, no caso de empresas, impedir que os produtos relacionados sejam comercializados.
No entanto, por enquanto, o projeto de lei sobre governança de IA não especifica quais medidas serão necessárias para considerar que o conteúdo gerado por IA foi devidamente rotulado dentro da estrutura desse regulamento e, de acordo com o Ministro da Transformação Digital e do Serviço Público, Óscar López, será a Agência Espanhola de Supervisão de Inteligência Artificial (AESIA) que estabelecerá essas diretrizes quando o regulamento for desenvolvido.
MEDIDAS ATUAIS PARA IDENTIFICAR CONTEÚDO COM IA
Nessa estrutura, várias tecnologias já têm medidas de identificação para esse tipo de conteúdo na Internet, bem como ferramentas para marcar o conteúdo gerado por IA dos usuários.
Uma das ferramentas utilizadas pela maioria das empresas é o Universal Internet Protocol oferecido pela Coalition for Content Provenance and Authenticity (C2PA), da qual já fazem parte a OpenAI, Microsoft, Intel, Adobe, Google, Meta, Amazon, Sony, Truepic e TikTok, entre outras empresas.
Especificamente, trata-se de um projeto da Joint Development Foundation criado para coibir a desinformação on-line e a fraude de conteúdo. Ele permite que editores, empresas e criadores de conteúdo incorporem metadados em seus materiais visuais e de áudio para verificar sua origem e informações relacionadas. Seu código é de livre acesso e protegido por criptografia.
Dessa forma, por exemplo, no caso da Amazon, todas as imagens criadas com seus modelos Titan Image Generator v1 e v2 adicionam automaticamente as credenciais de conteúdo C2PA, para que sejam instantaneamente mostradas como geradas por IA para sistemas de identificação compatíveis com esse protocolo universal.
O mesmo acontece com a plataforma da ByteDance, TikTok, que é capaz de marcar automaticamente o conteúdo gerado por IA de plataformas de terceiros, usando o protocolo C2PA. O TikTok também tem ferramentas que permitem que os próprios usuários identifiquem esse conteúdo por meio de tags na rede social.
Seguindo essa linha, a Meta é outra empresa de tecnologia que utiliza vários métodos para sinalizar conteúdo gerado por IA, pois, conforme detalhado em seu site, ela tem a obrigação de identificar e marcar o conteúdo criado com ferramentas de IA em qualquer um de seus produtos, seja no Facebook, Instagram ou Threads, entre outros.
Assim, além do protocolo C2PA, os sistemas da Meta têm a capacidade de identificar vários sinais incluídos no conteúdo gerado por IA para exibir automaticamente as tags que sinalizam isso. Por exemplo, ela tem trabalhado com participantes do setor para desenvolver padrões comuns para identificar conteúdo por meio de fóruns como a Partnership on AI (PAI).
Ao identificar o conteúdo, o Meta tags o identifica com um sinal visível de "Informações de IA" se ele tiver sido criado inteiramente com IA. O conteúdo que foi apenas modificado, por outro lado, especifica isso na opção "AI Info" no menu de cada publicação.
Para o conteúdo criado com sua ferramenta Meta AI, a empresa também introduz marcas d'água invisíveis, que se baseiam em metadados incorporados aos arquivos de imagem em questão. Assim como no TikTok, os usuários também podem marcar automaticamente o conteúdo gerado por IA em suas plataformas.
O Google, por sua vez, também tem ferramentas como o SynthID, uma tecnologia que adiciona uma marca d'água digital diretamente nos pixels de uma imagem. Dessa forma, é uma marca imperceptível ao olho humano, mas, por meio de um programa de computador, é detectável para identificação mesmo após modificações.
Essa opção é compatível com conteúdo de texto e vídeo, incluindo o gerado por seu próprio modelo Veo. Além disso, pode ser usada por qualquer empresa, pois é uma ferramenta gratuita de código aberto.
A OpenAI, empresa de Sam Altman, também possui métodos de marca d'água resistentes a violações e classificadores de detecção, que são ferramentas de IA que avaliam a probabilidade de o conteúdo ser originado de modelos generativos.
Em suma, o projeto de lei aprovado pelo Conselho de Ministros será processado por meio do procedimento de urgência e seguirá as etapas necessárias antes de retornar ao Conselho de Ministros para sua aprovação final como projeto de lei e, depois disso, seu envio ao Parlamento espanhol para aprovação.
Esta notícia foi traduzida por um tradutor automático