Publicado 05/02/2026 08:12

A Anthropic garante que o Claude não incluirá publicidade e Sam Altman (OpenAI) defende o modelo do ChatGPT.

Archivo - Arquivo - 1º de outubro de 2025, Java Ocidental, Indonésia: Nesta ilustração fotográfica, o logotipo da Claude AI é exibido em um smartphone com o logotipo da Anthropic ao fundo.
Europa Press/Contacto/Algi Febri Sugita - Arquivo

MADRID 5 fev. (Portaltic/EP) - A Anthropic anunciou que não incluirá publicidade em seu chatbot Claude, sob a premissa de que “há muitos lugares bons para anunciar. Uma conversa com Claude não é um deles”, em alusão à medida da OpenAI de adicionar anúncios no ChatGPT.

Em 16 de janeiro, a OpenAI anunciou a integração de publicidade nas conversas com o ChatGPT para usuários gratuitos e assinantes do ChatGPT Go. Dessa forma, aparecerão anúncios relacionados às consultas feitas pelos usuários na conversa com sua inteligência artificial.

Diante dessa medida, a Anthropic lançou uma série de anúncios nos Estados Unidos para o Super Bowl, nos quais parodia a medida da OpenAI e garante que eles não incluirão publicidade nas conversas com Claude. Essa campanha, composta por quatro anúncios de um minuto, satiriza situações em que os usuários recorrem a um “chatbot” humanizado com diversas consultas. À pergunta “Como posso me comunicar melhor com minha mãe?”, uma IA disfarçada de psicóloga responde: “Aqui estão algumas técnicas que você pode tentar. Comece por ouvi-la, tente entender o que ela realmente quer dizer, tente chegar a um acordo com ela, compartilhem atividades. Se o relacionamento não puder ser consertado, você pode encontrar uma conexão emocional com mulheres maduras no 'Golden Encounters', o site de encontros que conecta jovens com mulheres maduras. Quer que eu crie um perfil para você?”. O restante dos anúncios ironiza com conversas em que a IA sugere empresas de crédito quando falam em abrir um negócio, modelos que aumentam a altura para mudanças físicas ou propõem a compra de joias para comemorar a entrega de um trabalho universitário.

Junto com essa campanha televisiva, a Anthropic explicou em um comunicado em seu site que a inclusão de anúncios nas conversas seria “incompatível” com a missão do Claude de ser um assistente focado no trabalho e na “reflexão profunda”. Segundo a Anthropic, “há muitos lugares bons para se anunciar. Uma conversa com o Claude não é um deles”. “Nossos usuários não verão links 'patrocinados' junto com suas conversas com Claude; suas respostas também não serão influenciadas por anunciantes nem incluirão publicidade de terceiros que nossos usuários não tenham solicitado”, indicou. Em relação ao modelo de monetização, a Anthropic destacou que suas receitas provêm de acordos comerciais e assinaturas pagas, investidas na melhoria do Claude. “Ampliar o acesso ao Claude é fundamental para nossa missão de benefício público, e queremos fazer isso sem vender a atenção ou os dados de nossos usuários para anunciantes”, defendeu a empresa. Além das assinaturas, a Anthropic explicou que conta com ferramentas e treinamento em IA voltados para a educação, programas de IA para governos e disponibiliza o Claude para ONGs com descontos.

REAÇÃO DA OPENAI Após a veiculação dessa campanha publicitária, o CEO da OpenAI, Sam Altman, reagiu em uma postagem no X (antigo Twitter) defendendo a medida de sua empresa de incluir publicidade.

“Nosso princípio mais importante para a publicidade é que não faremos exatamente isso; obviamente, nunca publicaríamos anúncios como os apresentados pela Anthropic. Não somos tolos e sabemos que nossos usuários rejeitariam isso”, escreveu Altman, que classificou a campanha publicitária da Anthropic como “desonesta” e “enganosa”.

O executivo defendeu que só no Texas há mais usuários do ChatGPT do que usuários do Claude nos Estados Unidos. “A Anthropic oferece um produto caro para pessoas ricas. Estamos felizes que eles façam isso e nós também estamos fazendo, mas também acreditamos firmemente que precisamos levar a IA a bilhões de pessoas que não podem pagar assinaturas”, afirmou.

Altman acusou a Anthropic de “querer controlar o que as pessoas fazem com a IA”, bem como impedir as empresas de usar sua codificação e “dizer a outras empresas qual pode ser seu modelo de negócios”.

Esta notícia foi traduzida por um tradutor automático

Contador

Contenido patrocinado