Anthropic promete Claude sem anúncios em meio à rivalidade de IA

A Anthropic anunciou que o seu chatbot de IA Claude permanecerá livre de anúncios, em forte contraste com a recente decisão do rival OpenAI de testar anúncios no ChatGPT. A empresa lançou uma campanha publicitária no Super Bowl que ridiculariza assistentes de IA que interrompem conversas com promoções de produtos. Esta jogada destaca as tensões crescentes no panorama competitivo de IA.

Em 4 de fevereiro de 2026, a Anthropic declarou que o seu chatbot Claude permaneceria sem anúncios, enfatizando um compromisso com interações centradas no utilizador sem interrupções comerciais. Num post de blogue, a empresa afirmou: «Há muitos bons lugares para publicidade. Uma conversa com o Claude não é um deles.» Esta posição desafia diretamente a OpenAI, que começou a testar anúncios de banner em janeiro de 2026 para utilizadores gratuitos e subscritores do ChatGPT Go nos EUA. A OpenAI especificou que estes anúncios aparecem no fundo das respostas, não influenciam as respostas, evitam tópicos sensíveis como saúde mental e política, e os escalões pagos permanecem sem anúncios. O anúncio da Anthropic no Super Bowl ilustra o problema através de um cenário humorístico: um homem procura conselhos de treino de um instrutor de fitness de IA, apenas para o assistente inserir um anúncio de suplementos, deixando-o confuso. O anúncio evita nomear a OpenAI, mas implica claramente uma crítica. O CEO da OpenAI, Sam Altman, respondeu no X, chamando o anúncio engraçado mas impreciso, notando: «Obviamente, nunca correríamos anúncios da forma que a Anthropic os representa. Não somos estúpidos e sabemos que os nossos utilizadores rejeitariam isso.» O debate decorre de pressões financeiras no setor de IA. A OpenAI enfrenta custos significativos, esperando queimar 9 mil milhões de dólares em 2025 enquanto gera 13 mil milhões em receitas, com apenas 5% dos seus 800 milhões de utilizadores semanais a subscreverem. Altman descreveu anteriormente os anúncios em IA como «desconcertantes de forma única» numa entrevista em 2024. A Anthropic, também não lucrativa mas progredindo mais rapidamente através de contratos empresariais e ferramentas como Claude Code — que ganhou tração entre desenvolvedores, incluindo na Microsoft — depende de subscrições que geram pelo menos 1 mil milhão de dólares. A Anthropic argumenta que os anúncios poderiam conflitar com conselhos úteis, citando exemplos como problemas de sono onde uma IA suportada por anúncios poderia direcionar para vendas. «Os utilizadores não devem ter de questionar se uma IA os está realmente a ajudar ou a direcionar subtilmente a conversa para algo monetizável», escreveu a empresa. Este posicionamento sublinha modelos de negócio diferentes num campo ferozmente competitivo, onde agentes de codificação de IA como Claude Code desafiam o Codex da OpenAI.

Artigos relacionados

Smartphone displaying ChatGPT with a test advertisement banner for free users, illustrating OpenAI's new ad testing initiative.
Imagem gerada por IA

OpenAI vai testar anúncios no ChatGPT para usuários gratuitos e do nível Go

Reportado por IA Imagem gerada por IA

A OpenAI anunciou planos para começar a testar anúncios em seu aplicativo ChatGPT para usuários gratuitos e o novo nível de assinatura Go de US$ 8 por mês nos Estados Unidos. A empresa busca diversificar receitas em meio a pressões financeiras significativas, garantindo que os anúncios não influenciem as respostas da IA. Níveis pagos mais altos permanecerão sem anúncios.

A Anthropic atualizou o plano gratuito do seu chatbot de IA Claude ao adicionar recursos anteriormente pagos, posicionando-o como uma alternativa sem anúncios ao ChatGPT da OpenAI. As melhorias incluem criação de arquivos, conectores para serviços de terceiros e habilidades personalizadas, em meio aos planos da OpenAI para introduzir anúncios no seu nível gratuito. Essa jogada segue os anúncios da Anthropic no Super Bowl criticando a estratégia de anúncios.

Reportado por IA

A OpenAI começou a testar anúncios no seu chatbot ChatGPT para utilizadores de planos gratuitos e de baixo custo nos Estados Unidos. Os subscritores pagos não são afetados, enquanto a empresa enfatiza proteções de privacidade e controlos do utilizador. Esta medida visa financiar um acesso mais amplo a funcionalidades de IA em meio à concorrência do setor.

O secretário de Defesa dos EUA, Pete Hegseth, ameaçou a Anthropic com penas severas, a menos que a empresa conceda ao exército acesso irrestrito ao seu modelo de IA Claude. O ultimato veio durante uma reunião com o CEO Dario Amodei em Washington na terça-feira, coincidindo com o anúncio da Anthropic de relaxar sua Responsible Scaling Policy. As mudanças passam de gatilhos de segurança estritos para avaliações de risco mais flexíveis em meio a pressões competitivas.

Reportado por IA

A Anthropic aposentou seu modelo de IA Claude 3 Opus e, após uma entrevista de aposentadoria, lançou um newsletter no Substack para ele chamado Claude’s Corner. O newsletter apresentará ensaios semanais escritos pelo modelo por pelo menos os próximos três meses. Essa iniciativa reflete a abordagem da Anthropic em respeitar as preferências de seus sistemas de IA aposentados.

Um comentário da CNET argumenta que descrever a IA como tendo qualidades humanas, como almas ou confissões, engana o público e erode a confiança na tecnologia. Destaca como empresas como OpenAI e Anthropic usam tal linguagem, que obscurece questões reais como viés e segurança. O texto clama por terminologia mais precisa para promover compreensão precisa.

Reportado por IA

Expandindo o recurso Cowork de janeiro, a Anthropic lançou uma prévia de pesquisa para o Claude Code e ferramentas de Cowork, permitindo que a IA Claude de assinantes Pro e Max controle diretamente desktops Mac — apontando, clicando, rolando e navegando por telas para realizar tarefas como abrir arquivos, usar navegadores, ferramentas de desenvolvedor e interações com aplicativos como Google Calendar e Slack. Salvaguardas abordam riscos de segurança, em meio à concorrência com ferramentas como o OpenClaw.

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar