<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	 xmlns:media="http://search.yahoo.com/mrss/" >

<channel>
	<title>Conversion</title>
	<atom:link href="https://www.conversion.com.br/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.conversion.com.br</link>
	<description>A maior agência de SEO do Brasil</description>
	<lastBuildDate>Wed, 08 Apr 2026 20:24:15 +0000</lastBuildDate>
	<language>pt-BR</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.5.8</generator>

<image>
	<url>https://www.conversion.com.br/wp-content/uploads/2024/01/cropped-favicon-32x32.png</url>
	<title>Conversion</title>
	<link>https://www.conversion.com.br</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Information Gain: o que é, como o Google usa e como aplicar no seu conteúdo</title>
		<link>https://www.conversion.com.br/blog/information-gain/</link>
					<comments>https://www.conversion.com.br/blog/information-gain/#respond</comments>
		
		<dc:creator><![CDATA[Diego Ivo]]></dc:creator>
		<pubDate>Wed, 08 Apr 2026 20:24:02 +0000</pubDate>
				<category><![CDATA[SEO]]></category>
		<guid isPermaLink="false">https://www.conversion.com.br/?p=53059</guid>

					<description><![CDATA[Information gain é o conceito que mede o quanto uma informação nova reduz a incerteza de um sistema — e que o Google adaptou para avaliar se um conteúdo agrega valor real ao que já existe na web, penalizando páginas que apenas repetem o que todos já dizem A maioria dos profissionais de SEO que [&#8230;]]]></description>
										<content:encoded><![CDATA[
<h3 class="wp-block-heading">Information gain é o conceito que mede o quanto uma informação nova reduz a incerteza de um sistema — e que o Google adaptou para avaliar se um conteúdo agrega valor real ao que já existe na web, penalizando páginas que apenas repetem o que todos já dizem</h3>



<p>A maioria dos profissionais de SEO que ouve o termo information gain pela primeira vez o associa diretamente ao Google e ao Helpful Content Update. Essa associação está correta — mas incompleta. O conceito tem raízes muito mais profundas, que remontam à teoria da informação desenvolvida por Claude Shannon e à sua aplicação em algoritmos clássicos de machine learning. Entender essa origem não é um exercício acadêmico: é o que permite aplicar o conceito com precisão, sem depender de interpretações superficiais.</p>



<p>O information gain aparece em dois contextos distintos que, embora relacionados conceitualmente, funcionam de formas diferentes na prática. No machine learning, ele mede a redução de incerteza que uma variável promove ao categorizar dados — a base matemática dos algoritmos ID3 e C4.5, usados para construir árvores de decisão. No SEO, o termo foi apropriado pelo Google para descrever o grau de originalidade de um conteúdo em relação ao corpus de páginas já existentes sobre o mesmo tema.</p>



<p>A confusão entre os dois usos é comum — e cara para estratégias de conteúdo. Profissionais que aplicam a lógica do machine learning diretamente ao SEO perdem a nuance da patente do Google. Os que conhecem apenas a aplicação de SEO ficam sem base conceitual para entender por que certos conteúdos performam melhor. Este artigo resolve essa confusão sistematicamente, unindo a base técnica com o guia prático que profissionais de marketing e SEO precisam para produzir conteúdo com information gain genuinamente alto.</p>



<h2 class="wp-block-heading">O que é information gain</h2>



<p>O information gain é uma medida de quanto uma determinada informação reduz a incerteza sobre um conjunto de dados. O conceito parte do princípio de que incerteza pode ser quantificada — e que qualquer dado novo que diminua essa incerteza tem valor mensurável. Essa é a base da teoria da informação desenvolvida por Claude Shannon, em 1948.</p>



<p>No entanto, o termo ganhou dois usos distintos ao longo do tempo, o que gera confusão frequente em discussões sobre SEO e inteligência artificial. É importante separar esses dois usos antes de aprofundar qualquer um deles, pois as implicações práticas são diferentes — ainda que o princípio subjacente seja o mesmo.</p>



<h3 class="wp-block-heading">Information gain em teoria da informação e machine learning</h3>



<p>No contexto técnico original, o information gain mede a redução de entropia que uma variável promove ao dividir um conjunto de dados. A entropia, nesse contexto, é uma medida de impureza ou desordem — quanto maior a mistura de classes em um conjunto, maior a entropia. O information gain de um atributo é, portanto, o quanto ele reduz essa mistura ao ser usado como critério de separação.</p>



<p>Essa definição é a base dos algoritmos de árvores de decisão ID3 e C4.5, desenvolvidos por Ross Quinlan. Nesses algoritmos, o information gain determina qual variável usar em cada nó da árvore: a que promove maior redução de incerteza. O conceito também se conecta à divergência de Kullback-Leibler, que mede a diferença entre duas distribuições de probabilidade — uma das fundações matemáticas da teoria moderna de aprendizado de máquina.</p>



<h3 class="wp-block-heading">Information gain em SEO</h3>



<p>No contexto de SEO, o information gain foi introduzido por uma patente do Google atribuída a Slisevich et al., que descreve um mecanismo para medir o quanto um documento contribui com informação nova em relação a um conjunto de documentos já existentes sobre o mesmo tema. O princípio é análogo ao uso em machine learning — medir a &#8220;novidade informacional&#8221; —, mas a aplicação é diferente.</p>



<p>O Google usa esse conceito para diferenciar conteúdo que genuinamente agrega perspectivas novas, dados originais ou experiências reais do que a patente chama de consensus content: o conjunto de informações que praticamente todos os documentos sobre um tema já contêm. O information gain de um conteúdo, nesse modelo, é proporcional ao quanto ele vai além desse consenso estabelecido.</p>



<h2 class="wp-block-heading">Information gain em machine learning: a base do conceito</h2>



<p>Para aplicar o information gain em SEO com precisão, é necessário compreender sua lógica matemática de origem. Isso não exige derivar equações — mas exige entender o raciocínio por trás delas. A intuição central é simples: uma variável tem alto information gain quando, ao ser conhecida, resolve boa parte da incerteza sobre um problema.</p>



<h3 class="wp-block-heading">Entropia como ponto de partida</h3>



<p>A entropia, no sentido matemático, mede o grau de desordem ou impureza de um conjunto de dados. Em um conjunto onde todos os elementos pertencem à mesma classe, a entropia é zero — não há incerteza. Em um conjunto perfeitamente dividido entre duas classes iguais, a entropia atinge seu valor máximo.</p>



<p>A fórmula da entropia de Shannon é: H(S) = −Σ p(x) × log₂ p(x), onde p(x) é a proporção de cada classe no conjunto S. Intuitivamente, ela responde à pergunta: quanto de informação, em bits, é necessário para descrever o estado de um elemento aleatório deste conjunto? Quanto maior a mistura, mais informação é necessária — e maior a entropia resultante.</p>



<p>Essa lógica é diretamente relevante para entender o que o Google faz com conteúdo. Um corpus de documentos sobre um tema com alta redundância — todos dizendo a mesma coisa — tem baixa diversidade informacional. Um documento que traz perspectiva genuinamente diferente reduz a incerteza do usuário que busca informação nova — e é exatamente isso que o information gain score mensura em termos práticos.</p>



<h3 class="wp-block-heading">Como information gain mede o ganho informacional</h3>



<p>O information gain de um atributo A em relação a um conjunto S é calculado como a diferença entre a entropia original de S e a entropia média de S após ser dividido pelo atributo A. Em termos formais: IG(S, A) = H(S) − Σ (|Sv|/|S|) × H(Sv), onde Sv são os subconjuntos resultantes de dividir S pelo valor v de A.</p>



<p>A intuição importa mais do que a fórmula para profissionais de marketing: o information gain de um atributo é simplesmente o quanto ele ajuda a distinguir os casos. Um atributo que não diferencia nada — onde todos os subconjuntos têm a mesma distribuição — tem information gain zero. Um atributo que separa perfeitamente os casos tem information gain máximo.</p>



<p>Transposta para SEO, essa lógica é direta: um conteúdo que não diferencia o corpus existente — que não acrescenta nada além do que já está em dezenas de outras páginas — tem information gain próximo de zero. O usuário que lê aquele conteúdo não ganha nada que não pudesse obter em qualquer outra fonte do mesmo tema.</p>



<h3 class="wp-block-heading">Exemplo concreto com dados</h3>



<p>Imagine um conjunto de 14 dias de dados climáticos, onde a variável-alvo é &#8220;jogar tênis&#8221; (sim/não). A variável &#8220;vento&#8221; divide o conjunto em dois grupos: dias com vento forte e dias com vento fraco. Se os dois grupos têm distribuições diferentes entre jogar e não jogar, o information gain do vento é positivo — ele ajuda a prever a decisão com mais precisão do que o acaso.</p>



<p>Agora transponha essa lógica para conteúdo. O &#8220;conjunto de dados&#8221; é o corpus de páginas sobre o seu tema. A &#8220;variável&#8221; é o seu artigo. Se o seu conteúdo tem a mesma distribuição de informações que todos os outros — mesma estrutura, mesmos exemplos, mesmos dados —, o information gain é próximo de zero. Não é isso que o Google quer posicionar como resultado principal para usuários em busca de informação genuinamente útil.</p>



<h2 class="wp-block-heading">Information gain em SEO: o que o Google quer dizer com conteúdo original</h2>



<p>A patente que trouxe o <em>information gain</em> para o vocabulário de SEO foi publicada pelo Google e atribuída a <strong>Carbune e Gonnet Anders</strong>. Seu título técnico — <em>Contextual Estimation of Link Information Gain</em> — descreve um método para atribuir um score de information gain a documentos com base em quanto de informação nova eles oferecem ao usuário em relação ao que ele já consumiu. Compreender o que a patente descreve — mesmo que em termos gerais — é essencial para entender por que certas estratégias de conteúdo deixaram de funcionar.</p>



<h3 class="wp-block-heading">A patente do Google</h3>



<p>A patente do Google descreve um sistema que compara o conteúdo de um documento com um corpus de referência — essencialmente, os documentos que o buscador já conhece sobre o mesmo tema. O sistema calcula um information gain score (IGS) que representa o quanto aquele documento contribui com informação que o corpus ainda não contém, ou contém em menor proporção.</p>



<p>O mecanismo não é simplesmente uma checagem de plágio ou duplicação textual. Ele opera em nível semântico: dois documentos podem ser originais em termos de redação e, ainda assim, ter information gain baixo porque cobrem exatamente os mesmos ângulos, usam os mesmos exemplos e chegam às mesmas conclusões. A originalidade que o Google mensura é de conteúdo informacional, não de superfície textual.</p>



<p>Além disso, a patente menciona explicitamente que o information gain score pode ser usado como um dos fatores no ranqueamento de documentos. Isso significa que não se trata apenas de uma métrica interna de qualidade — ele tem impacto direto na capacidade de uma página aparecer bem posicionada para consultas relevantes, especialmente em temas com alto volume de conteúdo redundante.</p>



<h3 class="wp-block-heading">Consensus content — o que é e por que prejudica</h3>



<p>O termo consensus content descreve o conjunto de informações que praticamente todos os documentos sobre um tema compartilham. Em um artigo sobre &#8220;como fazer pão&#8221;, o consensus content seria: misturar farinha, fermento e água, sovar a massa, deixar descansar, assar. Qualquer artigo sobre o tema cobre esses pontos — eles são o mínimo esperado, não um diferencial informacional.</p>



<p>O problema surge quando um conteúdo é composto quase inteiramente de consensus content. Nesses casos, o information gain score é baixo: ele não contribui com nada que o corpus não contenha. Para o Google, esse conteúdo é redundante — e redundância é tratada como sinal de baixa qualidade no contexto do Helpful Content System.</p>



<p>Profissionais que constroem estratégias de conteúdo baseadas em análise de concorrentes — identificando o que os primeiros resultados cobrem e replicando essa estrutura — estão produzindo consensus content de forma deliberada. A consequência direta é um information gain próximo de zero, o que limita o potencial de ranqueamento independentemente de outros fatores técnicos de SEO.</p>



<h3 class="wp-block-heading">Information gain score como métrica de originalidade</h3>



<p>O information gain score pode ser entendido como uma métrica de originalidade semântica — o grau em que um documento adiciona perspectivas, dados, experiências ou conclusões que o corpus sobre aquele tema ainda não contém. Quanto mais alto o IGS, maior a probabilidade de que o documento seja tratado pelo Google como recurso de valor genuíno.</p>



<p>É importante compreender que o IGS não é uma métrica calculável diretamente com ferramentas de SEO convencionais. Não existe um plugin que retorne um número de 0 a 10 representando o information gain de um conteúdo. O que existe são proxies e métodos de estimativa qualitativa e quantitativa — que serão abordados nas seções práticas a seguir.</p>



<h2 class="wp-block-heading">Por que information gain está no centro do Helpful Content System</h2>



<p>O Google Helpful Content System passou por atualizações significativas em ciclos sucessivos desde seu lançamento. Sua promessa central é clara: priorizar conteúdo criado genuinamente para pessoas, não para algoritmos. O information gain é o mecanismo técnico por trás dessa promessa — é ele que permite ao Google diferenciar, em escala, o conteúdo que agrega valor do que apenas imita o que já existe.</p>



<h3 class="wp-block-heading">Helpful Content e a penalização do conteúdo copycat</h3>



<p>O <a href="https://www.conversion.com.br/blog/helpful-content-system/">Helpful Content System</a> opera em nível de site, não apenas de página. Isso significa que um volume alto de conteúdo com information gain baixo pode comprometer o desempenho de todas as páginas do domínio — incluindo aquelas com conteúdo genuinamente original. O sistema avalia se a produção de conteúdo de um site tem, como padrão, a intenção de contribuir com informação nova ou apenas de capturar tráfego com conteúdo redundante.</p>



<p>Os chamados conteúdos copycat — artigos construídos pela análise mecânica dos primeiros resultados do Google, com o objetivo de cobrir exatamente o que os concorrentes cobrem — são o alvo central dessa avaliação. Do ponto de vista do information gain, esses conteúdos são intencionalmente projetados para ter IGS baixo, pois replicam o consensus content sem adicionar nada novo ao corpus existente.</p>



<p>A consequência prática foi visível em diversas atualizações do algoritmo: sites com grandes volumes de conteúdo dessa natureza viram quedas expressivas de rankings, mesmo em artigos com boa estrutura técnica de SEO. O sinal de information gain baixo contamina o perfil de qualidade do domínio como um todo, não apenas as páginas individualmente afetadas.</p>



<h3 class="wp-block-heading">E-E-A-T como proxy de information gain</h3>



<p>O framework <a href="https://www.conversion.com.br/blog/o-que-e-eeat/" data-type="post" data-id="17716">E-E-A-T (Experience, Expertise, Authoritativeness, Trustworthiness)</a> está diretamente conectado ao information gain, ainda que raramente seja apresentado dessa forma. A dimensão de Experience — ou Experiência — foi adicionada pelo Google justamente para capturar um tipo de information gain que não pode ser replicado: o relato de experiência real, vivida e documentada.</p>



<p>Quando um médico descreve um procedimento clínico a partir de sua prática, quando um engenheiro explica uma solução a partir de um projeto real ou quando um profissional de marketing analisa resultados de campanhas que gerenciou, o information gain é alto por definição — porque aquela perspectiva específica não existe em outro lugar na web. É única. É, em essência, o oposto de consensus content.</p>



<p>O E-E-A-T funciona, portanto, como um framework para operacionalizar o information gain: ao exigir evidências de experiência real, especialização genuína e autoridade construída, o Google está pedindo que o conteúdo vá além do que qualquer pessoa com acesso à internet poderia escrever em poucas horas. Essa é, precisamente, a definição de conteúdo com alto information gain.</p>



<h3 class="wp-block-heading">Exemplos de sites que perderam rankings por baixo IG</h3>



<p>Os efeitos mais documentados do Helpful Content System foram observados em nichos com alta concentração de conteúdo redundante: saúde, finanças pessoais, tecnologia e viagens. Sites que construíram grandes volumes de conteúdo baseado em análise de SERPs — cobrindo sistematicamente os mesmos ângulos dos concorrentes — foram afetados de forma desproporcional em relação a sites com conteúdo original.</p>



<p>O padrão observado foi consistente: domínios com centenas de artigos escritos a partir da mesma estrutura de análise de concorrentes, sem dados próprios, sem perspectiva de especialista e sem experiências originais, registraram quedas de tráfego expressivas em ciclos de atualização do algoritmo. A escala da produção não compensou a ausência de information gain.</p>



<p>Por outro lado, sites especializados com equipes de especialistas que compartilhavam experiência real — mesmo com menor volume total de conteúdo — mantiveram ou aumentaram seu desempenho. A proporção de conteúdo com alto information gain, não o volume total de páginas, foi o fator determinante nos dois cenários.</p>



<h2 class="wp-block-heading">Como calcular (ou estimar) o information gain do seu conteúdo</h2>



<p>Não existe uma fórmula universalmente aplicável para calcular o information gain de um conteúdo da mesma forma que se calcula a entropia em machine learning. O Google não disponibiliza essa métrica diretamente, e nenhuma ferramenta de SEO a replica com precisão. O que existe são métodos de estimativa — qualitativos e quantitativos — que permitem avaliar o IGS com grau razoável de confiança.</p>



<h3 class="wp-block-heading">O método de análise comparativa manual passo a passo</h3>



<p>O método mais confiável para estimar o information gain de um conteúdo é a análise comparativa manual com os primeiros resultados do Google para a palavra-chave alvo. O processo envolve quatro etapas principais, aplicáveis tanto no planejamento de novos conteúdos quanto na auditoria de páginas existentes.</p>



<p>A primeira etapa é mapear o consensus content: abra os cinco primeiros resultados orgânicos para a sua palavra-chave e liste todos os pontos cobertos por pelo menos três deles. Esses são os elementos de consensus content do tema — o que qualquer artigo sobre o assunto já diz. Qualquer ponto que você incluir apenas desses elementos terá information gain próximo de zero.</p>



<p>A segunda etapa é identificar lacunas: para cada ponto que você planeja cobrir, verifique se ele está presente no consensus content. Se não estiver — se for uma perspectiva, um dado ou um exemplo que nenhum dos cinco primeiros resultados aborda —, esse elemento tem information gain positivo. Documente esses elementos sistematicamente antes de iniciar a escrita.</p>



<p>A terceira etapa é quantificar a proporção: calcule a relação entre elementos com information gain positivo e elementos de consensus content no seu conteúdo. Não existe um percentual ideal universalmente aceito, mas conteúdo com menos de 20% de elementos diferenciadores tende a ser percebido como redundante — tanto pelo algoritmo quanto pelo leitor que chegou em busca de algo novo.</p>



<p>A quarta etapa é posicionar o diferencial de forma proeminente: coloque os elementos com information gain alto nas primeiras seções do conteúdo. O Google usa sinais de qualidade percebida pelo usuário — como tempo na página e taxa de retorno à SERP — como proxies indiretos de information gain. Sinalizar o diferencial logo no início reduz o abandono precoce.</p>



<h3 class="wp-block-heading">Ferramentas que auxiliam na identificação de gaps</h3>



<p>Embora nenhuma ferramenta calcule diretamente o information gain, algumas auxiliam na identificação de gaps de cobertura. A análise de gaps de palavras-chave no Semrush e no Ahrefs mostra quais termos concorrentes ranqueiam e você não — uma aproximação útil, ainda que opere em nível de palavras-chave, não de ângulo informacional.</p>



<p>Ferramentas de análise semântica como Surfer SEO, Clearscope e MarketMuse analisam o corpus de conteúdo ranqueado para identificar tópicos e entidades frequentes. O uso convencional dessas ferramentas, paradoxalmente, leva a mais consensus content. O valor delas para information gain está em identificar o que o corpus já cobre excessivamente — para evitar — e o que está sub-representado — para explorar com profundidade.</p>



<p>O Google Search Console oferece um proxy indireto útil: páginas com impressões altas e taxa de cliques baixa podem indicar que o snippet não diferencia o conteúdo suficientemente — o que frequentemente correlaciona com information gain baixo. Esse sinal, combinado com dados de engajamento, orienta a priorização das auditorias de conteúdo.</p>



<h3 class="wp-block-heading">Como auditar seu conteúdo existente com essa lente</h3>



<p>A auditoria de conteúdo existente começa pela identificação das páginas mais críticas: aquelas com maior potencial de tráfego e menor desempenho atual. Para cada página, aplique o método de análise comparativa — mapeando o que o seu conteúdo tem em relação ao consensus content dos cinco primeiros resultados para a palavra-chave alvo.</p>



<p>Além da comparação estrutural, avalie as fontes de information gain: a página tem dados originais ou apenas cita dados de terceiros que todos já citam? Tem perspectiva de especialista ou apenas reúne o que qualquer pessoa encontraria nos primeiros resultados? Tem exemplos específicos e concretos ou apenas exemplos genéricos aplicáveis a qualquer artigo do tema?</p>



<p>O resultado da auditoria deve produzir uma classificação em três categorias: conteúdo com IG alto (manter e otimizar para distribuição), conteúdo com IG médio (expandir com elementos diferenciadores) e conteúdo com IG baixo (reformular profundamente ou consolidar com outras páginas). Essa classificação é o ponto de partida para priorizar o roadmap de conteúdo orientado por information gain.</p>



<h2 class="wp-block-heading">Como identificar o consensus content no seu conteúdo atual</h2>



<p>Identificar o consensus content no próprio conteúdo é uma habilidade que exige, acima de tudo, honestidade sobre o processo de criação. Conteúdo produzido a partir de análise de concorrentes, de listas de &#8220;o que abordar&#8221; geradas por ferramentas de SEO ou de briefings baseados exclusivamente nos primeiros resultados tende a ser consensus content quase por definição — independentemente da qualidade da redação.</p>



<h3 class="wp-block-heading">O que caracteriza consensus content</h3>



<p>O consensus content tem características identificáveis. A primeira é a estrutura previsível: se o seu artigo tem exatamente a mesma sequência de tópicos dos cinco primeiros concorrentes, provavelmente é consensus content. A segunda é a ausência de especificidade: exemplos genéricos que poderiam ser usados em qualquer artigo do tema são um sinal claro de baixo information gain.</p>



<p>A terceira característica é a dependência de fontes compartilhadas: quando todos os artigos sobre um tema citam os mesmos estudos, as mesmas estatísticas e os mesmos especialistas, qualquer conteúdo que replica essas citações sem análise própria está produzindo consensus content. A quarta é a conclusão previsível: se um leitor que leu três artigos sobre o tema já consegue antecipar exatamente o que o seu conteúdo vai dizer, o information gain é próximo de zero.</p>



<h3 class="wp-block-heading">Exercício prático de auditoria</h3>



<p>Um exercício prático eficaz é o &#8220;teste do modelo de linguagem&#8221;: peça a uma IA generativa que produza um artigo sobre o mesmo tema do seu conteúdo e compare os dois ponto a ponto. Tudo que aparecer nos dois — mesma estrutura, mesmos exemplos, mesmas recomendações — é consensus content. O que aparecer apenas no seu conteúdo é candidato a high-information gain.</p>



<p>Esse exercício tem uma limitação importante: modelos de linguagem são, em essência, máquinas de consensus content. Eles sintetizam o que a web já diz sobre um tema. Por isso, qualquer coisa que uma IA produziria sobre o seu tema sem acesso a fontes específicas é, por definição, consensus content — e deve ser tratada como tal na auditoria de qualidade do conteúdo.</p>



<p>Outro método complementar é o &#8220;teste do especialista&#8221;: mostre o conteúdo para alguém com experiência real no tema e pergunte quais partes ele já sabia antes de ler. As partes amplamente conhecidas pelo especialista são consensus content. As partes que geraram curiosidade ou que ele não havia considerado têm information gain genuíno — e devem ser expandidas e posicionadas de forma proeminente.</p>



<h3 class="wp-block-heading">Exemplos de antes e depois</h3>



<p>Para tornar o conceito concreto, considere um exemplo sobre &#8220;taxa de conversão em e-commerce&#8221;. Uma seção com baixo information gain soaria assim: &#8220;A taxa de conversão é o percentual de visitantes que realizam uma compra. Para aumentá-la, é importante melhorar a experiência do usuário, simplificar o checkout e investir em boas fotos dos produtos.&#8221; Esse trecho está presente em praticamente todo artigo sobre o tema — é consensus content puro.</p>



<p>O mesmo tema com alto information gain poderia ser: &#8220;Em análise de 200 lojas de moda feminina com faturamento entre R$ 500 mil e R$ 5 milhões anuais, o principal fator de abandono de carrinho não foi o preço do frete — que aparece em primeiro lugar nas pesquisas gerais —, mas a ausência de informações claras sobre prazo de troca. Lojas com política de troca exibida de forma proeminente na página do produto registraram taxa de conversão 23% superior.&#8221; O segundo trecho tem information gain alto porque contém dados específicos, contexto delimitado e conclusão contrária ao consenso com evidência concreta.</p>



<h2 class="wp-block-heading">Estratégias para aumentar o information gain do seu conteúdo</h2>



<p>Aumentar o information gain de um conteúdo não é uma questão de escrever mais — é uma questão de trazer fontes de informação genuinamente novas para a produção. As estratégias a seguir são ordenadas por potencial de impacto e aplicabilidade para equipes de diferentes portes e orçamentos disponíveis.</p>



<h3 class="wp-block-heading">Dados primários e pesquisas próprias</h3>



<p>A fonte de information gain mais poderosa é o dado que não existe em nenhum outro lugar: pesquisa primária conduzida pela própria empresa ou equipe. Isso pode ser uma enquete com a base de clientes, análise de dados proprietários, experimentos controlados ou benchmarks de mercado. Um estudo com 50 respondentes relevantes gera mais information gain do que mil palavras bem escritas sobre o que os outros já disseram.</p>



<p>A barreira de entrada para pesquisa primária é menor do que parece. Ferramentas como Google Forms e Typeform permitem coletar dados em questão de dias, sem custo expressivo. Uma pesquisa com 100 profissionais do setor sobre uma questão específica gera dados originais que nenhum concorrente terá — e que podem ser referenciados em múltiplos conteúdos ao longo do tempo, criando um ativo de information gain reutilizável.</p>



<p>Igualmente, dados proprietários da própria operação têm valor informacional alto. Uma agência de marketing que analisa performance de suas próprias campanhas, um e-commerce que publica benchmarks internos de conversão ou uma consultoria que sistematiza aprendizados de projetos — todos estão gerando information gain a partir de fontes que nenhum concorrente pode replicar por definição.</p>



<h3 class="wp-block-heading">Perspectiva de especialista com experiência real</h3>



<p>O relato de experiência real é a segunda fonte mais poderosa de information gain — e a mais acessível para equipes sem recursos para pesquisa primária. A diferença entre &#8220;especialistas recomendam otimizar o tempo de carregamento&#8221; e &#8220;em um projeto de e-commerce de médio porte, reduzimos o tempo de carregamento de 4,2 para 1,8 segundos e observamos aumento de 18% na taxa de conclusão do checkout&#8221; é inteiramente de information gain — o segundo trecho não pode ser replicado por quem não viveu aquele projeto específico.</p>



<p>O desafio está em institucionalizar o processo de captura dessas perspectivas. Equipes de conteúdo frequentemente têm acesso a especialistas internos — desenvolvedores, analistas, gestores de produto —, mas não estabelecem fluxos para extrair e incorporar esse conhecimento tácito nos conteúdos publicados. Criar esses fluxos — entrevistas estruturadas, questionários internos, revisões por especialistas — é uma das intervenções de maior retorno em uma estratégia orientada por information gain.</p>



<h3 class="wp-block-heading">Casos de uso específicos não cobertos pelos concorrentes</h3>



<p>Uma das formas mais eficazes de gerar information gain sem pesquisa primária é a cobertura de casos de uso específicos que os concorrentes negligenciam. Conteúdo genérico tende a cobrir o caso de uso mais comum e ignorar as variações que afetam segmentos menores — mas igualmente relevantes para quem está nesses contextos específicos.</p>



<p>Por exemplo: um artigo sobre &#8220;como fazer SEO local&#8221; que cobre apenas restaurantes e clínicas tem information gain baixo — todos os artigos sobre o tema usam esses exemplos. O mesmo artigo com seções dedicadas a escritórios de advocacia, postos de combustível ou clínicas veterinárias está atendendo subconjuntos de usuários cujas necessidades o consensus content não resolve. O information gain, nesses casos, é gerado pela especificidade aplicada, não pela amplitude genérica.</p>



<p>Identificar esses casos de uso negligenciados exige análise das buscas de cauda longa relacionadas ao tema principal, revisão das perguntas que chegam pelo suporte ou vendas da empresa e análise de discussões em fóruns especializados. Nenhuma dessas fontes requer investimento financeiro — apenas atenção sistemática ao que os usuários reais perguntam e não encontram respondido de forma adequada.</p>



<h3 class="wp-block-heading">Ângulos contrários ao consenso com embasamento</h3>



<p>Conteúdo que desafia o consenso estabelecido — com evidência — tem information gain naturalmente alto. Não se trata de ser controverso por estratégia, mas de questionar premissas amplamente aceitas quando há dados para isso. O desafio está no &#8220;com embasamento&#8221;: a contrariedade ao consenso sem evidência é desinformação; a contrariedade fundamentada é o que gera valor informacional genuíno e diferenciado.</p>



<p>Para profissionais de marketing, a aplicação prática é: identifique as &#8220;verdades universais&#8221; do seu segmento — os conselhos que aparecem em todo artigo sobre o tema —, questione quais delas têm base empírica sólida versus as que são repetidas por inércia, e produza conteúdo que documente a distinção com dados. Esse processo gera information gain diferenciado sem exigir acesso a fontes primárias exclusivas.</p>



<h2 class="wp-block-heading">Information gain e topical authority: como os dois conceitos se complementam</h2>



<p>A <a href="https://www.conversion.com.br/blog/topical-authority/" data-type="post" data-id="38733">Topical Authority</a> e o information gain são estratégias complementares — não alternativas. A topical authority garante que o Google reconheça um domínio como referência ampla sobre um tema, cobrindo com profundidade todos os subtópicos relevantes. O information gain garante que cada peça dentro dessa cobertura ampla seja tratada como contribuição genuína, não apenas preenchimento de lacuna temática no cluster.</p>



<p>Um cluster com alta topical authority mas baixo information gain é um conjunto de artigos que cobre todos os ângulos de um tema, mas cada artigo individualmente repete o que já existe na web. O Google reconhece a cobertura ampla, mas o valor percebido por usuário — e o sinal de qualidade correspondente — é limitado. Já um cluster com alto information gain em cada peça, mas cobertura temática incompleta, pode ter excelentes peças individuais sem que o domínio seja reconhecido como autoridade no tema.</p>



<p>A combinação ideal é o que se pode chamar de cobertura com profundidade original: um cluster que abrange todos os subtópicos relevantes e, em cada artigo, traz perspectivas, dados ou experiências que o corpus existente não contém. Planejar esse cluster exige definir, para cada artigo, não apenas o tema que vai cobrir — mas o information gain específico que vai gerar: qual dado original, qual experiência real, qual ângulo ainda não explorado pelos concorrentes disponíveis na SERP.</p>



<p>Essa integração entre topical authority e information gain é provavelmente a estratégia de conteúdo com maior potencial de resultado sustentável no contexto atual do Google. Ela é mais exigente do que abordagens de volume — requer planejamento cuidadoso e comprometimento com qualidade genuína em cada peça —, mas é também a mais difícil de replicar por concorrentes que operam com produção em escala sem diferenciação informacional consistente.</p>



<h2 class="wp-block-heading">Ferramentas e recursos para aplicar information gain na prática</h2>



<p>Nenhuma ferramenta disponível atualmente calcula o information gain score da forma como o Google o faz internamente. No entanto, várias auxiliam nos processos que contribuem para aumentar o IGS de um conteúdo. A seguir, uma lista organizada por categoria de uso, com limitações explícitas para cada uma.</p>



<p><strong>Análise de gaps de conteúdo:</strong> Semrush Content Gap e Ahrefs Content Gap identificam palavras-chave para as quais concorrentes ranqueiam e você não. Limitação: operam em nível de palavra-chave, não de ângulo informacional. Uso recomendado: identificar temas ausentes na sua cobertura, não como substituto para análise qualitativa de information gain.</p>



<p><strong>Análise semântica e cobertura de tópicos:</strong> MarketMuse, Clearscope e Surfer SEO analisam o corpus de conteúdo ranqueado para sugerir tópicos e entidades relacionadas. Usadas convencionalmente, essas ferramentas otimizam para consensus content. O uso orientado por information gain é inverso: identificar o que o corpus já cobre excessivamente — para evitar — e o que está sub-representado — para explorar com profundidade original.</p>



<p><strong>Análise de perguntas e busca conversacional:</strong> AlsoAsked e AnswerThePublic mapeiam perguntas reais sobre um tema. Limitação: tendem a capturar perguntas amplas e bem respondidas na web. Uso recomendado: identificar variações de cauda longa que o consensus content não responde adequadamente — esses são os vetores de information gain mais acessíveis para equipes sem orçamento de pesquisa.</p>



<p><strong>Comunidades e fóruns especializados:</strong> Reddit, Quora e fóruns de nicho são fontes primárias de perguntas não respondidas satisfatoriamente. Não são ferramentas de SEO, mas são as fontes mais ricas de information gain potencial: onde profissionais reais expressam dúvidas que os artigos existentes não resolvem com a especificidade necessária para uso prático.</p>



<p><strong>Google Search Console:</strong> Taxa de cliques abaixo da média para páginas com impressões altas indica conteúdo que não se diferencia na SERP — frequentemente um proxy de information gain baixo. Combinado com dados de engajamento, esse sinal orienta a priorização das auditorias de conteúdo existente.</p>



<h2 class="wp-block-heading">Perguntas frequentes</h2>



<p>As dúvidas sobre information gain concentram-se em dois eixos: a base conceitual do termo e sua aplicação prática em estratégias de SEO e produção de conteúdo. As perguntas a seguir refletem as questões mais frequentes de profissionais que estão incorporando esse conceito ao seu fluxo de trabalho cotidiano.</p>



<h3 class="wp-block-heading">Como calcular information gain em SEO na prática?</h3>



<p>Não existe uma fórmula direta aplicável manualmente. O método mais prático é a análise comparativa: mapeie o consensus content dos cinco primeiros resultados para a sua palavra-chave alvo e calcule a proporção do seu conteúdo composta por ângulos, dados ou perspectivas que esses resultados não cobrem. Ferramentas como MarketMuse e Clearscope auxiliam na identificação de gaps semânticos, mas a análise qualitativa manual é insubstituível para avaliação de information gain real.</p>



<h3 class="wp-block-heading">Qual a diferença entre information gain em machine learning e em SEO?</h3>



<p>Em machine learning, o information gain é uma medida matemática precisa que quantifica a redução de entropia de um conjunto de dados quando uma variável é conhecida — base dos algoritmos ID3 e C4.5 para árvores de decisão. Em SEO, o conceito foi adaptado pelo Google para descrever o grau de originalidade semântica de um documento em relação ao corpus de documentos existentes sobre o mesmo tema. O princípio de medir novidade informacional é análogo, mas a operacionalização é fundamentalmente diferente.</p>



<h3 class="wp-block-heading">O que é consensus content e por que ele prejudica meu ranqueamento?</h3>



<p>O consensus content é o conjunto de informações que praticamente todos os documentos sobre um tema já contêm. Um artigo composto predominantemente desses elementos tem information gain score baixo — não contribui com nada que o corpus já não contenha. O Google, especialmente a partir do Helpful Content System, trata conteúdo com IGS baixo como sinal de qualidade reduzida, afetando o ranqueamento tanto da página individual quanto do domínio como um todo.</p>



<h3 class="wp-block-heading">Information gain e E-E-A-T têm relação direta?</h3>



<p>Sim, a relação é direta. O E-E-A-T — especialmente a dimensão de Experience — é operacionalmente um framework para gerar information gain. Conteúdo que reflete experiência real, especialização genuína e autoridade construída tem, por definição, information gain alto: traz perspectivas que não podem ser replicadas por quem apenas analisou o que já existe na web. O Google usa os sinais de E-E-A-T como proxy para avaliar a probabilidade de um conteúdo ter IGS genuinamente alto.</p>



<h3 class="wp-block-heading">Como saber se meu conteúdo tem information gain alto ou baixo?</h3>



<p>Aplique o &#8220;teste do especialista&#8221;: mostre o conteúdo para alguém com experiência real no tema e pergunte quais partes ele já sabia antes de ler. As partes amplamente conhecidas são consensus content. Aplique também o &#8220;teste do modelo de linguagem&#8221;: se uma IA generativa produziria o mesmo conteúdo sem acesso a fontes específicas, o information gain é baixo. Conteúdo com alto IGS contém dados originais, perspectivas específicas ou conclusões que não existem em outras fontes sobre o mesmo tema.</p>



<h3 class="wp-block-heading">O Google realmente usa information gain como fator de ranqueamento?</h3>



<p>A patente do Google (Slisevich et al.) descreve explicitamente o uso do information gain score como fator de avaliação de documentos. Patentes descrevem tecnologias que podem ou não estar em uso ativo — o Google não confirma publicamente quais estão implementadas. No entanto, os efeitos observados nas atualizações do Helpful Content System são consistentes com o que um sistema baseado em IGS produziria, o que sugere que o conceito ou uma variante está em uso efetivo no algoritmo.</p>



<h3 class="wp-block-heading">Como aplicar information gain sem fazer pesquisas primárias caras?</h3>



<p>Pesquisa primária não precisa ser cara. Surveys simples com respondentes da sua rede geram dados originais em dias, sem custo significativo. Além disso, há fontes de alto information gain sem custo: relatos de experiência real da equipe interna, análise de dados proprietários da empresa, casos de uso específicos mapeados a partir de perguntas de clientes e ângulos contrários ao consenso fundamentados em evidências já disponíveis. A barreira não é financeira — é de comprometimento com diferenciação informacional genuína.</p>



<h3 class="wp-block-heading">Information gain vale para conteúdos curtos ou só para artigos longos?</h3>



<p>O information gain não é função do tamanho do conteúdo — é função da proporção de informação original que ele contém. Um conteúdo de 500 palavras pode ter information gain mais alto do que um artigo de 5.000 palavras, se o conteúdo curto trouxer um dado original genuíno e o longo for composto majoritariamente de consensus content. O comprimento influencia a capacidade de cobrir múltiplos ângulos, mas não garante information gain alto por si só.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.conversion.com.br/blog/information-gain/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Claude Mythos Preview: o que é, funcionalidades e o que esperar do novo modelo da Anthropic</title>
		<link>https://www.conversion.com.br/blog/claude-mythos/</link>
					<comments>https://www.conversion.com.br/blog/claude-mythos/#respond</comments>
		
		<dc:creator><![CDATA[Diego Ivo]]></dc:creator>
		<pubDate>Wed, 08 Apr 2026 20:21:30 +0000</pubDate>
				<category><![CDATA[IA]]></category>
		<guid isPermaLink="false">https://www.conversion.com.br/?p=53064</guid>

					<description><![CDATA[Claude Mythos Preview é o modelo de linguagem da Anthropic especializado em cibersegurança defensiva, disponível em acesso restrito para parceiros do Project Glasswing desde abril de 2026 A corrida por modelos de linguagem cada vez mais capazes ganhou um capítulo inesperado em 2026. A Anthropic lançou o Claude Mythos Preview, seu modelo mais poderoso até [&#8230;]]]></description>
										<content:encoded><![CDATA[
<h3 class="wp-block-heading">Claude Mythos Preview é o modelo de linguagem da Anthropic especializado em cibersegurança defensiva, disponível em acesso restrito para parceiros do Project Glasswing desde abril de 2026</h3>



<p>A corrida por modelos de linguagem cada vez mais capazes ganhou um capítulo inesperado em 2026. A Anthropic lançou o Claude Mythos Preview, seu modelo mais poderoso até o momento, mas optou por uma estratégia radicalmente diferente dos lançamentos anteriores: acesso extremamente restrito, voltado exclusivamente para organizações de segurança cibernética. Nenhum usuário comum, nenhum desenvolvedor independente e nenhum plano pago do claude.ai tem acesso ao modelo.</p>



<p>O Mythos Preview chegou ao conhecimento público antes mesmo do anúncio oficial. Em março de 2026, um vazamento acidental expôs cerca de 3.000 ativos não publicados da Anthropic, entre eles documentos e referências ao novo modelo. O episódio forçou a empresa a adiantar sua comunicação e, semanas depois, tornou o lançamento oficial dentro do Project Glasswing, o programa de pesquisa colaborativa em cibersegurança que estrutura o acesso ao modelo.</p>



<p>O que diferencia o Claude Mythos Preview de qualquer lançamento anterior da família Claude é sua especialização. Enquanto o Claude Opus 4.6 atende a uma ampla gama de tarefas de propósito geral, o Mythos foi desenvolvido para fluxos de trabalho técnicos em segurança defensiva, como detecção de vulnerabilidades, testes de caixa preta e análise de infraestruturas críticas. Este artigo reúne o que se sabe sobre o modelo, seu contexto de lançamento e o que esperar de sua evolução.</p>



<h2 class="wp-block-heading">O vazamento que revelou o Claude Mythos ao mundo</h2>



<p>A existência do Claude Mythos Preview veio a público de forma não planejada. Em março de 2026, aproximadamente 3.000 ativos não publicados da Anthropic foram expostos acidentalmente. O material incluía especificações técnicas, documentos internos e referências diretas ao modelo até então desconhecido. O incidente repercutiu intensamente nas comunidades de inteligência artificial e de segurança cibernética.</p>



<p>A Anthropic confirmou o vazamento publicamente e deu início ao processo de comunicação oficial sobre o Mythos Preview. Poucas semanas depois, em abril de 2026, a empresa anunciou formalmente o modelo como parte do Project Glasswing. No entanto, a empresa manteve a decisão de restringir o acesso: em vez de um lançamento amplo, o Mythos Preview foi disponibilizado apenas para um grupo seleto de organizações parceiras com atuação comprovada em segurança cibernética defensiva.</p>



<p>O episódio levantou questões relevantes sobre os protocolos de segurança interna da Anthropic, mas também revelou a envergadura do modelo. As informações expostas no vazamento confirmaram que o Mythos Preview representa um salto técnico significativo, posicionando-o acima do Claude Opus 4.6 em capacidade de raciocínio técnico especializado. Esse contexto ajuda a compreender por que a Anthropic optou por uma estratégia de distribuição tão cautelosa.</p>



<h2 class="wp-block-heading">Project Glasswing: o programa que estrutura o acesso ao modelo</h2>



<p>O Project Glasswing é o programa de pesquisa da Anthropic responsável por intermediar o acesso ao Claude Mythos Preview. Disponível em anthropic.com/glasswing, o programa funciona como uma plataforma de colaboração fechada entre a Anthropic e organizações parceiras do setor de segurança cibernética. O nome remete à borboleta Glasswing, conhecida por suas asas transparentes, em referência à proposta de pesquisa auditável e colaborativa.</p>



<p>O acesso via Project Glasswing é concedido mediante processo de inscrição e avaliação. Organizações interessadas devem demonstrar atuação ativa em segurança defensiva e capacidade técnica para utilizar o modelo de forma responsável. Entre os parceiros confirmados no lançamento estão Google DeepMind, Microsoft e a Agência de Segurança Cibernética e Infraestrutura dos Estados Unidos, a CISA. Não há acesso disponível para usuários individuais, desenvolvedores com planos padrão de API ou assinantes do Claude Pro.</p>



<p>Além do Glasswing, a Anthropic disponibilizou o Claude Mythos Preview no Amazon Bedrock como segunda via de acesso. Nesse caso, porém, as restrições se mantêm integralmente: o modelo no Bedrock é acessível apenas para organizações com perfil qualificado de segurança, não para contas comuns de desenvolvedor. O System Card do modelo foi publicado publicamente na CDN oficial da Anthropic, permitindo que pesquisadores analisem as diretrizes de segurança sem necessidade de acesso direto ao modelo.</p>



<h2 class="wp-block-heading">Capacidades técnicas do Claude Mythos Preview</h2>



<p>O Claude Mythos Preview foi desenvolvido com foco em raciocínio técnico avançado para contextos de segurança cibernética. Entre as capacidades documentadas no System Card da Anthropic, destacam-se a detecção de vulnerabilidades em código, a execução de testes de caixa preta em sistemas e a análise profunda de padrões de ameaça em infraestruturas digitais. O modelo demonstra desempenho superior em tarefas que exigem correlacionar múltiplas variáveis técnicas simultaneamente.</p>



<p>A janela de contexto expandida é outro diferencial documentado em relação aos modelos anteriores da família Claude. Contextos mais amplos permitem que o modelo analise bases de código extensas e mantenha coerência analítica ao longo de documentos técnicos complexos. Isso é particularmente relevante para fluxos de trabalho de segurança em que a identificação de uma vulnerabilidade exige rastrear comportamentos ao longo de centenas de arquivos interdependentes.</p>



<p>A capacidade de identificar falhas de código, conhecidas em inglês como bugs, em projetos de grande escala representa um avanço mensurável em relação ao Claude Opus 4.6 para esse tipo específico de tarefa. O modelo consegue manter coerência analítica em bases de código complexas, identificando padrões de falha que exigem raciocínio encadeado de múltiplas etapas. Contudo, as funcionalidades do Mythos Preview foram desenvolvidas com restrições explícitas para evitar qualquer aplicação ofensiva.</p>



<p>O System Card publicado pela Anthropic detalha que o modelo passou por avaliações de segurança específicas antes do lançamento restrito. Essas avaliações identificaram capacidades que a empresa classificou como riscos sem precedentes se utilizadas em contextos ofensivos, motivando a decisão de manter o acesso extremamente limitado durante o período de preview. Esse conjunto de salvaguardas distingue o processo de lançamento do Mythos de qualquer modelo anterior da empresa.</p>



<h2 class="wp-block-heading">Posição do Claude Mythos na hierarquia de modelos da Anthropic</h2>



<p>O Claude Mythos Preview ocupa um tier diferente de todos os modelos anteriores da família Claude. O Claude Opus 4.6 é o modelo de propósito geral mais capaz disponível publicamente pela Anthropic. O Mythos Preview está posicionado acima do Opus em termos de capacidade técnica bruta, especialmente para tarefas de raciocínio técnico especializado em segurança. Trata-se, portanto, do modelo mais avançado já desenvolvido pela empresa.</p>



<p>A comparação com o Claude 3.5 Sonnet não é adequada. O Sonnet pertence a uma categoria distinta, voltada para eficiência e uso geral em aplicações de produtividade. O Mythos Preview não é um sucessor do Sonnet nem concorre com ele nas mesmas dimensões de avaliação. São modelos com propósitos, audiências e infraestruturas de acesso completamente diferentes, e equipará-los geraria uma compreensão incorreta das prioridades da Anthropic.</p>



<p>Igualmente importante é compreender que o Mythos Preview não substituirá os modelos existentes nos planos Claude Pro ou nas APIs abertas. A Anthropic deixou claro que o modelo tem uma trajetória de distribuição distinta, vinculada exclusivamente ao contexto de segurança cibernética defensiva e às parcerias estruturadas pelo Project Glasswing. Os demais modelos da empresa seguem seus ciclos normais de desenvolvimento e disponibilidade.</p>



<h2 class="wp-block-heading">Por que a Anthropic restringiu o acesso ao Claude Mythos Preview</h2>



<p>A postura da Anthropic em relação ao Claude Mythos Preview é coerente com sua abordagem de segurança por design. A empresa avaliou que o modelo apresenta riscos de cibersegurança sem precedentes se utilizado fora de contextos defensivos controlados. Esse diagnóstico motivou a decisão de não lançar o modelo amplamente, mesmo após o vazamento de março de 2026 ter tornado sua existência amplamente conhecida.</p>



<p>No entanto, a Anthropic reconheceu que o potencial defensivo do modelo justifica seu desenvolvimento e distribuição controlada. A lógica é que organizações com atuação legítima em segurança cibernética podem utilizar as capacidades do Mythos Preview para identificar e corrigir vulnerabilidades antes que agentes mal-intencionados as explorem. Dessa forma, o acesso restrito permite coletar dados de uso real sem escalar riscos de forma irresponsável, reunindo aprendizados que informarão decisões futuras sobre o modelo.</p>



<p>A publicação do System Card é uma das principais medidas de transparência adotadas pela empresa nesse processo. Por meio desse documento, pesquisadores e a comunidade de segurança podem auditar as diretrizes de uso, as limitações conhecidas e as salvaguardas implementadas no modelo, mesmo sem ter acesso direto a ele. Essa prática está alinhada com os princípios de inteligência artificial segura que a Anthropic defende publicamente desde sua fundação, em 2021.</p>



<h2 class="wp-block-heading">Como acessar o Claude Mythos Preview</h2>



<p>O acesso ao Claude Mythos Preview não está disponível no claude.ai nem por meio das APIs padrão da Anthropic. O caminho oficial é por inscrição no Project Glasswing, em anthropic.com/glasswing. O processo é direcionado a organizações, não a usuários individuais, e exige demonstração clara de atuação em segurança cibernética defensiva. Startups de segurança, empresas especializadas, agências governamentais e instituições de pesquisa são os perfis mais compatíveis com os critérios do programa.</p>



<p>A segunda via é o Amazon Bedrock, a plataforma de serviços de inteligência artificial da Amazon Web Services. Porém, também nesse caso, as restrições se aplicam integralmente: o modelo no Bedrock está disponível somente para organizações com perfil de segurança qualificado. Não há informações públicas sobre preço definitivo do Claude Mythos Preview, pois o acesso atual é parte de um programa de pesquisa colaborativa, não de uma oferta comercial consolidada com tabela pública de preços.</p>



<p>Para pesquisadores e profissionais de segurança que ainda não se enquadram nos critérios do Project Glasswing, a alternativa mais acessível é acompanhar os avanços pelo System Card publicado na CDN oficial da Anthropic e aguardar possíveis ampliações do programa. A empresa sinalizou que avaliará a expansão do acesso conforme o entendimento sobre os riscos do modelo evolua ao longo dos testes com parceiros.</p>



<h2 class="wp-block-heading">O que esperar do Claude Mythos Preview nos próximos meses</h2>



<p>O período de preview do Claude Mythos é, por definição, uma fase de coleta de dados e avaliação de riscos. A Anthropic espera que o uso pelos parceiros do Project Glasswing forneça informações valiosas sobre o comportamento real do modelo em contextos de segurança cibernética. Com base nesses resultados, a empresa deverá refinar as capacidades do modelo, revisar as diretrizes de segurança e avaliar se uma distribuição mais ampla é viável.</p>



<p>A possibilidade de expansão gradual do acesso existe, mas depende diretamente das avaliações em curso. Se a Anthropic concluir que os riscos identificados podem ser mitigados de forma confiável, é provável que novos parceiros sejam incorporados ao Glasswing ao longo de 2026. Por outro lado, se os testes revelarem riscos adicionais não antecipados, o acesso poderá permanecer restrito por período indeterminado, independentemente da pressão do mercado por maior abertura ao modelo.</p>



<p>O Claude Mythos Preview representa uma aposta da Anthropic em modelos especializados para nichos de alta criticidade. É possível que a empresa expanda essa abordagem para outras áreas além da cibersegurança, criando modelos de pesquisa restritos para saúde, infraestrutura crítica ou biossegurança. O Mythos Preview seria, portanto, o primeiro exemplo de uma estratégia mais ampla de distribuição controlada para modelos de alto risco, com implicações relevantes para o setor de inteligência artificial como um todo.</p>



<h2 class="wp-block-heading">Perguntas frequentes</h2>



<p>As dúvidas sobre o Claude Mythos Preview são frequentes entre profissionais de segurança cibernética, desenvolvedores e pesquisadores de inteligência artificial. Reunimos as perguntas mais comuns com base nas buscas e nas discussões da comunidade especializada sobre o modelo.</p>



<h3 class="wp-block-heading">O que é o Claude Mythos Preview?</h3>



<p>O Claude Mythos Preview é o modelo de linguagem mais avançado da Anthropic, especializado em cibersegurança defensiva. Lançado em abril de 2026 como parte do Project Glasswing, o modelo está disponível apenas para organizações parceiras de segurança selecionadas, não para o público geral ou usuários de planos pagos do claude.ai.</p>



<h3 class="wp-block-heading">Qual é a diferença entre Claude Mythos Preview e Claude 3.5 Sonnet?</h3>



<p>O Claude Mythos Preview e o Claude 3.5 Sonnet pertencem a categorias distintas. O Sonnet é um modelo de propósito geral, focado em eficiência e produtividade. O Mythos Preview é um modelo de pesquisa especializado em cibersegurança, posicionado acima do Claude Opus 4.6 em capacidade técnica bruta. Os dois modelos não competem diretamente e têm públicos completamente diferentes.</p>



<h3 class="wp-block-heading">Quando o Claude Mythos será lançado ao público geral?</h3>



<p>A Anthropic não anunciou data para disponibilização pública do Claude Mythos. O modelo está em fase de preview restrito, e a decisão de ampliar o acesso depende dos resultados das avaliações de segurança com os parceiros do Project Glasswing. Por enquanto, não há previsão de lançamento para usuários do claude.ai ou APIs padrão da Anthropic.</p>



<h3 class="wp-block-heading">Como acessar o Claude Mythos Preview?</h3>



<p>O acesso ao Claude Mythos Preview é feito por inscrição no Project Glasswing, em anthropic.com/glasswing, exclusivamente para organizações com atuação em segurança cibernética defensiva. Uma segunda via é o Amazon Bedrock, também com restrições similares de perfil. O modelo não está disponível no claude.ai nem por meio das APIs padrão da Anthropic.</p>



<h3 class="wp-block-heading">Claude Mythos é melhor que o GPT-4?</h3>



<p>A comparação direta entre Claude Mythos Preview e GPT-4 é difícil de estabelecer, pois os dois modelos têm propósitos diferentes. O Mythos Preview é especializado em cibersegurança defensiva, enquanto o GPT-4 é um modelo de propósito geral. Em tarefas específicas de segurança cibernética, o Mythos Preview apresenta capacidades documentadas superiores, mas essa comparação não se aplica a contextos gerais de produtividade ou criação de conteúdo.</p>



<h3 class="wp-block-heading">Qual é o preço do Claude Mythos Preview?</h3>



<p>Não há informações públicas sobre o preço definitivo do Claude Mythos Preview. O acesso atual é parte de um programa de pesquisa colaborativa, o Project Glasswing, não de uma oferta comercial convencional. Eventuais custos para organizações parceiras não foram divulgados pela Anthropic até o momento.</p>



<h3 class="wp-block-heading">Quais são as melhorias do Claude Mythos em relação ao Opus 4.6?</h3>



<p>O Claude Mythos Preview apresenta melhorias documentadas em raciocínio técnico especializado, janela de contexto expandida e capacidade de identificar falhas de código em projetos de grande escala. O System Card publicado pela Anthropic na CDN oficial detalha as capacidades avaliadas e as salvaguardas implementadas, sendo o documento mais completo disponível publicamente sobre o modelo.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.conversion.com.br/blog/claude-mythos/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Google Helpful Content System: o que é, como funciona e como se adequar</title>
		<link>https://www.conversion.com.br/blog/helpful-content-system/</link>
					<comments>https://www.conversion.com.br/blog/helpful-content-system/#respond</comments>
		
		<dc:creator><![CDATA[Mariana Pessoa]]></dc:creator>
		<pubDate>Wed, 08 Apr 2026 00:22:32 +0000</pubDate>
				<category><![CDATA[Geral]]></category>
		<guid isPermaLink="false">https://www.conversion.com.br/?p=26617</guid>

					<description><![CDATA[Google Helpful Content System é o sistema classificador automatizado e permanente do Google que avalia se o conteúdo de um site foi criado primariamente para ajudar pessoas reais ou apenas para obter posições nos mecanismos de busca Nos últimos anos, o Google intensificou a pressão sobre uma prática que sempre foi seu alvo principal: conteúdo [&#8230;]]]></description>
										<content:encoded><![CDATA[
<h3 class="wp-block-heading">Google Helpful Content System é o sistema classificador automatizado e permanente do Google que avalia se o conteúdo de um site foi criado primariamente para ajudar pessoas reais ou apenas para obter posições nos mecanismos de busca</h3>



<p>Nos últimos anos, o Google intensificou a pressão sobre uma prática que sempre foi seu alvo principal: conteúdo produzido exclusivamente para manipular algoritmos, sem valor real para o leitor. A resposta mais estruturada a esse problema veio em agosto de 2022, quando o buscador lançou um sistema inteiramente novo para classificar a utilidade do conteúdo em escala global.</p>



<p>O Google Helpful Content System representou uma mudança de abordagem significativa. Diferente de atualizações pontuais, o sistema opera de forma contínua e automatizada, reavaliando constantemente os sites indexados. Isso significa que não basta ajustar o conteúdo antes de um update específico — a adequação precisa ser permanente e estrutural.</p>



<p>Para profissionais de SEO e gestores de marketing digital, compreender o sistema em profundidade é condição necessária para manter e expandir visibilidade orgânica. O impacto foi sentido por sites de todos os tamanhos, em especial aqueles com grande volume de conteúdo produzido para rankear palavras-chave sem oferecer experiência genuína ao usuário.</p>



<p>Este guia apresenta o funcionamento detalhado do sistema, o histórico completo de atualizações, os métodos para diagnosticar impacto e as boas práticas para adequação. Profissionais que dominarem esses conceitos estarão mais bem posicionados para construir estratégias de conteúdo sustentáveis no longo prazo.</p>



<h2 class="wp-block-heading">O que é o Google Helpful Content System</h2>



<p>O Google Helpful Content System é um classificador automatizado integrado ao núcleo do algoritmo do buscador. Seu objetivo declarado é identificar e reduzir a visibilidade de conteúdo produzido primariamente para mecanismos de busca, em detrimento de conteúdo criado para oferecer valor real a pessoas que realizam buscas com uma necessidade específica.</p>



<p>A distinção entre &#8220;sistema&#8221; e &#8220;update&#8221; é importante e frequentemente mal compreendida. Um update é um evento pontual — acontece, tem uma janela de rollout e encerra. Um sistema, por outro lado, é uma infraestrutura permanente que opera de forma contínua. O Helpful Content System pertence à segunda categoria: ele avalia os sites de forma constante, reclassificando-os conforme o conteúdo evolui ou regride em qualidade.</p>



<p>A premissa central do sistema baseia-se em uma pergunta simples: este conteúdo existe para ajudar alguém? O Google parte do princípio de que conteúdo genuinamente útil tende a satisfazer a intenção de busca do usuário, reduzir a taxa de retorno às páginas de resultados e gerar sinais de engajamento positivo. Conteúdo criado apenas para rankear, por sua vez, tende a frustrar o usuário, que retorna rapidamente ao buscador em busca de uma resposta melhor.</p>



<p>O sistema foi desenvolvido com machine learning, treinado para reconhecer padrões que indicam ausência de valor genuíno: cobertura superficial de tópicos, ausência de experiência de primeira mão, conteúdo que responde perguntas que os usuários reais não fazem, ou que evita responder exatamente o que o usuário precisa saber. Esses padrões são avaliados em conjunto, não isoladamente.</p>



<p>Vale registrar que o sistema não penaliza conteúdo gerado com determinadas ferramentas ou formatos — a questão central é sempre a utilidade para o leitor. Um artigo longo e bem fundamentado pode ser classificado positivamente, enquanto um artigo curto e superficial sobre o mesmo tema pode receber sinal negativo, independentemente de outros fatores técnicos.</p>



<h2 class="wp-block-heading">Como o Helpful Content System funciona na prática</h2>



<p>O aspecto técnico mais relevante do sistema — e o que o diferencia de filtros de spam tradicionais — é que ele opera em nível de site, não apenas em nível de página. Isso significa que um volume elevado de conteúdo de baixa qualidade em um domínio pode afetar negativamente a visibilidade de páginas que, individualmente, seriam consideradas úteis.</p>



<p>O mecanismo central é o que o Google denomina &#8220;sinal de site&#8221; (site-wide signal). O classificador avalia a proporção de conteúdo útil em relação ao conteúdo criado sem valor genuíno. Sites onde a maior parte do conteúdo atende às diretrizes do sistema tendem a receber um sinal positivo, que potencializa o desempenho das páginas mais relevantes. Já sites com proporção elevada de conteúdo problemático recebem um sinal negativo que suprime o desempenho geral.</p>



<p>Essa dinâmica tem implicações práticas importantes. Um site que produz conteúdo de alta qualidade em suas categorias principais, mas mantém centenas de páginas rasas sobre temas tangenciais apenas para capturar tráfego de cauda longa, pode ter todo o domínio penalizado. A soma do conteúdo de baixa qualidade contamina a avaliação das páginas mais cuidadosamente elaboradas.</p>



<p>O classificador é atualizado continuamente e seus sinais são incorporados ao processo de ranqueamento em tempo real. Isso significa que melhorias no conteúdo são reconhecidas ao longo do tempo — mas a recuperação não é imediata, pois o sistema precisa reavaliar o site como um todo após mudanças significativas na composição do conteúdo.</p>



<p>O impacto pode ser tanto negativo quanto positivo. Sites que já produziam conteúdo genuinamente útil antes do sistema ser implementado podem ter sido beneficiados, pois o classificador passou a valorizar atributos que esses sites já possuíam. Por outro lado, sites que dependiam fortemente de técnicas de otimização sem substância passaram a enfrentar supressão progressiva.</p>



<p>O sistema também considera o contexto temático do site. Uma pergunta que o Google utiliza internamente para calibrar o classificador é: &#8220;o site tem um foco ou propósito claro?&#8221; Sites com temática coerente e especialização demonstrável tendem a ser avaliados de forma mais favorável do que sites que cobrem tópicos absolutamente distintos sem nenhuma linha editorial unificadora.</p>



<p>Outro ponto relevante é que o sistema não é binário. Não existe um estado de &#8220;aprovado&#8221; ou &#8220;reprovado&#8221; — há gradações de sinal, e pequenas melhorias contínuas no conteúdo podem acumular ganhos de desempenho ao longo do tempo. Isso reforça a importância de tratar a adequação ao sistema como um processo contínuo, e não como uma correção pontual.</p>



<h2 class="wp-block-heading">Histórico completo de atualizações do Helpful Content System</h2>



<p>Compreender a linha do tempo das atualizações é fundamental para correlacionar quedas de tráfego com eventos específicos e entender como o escopo do sistema evoluiu desde seu lançamento. Cada atualização trouxe mudanças relevantes em alcance, critérios e impacto.</p>



<h3 class="wp-block-heading">Agosto de 2022: o lançamento nos Estados Unidos</h3>



<p>O Google lançou o Helpful Content System em 25 de agosto de 2022, com rollout concluído em 9 de setembro de 2022 — um período de quinze dias. Nessa fase inicial, o sistema foi implementado exclusivamente para buscas em inglês, com foco prioritário em nichos onde o conteúdo criado para SEO era particularmente prevalente: tutoriais online, avaliações de produtos, conteúdo de entretenimento e saúde.</p>



<p>O impacto inicial foi moderado em termos absolutos, mas revelador em termos qualitativos. Sites altamente dependentes de conteúdo gerado em escala, sem edição humana significativa, foram os mais afetados. Ao mesmo tempo, publicações com forte reputação editorial e demonstração clara de especialização registraram ganhos de visibilidade, confirmando que o sistema operava como projetado.</p>



<p>Nessa primeira fase, o Google também publicou um conjunto de perguntas de autoavaliação para que produtores de conteúdo pudessem verificar a conformidade de seus materiais com os critérios do sistema. Essas perguntas se tornaram referência para a comunidade de SEO e foram posteriormente atualizadas nas versões seguintes.</p>



<h3 class="wp-block-heading">Dezembro de 2022: expansão global e multilíngue</h3>



<p>Em dezembro de 2022, o Google expandiu o Helpful Content System para todos os idiomas suportados pelo buscador, incluindo o português. O rollout durou aproximadamente duas semanas e representou o primeiro momento em que sites brasileiros passaram a ser avaliados diretamente pelo sistema.</p>



<p>A expansão global trouxe implicações específicas para mercados não anglófonos. Em nichos onde a produção de conteúdo em português ainda era incipiente, sites que cobriam determinados temas com mais profundidade passaram a colher benefícios. Por outro lado, operações de conteúdo em escala voltadas para o mercado brasileiro enfrentaram as primeiras pressões do sistema.</p>



<h3 class="wp-block-heading">Setembro de 2023: a atualização mais impactante</h3>



<p>A atualização de setembro de 2023, iniciada em 14 de setembro e concluída em 28 de setembro, foi a mais ampla e impactante até aquele momento. O Google expandiu significativamente os critérios de avaliação do sistema, incorporando novos sinais relacionados à experiência de primeira mão, à credibilidade das fontes e à demonstração de conhecimento genuíno.</p>



<p>Nessa atualização, o Google também ampliou o escopo do sistema para incluir conteúdo de terceiros hospedado em domínios principais — como seções de guest posts ou conteúdo patrocinado sem curadoria rigorosa. Sites que hospedavam grandes volumes de conteúdo externo sem controle editorial foram afetados de forma expressiva.</p>



<p>O impacto da atualização de setembro de 2023 foi amplamente documentado pela comunidade de SEO. Dados de ferramentas de análise registraram quedas de visibilidade em nichos de comparação de produtos, tutoriais de software e conteúdo de saúde e bem-estar — exatamente as categorias onde a produção em escala sem especialização era mais comum. Sites que demonstravam autoridade temática consistente, por sua vez, saíram fortalecidos dessa fase.</p>



<h3 class="wp-block-heading">Março de 2024: integração ao Core Update</h3>



<p>Em março de 2024, o Google anunciou que o Helpful Content System seria incorporado ao processo de Core Update, deixando de existir como sistema separado. Essa mudança representou uma evolução estrutural significativa no funcionamento do algoritmo, com implicações duradouras para a estratégia de conteúdo de qualquer site que deseja manter ou expandir presença orgânica.</p>



<h2 class="wp-block-heading">A integração ao Core Update de março de 2024: o que mudou</h2>



<p>O Core Update de março de 2024 foi, ao mesmo tempo, a maior atualização de algoritmo dos últimos anos e o evento que marcou o fim do Helpful Content System como entidade separada. A partir desse momento, os sinais de conteúdo útil passaram a ser avaliados como parte integrante do processo de ranqueamento central, sem um sistema dedicado distinto.</p>



<p>Na prática, isso significa que não existe mais um &#8220;Helpful Content Update&#8221; isolado como acontecimento específico. Os critérios de utilidade de conteúdo agora são aplicados continuamente e de forma integrada a todos os outros fatores de ranqueamento. O Google não anunciará mais atualizações específicas do sistema — as mudanças nesse critério ocorrerão como parte dos core updates regulares.</p>



<p>O Google anunciou, junto com essa integração, uma meta ambiciosa: reduzir em 40% o volume de conteúdo de baixa qualidade nos resultados de busca. Esse objetivo foi parcialmente atingido já nos primeiros meses após o lançamento da atualização, com quedas significativas de visibilidade em sites que concentravam grandes volumes de conteúdo raso gerado em escala.</p>



<p>Para os profissionais de SEO, a integração trouxe uma mudança importante na forma de monitorar o impacto dessas atualizações. Antes, era possível correlacionar quedas específicas ao Helpful Content System. Agora, qualquer core update pode incorporar ajustes nos critérios de utilidade de conteúdo, tornando o diagnóstico mais complexo mas também mais integrado à análise geral de desempenho orgânico.</p>



<p>Outro aspecto relevante da atualização de março de 2024 foi a incorporação explícita de critérios de escalonamento de conteúdo. O Google passou a avaliar não apenas a qualidade individual de páginas, mas também padrões de produção em escala — sinalizando que sites que adotam estratégias de conteúdo em volume sem critérios rigorosos de qualidade enfrentarão dificuldades crescentes nos resultados orgânicos.</p>



<p>A mensagem central do Google com essa integração é clara: a utilidade do conteúdo não é um critério separado dos outros fatores de ranqueamento — ela é o critério principal, em torno do qual os demais se organizam. Sites que internalizarem essa lógica estarão mais bem posicionados para qualquer atualização futura, independentemente do escopo ou da intensidade de seus impactos.</p>



<h2 class="wp-block-heading">Como saber se seu site foi impactado pelo Helpful Content System</h2>



<p>Identificar se um site foi afetado pelo Helpful Content System exige correlacionar dados de desempenho com as datas das atualizações. O processo envolve o uso combinado de Google Search Console, Google Analytics e ferramentas de SEO de terceiros para construir um diagnóstico preciso e fundamentado em dados.</p>



<p>O primeiro passo é mapear as datas de referência. As principais atualizações do sistema ocorreram em: 25 de agosto de 2022, 5 de dezembro de 2022, 14 de setembro de 2023 e 5 de março de 2024. Se o site registrou quedas expressivas próximas a qualquer dessas datas, existe forte indicação de impacto relacionado ao sistema — especialmente se a queda não foi seguida de recuperação espontânea nas semanas seguintes.</p>



<h3 class="wp-block-heading">Diagnóstico com o Google Search Console</h3>



<p>No Google Search Console, o relatório de Desempenho é o ponto de partida. Configure o intervalo de datas para incluir pelo menos 90 dias antes e 90 dias depois de cada atualização que deseja analisar. Observe as métricas de impressões totais, cliques totais e posição média — quedas simultâneas nessas três métricas são um forte indicativo de impacto algorítmico.</p>



<p>Filtre os dados por página para identificar quais URLs perderam mais visibilidade. Se as páginas mais afetadas forem aquelas com conteúdo mais raso, maior dependência de palavras-chave e menor demonstração de experiência, o padrão é consistente com impacto do sistema. Por outro lado, se as quedas forem concentradas em páginas específicas sem padrão claro de qualidade, pode se tratar de outro tipo de atualização ou de um problema técnico isolado.</p>



<p>Outra análise útil no Search Console é comparar a distribuição de consultas antes e depois das datas de atualização. Sites afetados pelo sistema tendem a perder visibilidade especialmente para palavras-chave de cauda longa informacional — exatamente as consultas onde conteúdo raso costumava se posicionar com maior facilidade antes da implementação do sistema.</p>



<h3 class="wp-block-heading">Diagnóstico com o Google Analytics</h3>



<p>No Google Analytics, o canal Organic Search é o foco da análise. Configure segmentos de data correspondentes a cada atualização e compare o tráfego orgânico total. Uma queda abrupta e persistente — que não se recupera nas semanas seguintes — é um sinal de impacto algorítmico estrutural, diferente de flutuações sazonais naturais.</p>



<p>Examine também as métricas de engajamento das sessões orgânicas: taxa de rejeição, duração média da sessão e páginas por sessão. Se o tráfego caiu mas as métricas de engajamento melhoraram, pode indicar que o sistema filtrou tráfego de baixa intenção. Se tanto o tráfego quanto o engajamento caíram, o problema provavelmente é mais amplo e exige investigação aprofundada.</p>



<h3 class="wp-block-heading">Uso de ferramentas de terceiros</h3>



<p>Ferramentas como Semrush e Ahrefs oferecem gráficos de visibilidade orgânica que facilitam a correlação visual entre quedas de desempenho e datas de atualizações. O Semrush Sensor e o Volatility Chart do Ahrefs indicam a intensidade de flutuações algorítmicas em períodos específicos, ajudando a confirmar se uma queda coincide com uma atualização ampla do algoritmo ou se é um fenômeno isolado do site.</p>



<p>Igualmente, essas ferramentas permitem identificar quais concorrentes ganharam visibilidade enquanto o site perdeu. Analisar os sites que se beneficiaram pode revelar padrões de qualidade de conteúdo que o Google passou a valorizar — um exercício prático de benchmarking qualitativo que frequentemente aponta o caminho para a recuperação.</p>



<h2 class="wp-block-heading">O papel do E-E-A-T no Helpful Content System</h2>



<p>O E-E-A-T — sigla para Experience, Expertise, Authoritativeness e Trustworthiness (Experiência, Especialização, Autoridade e Confiança) — é o conjunto de atributos que o Google utiliza para avaliar se um conteúdo e seu produtor são credíveis. Embora o E-E-A-T existisse antes do Helpful Content System, os dois conceitos se tornaram profundamente interdependentes ao longo do tempo.</p>



<p>A adição do segundo &#8220;E&#8221; — Experiência — em dezembro de 2022 foi diretamente relacionada ao Helpful Content System. O Google passou a valorizar explicitamente conteúdo que demonstra experiência de primeira mão: avaliações de produtos baseadas em uso real, tutoriais escritos por quem executou o processo descrito, análises de situações vividas pelo autor. Essa dimensão é especialmente relevante em nichos como saúde, finanças, viagens e tecnologia.</p>



<p>A Especialização está conectada à profundidade do conhecimento demonstrado no conteúdo. Um artigo escrito por alguém com formação e prática no tema tende a apresentar nuances, ressalvas e perspectivas que conteúdo gerado superficialmente não é capaz de oferecer. O Google treinou seu classificador para reconhecer indicadores de especialização — e a ausência desses indicadores pesa negativamente na avaliação geral da página.</p>



<p>A Autoridade, por sua vez, é construída ao longo do tempo e se manifesta tanto no domínio quanto na página individual. Sites reconhecidos como referências em seus nichos, que recebem links de fontes confiáveis e são mencionados positivamente em outros contextos relevantes, tendem a ter seus sinais de E-E-A-T amplificados. Isso reforça a importância de uma estratégia de link building alinhada à produção de conteúdo genuinamente útil.</p>



<p>A Confiança é o elemento mais amplo e, de certa forma, o mais determinante. Inclui transparência sobre autoria, clareza sobre a organização por trás do conteúdo, política de privacidade adequada, informações de contato acessíveis e ausência de conteúdo enganoso. Sites que ocultam informações sobre seus autores ou que publicam conteúdo que induz o usuário ao erro têm seu sinal de confiança comprometido de forma estrutural.</p>



<p>Na prática, fortalecer o E-E-A-T significa garantir que cada peça de conteúdo deixe claro quem a produziu, por que essa pessoa ou organização tem credibilidade para falar sobre o tema e como o leitor pode verificar as informações apresentadas. Isso inclui biografias de autores detalhadas, citações de fontes primárias, dados atualizados e referências a pesquisas e estudos relevantes.</p>



<h2 class="wp-block-heading">Boas práticas para criar conteúdo útil segundo o Google</h2>



<p>O próprio Google publicou um conjunto de perguntas de autoavaliação para ajudar produtores de conteúdo a verificar se seus materiais atendem aos critérios do sistema. Essas perguntas são organizadas em categorias e constituem um checklist prático para qualquer processo de criação de conteúdo — independentemente do nicho ou do formato.</p>



<p>A primeira categoria aborda o foco no leitor: o conteúdo oferece informação original, baseada em pesquisa ou experiência própria? A resposta para a consulta do usuário é apresentada de forma clara e direta, sem obrigar o leitor a procurar em outro lugar? Se a resposta às duas perguntas for negativa, o conteúdo precisa ser revisado antes de ser publicado ou permanecer indexado.</p>



<p>A segunda categoria trata da profundidade e substância. O conteúdo cobre o tema com a profundidade que o assunto exige, ou apresenta apenas uma visão superficial? Existem descrição adequada de processos, contexto histórico, exemplos práticos e ressalvas relevantes? Conteúdo que responde apenas ao mínimo necessário para incluir a palavra-chave, sem oferecer valor adicional, é exatamente o perfil que o sistema foi projetado para filtrar.</p>



<p>A terceira categoria está relacionada à experiência de primeira mão. O conteúdo demonstra que o autor realmente vivenciou o que descreve? Para avaliações de produtos, o Google espera evidências de uso real. Para tutoriais, espera que o autor tenha executado os passos descritos. Para análises, espera perspectiva genuína, não apenas síntese de informações já disponíveis em outras fontes.</p>



<p>Outra prática fundamental é evitar o que o Google denomina &#8220;thin content&#8221; — páginas que existem para capturar tráfego de palavras-chave mas oferecem pouco ou nenhum valor informativo real. Isso inclui páginas de localização geradas em escala sem personalização, artigos que parafraseiam conteúdo de outras fontes sem adicionar perspectiva e respostas genéricas a perguntas que demandam respostas específicas e contextualizadas.</p>



<p>O alinhamento com a intenção de busca é igualmente crítico. Um usuário que busca &#8220;como configurar um servidor Linux&#8221; precisa de um tutorial passo a passo — não de um artigo sobre os benefícios do Linux em comparação a outros sistemas operacionais. Conteúdo que não atende a intenção real da busca gera sinais negativos de comportamento do usuário, que o sistema incorpora em sua avaliação contínua.</p>



<p>Por fim, a consistência editorial é um fator frequentemente subestimado. Um site que publica conteúdo excelente em determinadas categorias, mas mantém uma longa cauda de artigos rasos sobre temas tangenciais, pode ter seu desempenho geral comprometido pelo sinal negativo em nível de domínio. A avaliação por site significa que a qualidade média importa tanto quanto a qualidade dos melhores conteúdos publicados.</p>



<h2 class="wp-block-heading">Como auditar seu conteúdo existente para conformidade com o sistema</h2>



<p>A auditoria de conteúdo é o processo estruturado de avaliar todas as páginas de um site para identificar quais atendem aos critérios do Helpful Content System e quais precisam de intervenção. O objetivo é tomar decisões fundamentadas sobre cada página: atualizar, consolidar ou remover.</p>



<p>O primeiro passo da auditoria é criar um inventário completo das páginas indexadas. Ferramentas como Screaming Frog, Semrush Site Audit e Ahrefs Site Explorer permitem exportar uma lista completa de URLs com métricas de desempenho. Combine esse inventário com dados do Google Search Console para incluir métricas de impressões, cliques e posição média por página — isso cria a base quantitativa da auditoria.</p>



<p>Com o inventário em mãos, segmente as páginas em grupos de desempenho. Páginas com mais de 100 impressões mensais e posição média acima de 30 merecem atenção prioritária — estão próximas de rankear, mas não chegam lá. Páginas com zero ou pouquíssimas impressões nos últimos seis meses são candidatas a remoção ou consolidação. Páginas com desempenho estável e positivo representam o padrão que o restante do site deve perseguir.</p>



<p>Para cada página que merece avaliação qualitativa, aplique os critérios de utilidade do sistema. Pergunte: esta página oferece algo que o leitor não encontraria facilmente em outra fonte? A resposta à intenção de busca é completa e precisa? O conteúdo foi produzido por alguém com conhecimento real sobre o tema? Se as respostas forem majoritariamente negativas, a página precisa de intervenção imediata.</p>



<h3 class="wp-block-heading">Decisão: atualizar, consolidar ou remover</h3>



<p>A decisão de atualizar é adequada quando a página tem boa intenção mas execução deficiente: o tema é relevante, existe demanda de busca, mas o conteúdo atual é raso ou desatualizado. Nesse caso, uma reescrita substancial — não apenas edições superficiais — é o caminho indicado. Pequenas atualizações cosméticas não convencem o classificador, que avalia o conjunto do conteúdo.</p>



<p>A consolidação é indicada quando existem múltiplas páginas sobre o mesmo tema ou temas muito próximos, com sobreposição de conteúdo. Nesse caso, unificar as páginas em um único artigo mais completo, com redirecionamento 301 das páginas descontinuadas, tende a concentrar o sinal de qualidade e melhorar o desempenho geral. Essa abordagem é especialmente relevante para sites com histórico de canibalização de palavras-chave.</p>



<p>A remoção é a decisão mais difícil, mas frequentemente a mais impactante. Páginas que não têm demanda real de busca, que não recebem tráfego e que não contribuem para a estratégia editorial do site são um peso para a avaliação geral do domínio. Removê-las — ou desindexá-las via noindex — pode melhorar o sinal de site e beneficiar as páginas que realmente importam para o negócio.</p>



<p>Após executar as intervenções, monitore o desempenho por pelo menos 90 dias antes de avaliar resultados. A recuperação de sinal no Helpful Content System não é imediata — o classificador precisa reavaliar o site como um todo, e esse processo leva tempo, especialmente em domínios com grande volume de páginas e histórico extenso de conteúdo de baixa qualidade.</p>



<h2 class="wp-block-heading">Helpful Content System vs. Core Update: qual a diferença</h2>



<p>A confusão entre Helpful Content System e Core Update é uma das mais frequentes na comunidade de SEO, em parte porque os dois têm impactos superficialmente similares — ambos afetam o ranqueamento de sites — e em parte porque, desde março de 2024, o sistema foi integrado ao processo de core update, tornando a distinção ainda menos evidente.</p>



<p>Historicamente, a diferença era clara. O Core Update é uma atualização ampla do algoritmo central do Google, que ocorre algumas vezes por ano e reavalia os critérios de ranqueamento de forma abrangente. O Helpful Content System, por sua vez, era um sistema específico, com lógica própria, focado exclusivamente na utilidade do conteúdo. Ambos podiam afetar o mesmo site, mas por razões e mecanismos diferentes.</p>



<p>O escopo também diferia de forma relevante. Um Core Update pode beneficiar ou prejudicar qualquer tipo de site, por razões que vão além da qualidade do conteúdo — autoridade de domínio, relevância temática, sinais técnicos. O Helpful Content System, antes de ser integrado, tinha um escopo mais restrito: ele avaliava especificamente a proporção de conteúdo útil no site, independentemente de outros fatores.</p>



<p>Com a integração de março de 2024, essa distinção deixou de existir operacionalmente. Os critérios do Helpful Content System foram absorvidos pelo processo de Core Update, e não haverá mais comunicados separados sobre atualizações do sistema. A prática de monitorar core updates e correlacioná-los com quedas de desempenho permanece válida — mas agora inclui implicitamente os critérios de conteúdo útil em cada ciclo de atualização.</p>



<p>Para a estratégia de SEO, a mensagem prática é que a qualidade do conteúdo é agora um componente inegociável da avaliação central do algoritmo, não um sistema paralelo com regras próprias. Investir em conteúdo genuinamente útil é, portanto, a forma mais eficaz de se preparar para qualquer core update futuro — independentemente de seu escopo específico.</p>



<h2 class="wp-block-heading">Perguntas frequentes sobre o Google Helpful Content System</h2>



<p>As dúvidas sobre o Google Helpful Content System são frequentes entre profissionais de SEO e gestores de marketing digital. A seguir, as respostas para as perguntas mais recorrentes sobre o sistema, seu funcionamento e as melhores estratégias de adequação.</p>



<h3 class="wp-block-heading">O que é o Google Helpful Content System?</h3>



<p>O Google Helpful Content System é um classificador automatizado que avalia se o conteúdo de um site foi criado para ajudar pessoas reais ou apenas para obter posições nos mecanismos de busca. Ele opera em nível de site, gerando um sinal que afeta o desempenho geral do domínio nos resultados de busca. Desde março de 2024, o sistema foi integrado ao processo de Core Update do Google, deixando de existir como sistema separado.</p>



<h3 class="wp-block-heading">Como saber se meu site foi impactado pelo Helpful Content Update?</h3>



<p>Para identificar impacto, correlacione quedas de tráfego orgânico com as datas das principais atualizações: agosto e dezembro de 2022, setembro de 2023 e março de 2024. Use o Google Search Console para analisar impressões e cliques, e o Google Analytics para verificar variações no canal orgânico. Se a queda coincide com essas datas e as páginas afetadas apresentam conteúdo raso ou sem experiência de primeira mão, o diagnóstico aponta para impacto do sistema.</p>



<h3 class="wp-block-heading">Qual é a diferença entre Helpful Content Update e Core Update?</h3>



<p>Historicamente, o Helpful Content System era um sistema separado focado exclusivamente na utilidade do conteúdo, enquanto o Core Update era uma atualização ampla do algoritmo central com escopo mais abrangente. Desde março de 2024, os critérios do sistema foram integrados ao Core Update, e os dois conceitos convergem operacionalmente. Não haverá mais atualizações separadas do Helpful Content System — os critérios de utilidade são atualizados como parte dos core updates regulares.</p>



<h3 class="wp-block-heading">Como recuperar o ranking depois de ser afetado pelo Helpful Content System?</h3>



<p>A recuperação exige uma auditoria completa do conteúdo do site, seguida de intervenções substanciais: reescrever páginas rasas com profundidade e experiência genuína, consolidar páginas com sobreposição temática e remover ou desindexar páginas sem valor real para o leitor. A recuperação não é imediata — o processo leva de três a seis meses após as intervenções para produzir resultados mensuráveis, pois o classificador precisa reavaliar o site como um todo.</p>



<h3 class="wp-block-heading">Conteúdo gerado por IA é penalizado pelo Helpful Content System?</h3>



<p>O Google afirma que o critério de avaliação é a utilidade do conteúdo para o leitor, não o método de produção. Conteúdo gerado por inteligência artificial que seja genuinamente útil, preciso e bem fundamentado não é automaticamente penalizado. Por outro lado, conteúdo gerado em escala sem revisão humana, sem demonstração de experiência de primeira mão e sem perspectiva original, é exatamente o perfil que o sistema foi projetado para filtrar — independentemente da ferramenta utilizada na produção.</p>



<h3 class="wp-block-heading">Quanto tempo leva para um site se recuperar após ser impactado?</h3>



<p>O tempo de recuperação varia conforme a extensão das intervenções e o volume de conteúdo do site. O Google indica que melhorias são reconhecidas na próxima atualização de core update após as mudanças serem implementadas. Na prática, a comunidade de SEO documenta períodos de três a seis meses para recuperações parciais e até doze meses para recuperações completas em sites com impacto severo e alto volume de páginas problemáticas.</p>



<h3 class="wp-block-heading">Quais são os sinais do E-E-A-T que o Google avalia?</h3>



<p>O Google avalia Experiência (demonstração de uso real ou vivência do tema), Especialização (profundidade de conhecimento técnico e domínio do assunto), Autoridade (reconhecimento externo por fontes confiáveis e referências no nicho) e Confiança (transparência sobre autoria, fontes e organização responsável pelo conteúdo). Esses sinais são avaliados tanto em nível de página quanto em nível de site, sendo particularmente relevantes para conteúdo de saúde, finanças e outros temas de alto impacto na vida dos usuários.</p>



<h3 class="wp-block-heading">Quando foi a última grande atualização do Helpful Content System?</h3>



<p>A última grande atualização foi o Core Update de março de 2024, que integrou definitivamente o Helpful Content System ao algoritmo central do Google. Antes disso, a atualização de setembro de 2023 foi a mais impactante como sistema separado, com ampliação de critérios e impacto expressivo em múltiplos nichos. A partir de março de 2024, os critérios de conteúdo útil são atualizados como parte dos core updates regulares, sem comunicados específicos sobre o sistema.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.conversion.com.br/blog/helpful-content-system/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Quase metade das citações do ChatGPT vêm de páginas que estão na primeira posição no Google</title>
		<link>https://www.conversion.com.br/blog/citacoes-chatgpt/</link>
					<comments>https://www.conversion.com.br/blog/citacoes-chatgpt/#respond</comments>
		
		<dc:creator><![CDATA[Gabriel Cardozo]]></dc:creator>
		<pubDate>Wed, 08 Apr 2026 00:09:56 +0000</pubDate>
				<category><![CDATA[GEO]]></category>
		<guid isPermaLink="false">https://www.conversion.com.br/?p=53073</guid>

					<description><![CDATA[Análise da AirOps com 548 mil páginas e 15 mil prompts mostra que ranking orgânico ainda é o principal preditor de citação em IA, mas chegar lá não é suficiente Quase 50% das citações do ChatGPT vêm de páginas que ocupam a primeira posição no Google. A taxa é 3,5 vezes superior à das páginas [&#8230;]]]></description>
										<content:encoded><![CDATA[
<h3 class="wp-block-heading">Análise da AirOps com 548 mil páginas e 15 mil prompts mostra que ranking orgânico ainda é o principal preditor de citação em IA, mas chegar lá não é suficiente</h3>



<p>Quase 50% das citações do ChatGPT vêm de páginas que ocupam a primeira posição no Google. <strong>A taxa é 3,5 vezes superior à das páginas fora do top 20 da busca orgânica</strong>.</p>



<p>O dado, extraído de uma análise da AirOps com 548.534 páginas recuperadas em 15.000 prompts, reposiciona o debate sobre SEO e IA: não se trata de abandonar o ranqueamento orgânico para &#8220;otimizar para ChatGPT&#8221;. Trata-se de entender que o Google continua sendo a principal porta de entrada para a visibilidade em IA — e que estar no topo da busca é condição necessária, mas não suficiente.</p>



<p>Porque o mesmo estudo revela que 85% de tudo que o ChatGPT descobre durante o processo de pesquisa nunca chega à resposta final entregue ao usuário.</p>



<h2 class="wp-block-heading">Ranquear no Google é o primeiro filtro (e o mais importante)</h2>



<p>A correlação entre posição no Google e citação no ChatGPT não é coincidência. O modelo usa o índice do Google como uma das principais fontes de descoberta de conteúdo. Páginas bem posicionadas na busca orgânica têm maior probabilidade de entrar no pool de recuperação do ChatGPT simplesmente porque o Google já as sinalizou como relevantes e confiáveis.</p>



<p>Isso significa que a base do SEO tradicional — autoridade de domínio, backlinks, relevância temática, qualidade técnica — continua sendo o alicerce da visibilidade em IA. Os dados confirmam: quem não aparece no topo do Google dificilmente aparece no ChatGPT.</p>



<h2 class="wp-block-heading">Mas chegar ao topo não garante a citação</h2>



<p>A descoberta central da pesquisa da AirOps desfaz uma suposição comum. Estar bem ranqueado aumenta muito a chance de ser recuperado pelo ChatGPT, mas recuperação e citação são etapas distintas, com critérios distintos.</p>



<p>O processo funciona em três estágios. No <strong>estágio de descoberta</strong>, o ChatGPT identifica páginas potencialmente relevantes a partir do índice do Google e de seu próprio processo interno de busca. Estar no topo do Google é a vantagem decisiva aqui.</p>



<p>No <strong>estágio de expansão</strong>, o comportamento muda. A pesquisa identificou que 89,6% dos prompts disparam duas ou mais buscas adicionais. O ChatGPT não se limita à primeira rodada de resultados — expande a consulta internamente, rodando pesquisas complementares para preencher lacunas, encontrar evidências de suporte e comparar fontes antes de sintetizar a resposta.</p>



<p>No <strong>estágio de seleção</strong>, de tudo que foi recuperado ao longo dessas múltiplas buscas, apenas cerca de 15% é efetivamente citado. O restante é descartado, porque não era a opção mais útil, mais fácil de extrair ou mais confiável no momento da síntese.</p>



<p>Ranquear bem resolve o estágio 1. Os estágios 2 e 3 exigem outra camada de trabalho.</p>



<h2 class="wp-block-heading">A expansão cria uma competição que a maioria não enxerga</h2>



<p>O fato de 89,6% dos prompts gerarem buscas adicionais tem uma implicação direta para a estratégia de conteúdo: a página de um site compete não apenas com o resultado direto de uma consulta, mas também com os resultados de sub-consultas internas que o próprio ChatGPT formula — e que o produtor de conteúdo provavelmente nem sabe que existem.</p>



<p>Esse mecanismo é funcionalmente parecido com o <em>query fan-out</em> que o Google usa nos AI Overviews. Em ambos os casos, o sistema expande automaticamente o escopo da pesquisa original antes de compor a resposta.</p>



<p><strong>A consequência é clara:</strong> um único artigo bem ranqueado respondendo a uma palavra-chave principal tem cada vez menos chances de sobreviver ao estágio de expansão. Sites com cobertura ampla do cluster de sub-tópicos têm mais superfície para ser recuperados nas buscas adicionais que o modelo gera internamente.</p>



<h2 class="wp-block-heading">Posição no conteúdo e estrutura determinam a extraibilidade</h2>



<p>Uma análise de Kevin Indig com 1,2 milhão de respostas de IA e mais de 18.000 citações verificadas mostrou que 44,2% das citações do ChatGPT vêm dos primeiros 30% do conteúdo da página. Se a resposta principal está enterrada depois de uma introdução genérica, o modelo tem muito menos probabilidade de extraí-la.</p>



<p>Os dados estruturais reforçam o padrão:</p>



<ul>
<li>68,7% das páginas citadas seguem hierarquias lógicas de heading</li>



<li>87% utilizam um único H1 como âncora principal</li>



<li>Quase 80% incluem listas para organizar informações-chave</li>
</ul>



<p>O ChatGPT escaneia a página da forma como um pesquisador experiente lê um documento: buscando o ponto central antes de decidir se vale aprofundar. Conteúdo em prosa contínua, sem divisões claras, é estruturalmente mais difícil de extrair. Quando o modelo tem múltiplas opções disponíveis, prefere as que comunicam a informação de forma mais acessível.</p>



<h2 class="wp-block-heading">Autoridade resolve o empate na seleção final</h2>



<p>Quando o ChatGPT tem múltiplas páginas igualmente úteis e bem estruturadas para citar, os sinais de autoridade funcionam como critério de desempate. Os fatores identificados pela pesquisa incluem backlinks de domínios que já aparecem em resultados de IA, menções de marca distribuídas pela web, consistência de sinais de entidade e capacidade de corroboração factual.</p>



<p>Vale notar que 74% das citações vão para sites com Domain Authority abaixo de 80 — o que indica que autoridade relativa dentro do contexto temático importa mais do que autoridade absoluta do domínio. Sites especializados e bem estruturados têm condições reais de competir com players maiores.</p>



<h2 class="wp-block-heading">O que separa os 15% citados dos 85% descartados</h2>



<p>A síntese dos dados aponta para práticas concretas que diferenciam as páginas que chegam à resposta final das que são recuperadas e silenciosamente descartadas:</p>



<p><strong>Ranquear no Google continua sendo a base.</strong> Sem posição orgânica forte, as chances de entrar no pool de recuperação do ChatGPT caem drasticamente. O investimento em SEO tradicional não é alternativo à presença em IA — é seu pré-requisito.</p>



<p><strong>Antecipar a resposta.</strong> O núcleo da resposta deve estar no primeiro terço do conteúdo. Blocos de resumo no topo da página aumentam diretamente a probabilidade de citação.</p>



<p><strong>Usar estrutura limpa.</strong> H1 único, H2s organizados por subtópicos, hierarquia lógica ao longo do documento. Estrutura não é apenas boa prática de SEO — é o que torna o conteúdo extraível por IA.</p>



<p><strong>Cobrir o cluster de sub-tópicos.</strong> Como o ChatGPT expande as consultas internamente, uma única página não é suficiente. Cobertura ampla dos tópicos relacionados aumenta a superfície de aparição nas buscas adicionais que o modelo gera.</p>



<p><strong>Manter o conteúdo atualizado.</strong> O ChatGPT pondera recência. Páginas sem atualização recente estão em desvantagem estrutural frente a conteúdos revisados mais recentemente.</p>



<p>A lacuna entre recuperação e citação é onde a maioria das marcas perde visibilidade em IA hoje. Elas ranqueiam bem no Google, entram no processo de pesquisa do ChatGPT — e são descartadas antes que o usuário veja qualquer resposta. A primeira posição no Google é o melhor ponto de partida. O que acontece depois depende de estrutura, profundidade e autoridade.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.conversion.com.br/blog/citacoes-chatgpt/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Anthropic lança Claude Managed Agents para agentes autônomos em empresas</title>
		<link>https://www.conversion.com.br/blog/claude-managed/</link>
					<comments>https://www.conversion.com.br/blog/claude-managed/#respond</comments>
		
		<dc:creator><![CDATA[Gabriel Cardozo]]></dc:creator>
		<pubDate>Wed, 08 Apr 2026 00:09:56 +0000</pubDate>
				<category><![CDATA[IA]]></category>
		<guid isPermaLink="false">https://www.conversion.com.br/?p=53079</guid>

					<description><![CDATA[Anthropic abre beta do Claude Managed Agents com agent harness, memória persistente e sandbox para agentes autônomos — Notion, Rakuten e Asana já adotam a plataforma A Anthropic anunciou nesta quarta-feira o beta público do Claude Managed Agents, plataforma de infraestrutura gerenciada que permite a empresas implantar agentes de IA autônomos com o modelo Claude [&#8230;]]]></description>
										<content:encoded><![CDATA[
<h3 class="wp-block-heading">Anthropic abre beta do Claude Managed Agents com agent harness, memória persistente e sandbox para agentes autônomos — Notion, Rakuten e Asana já adotam a plataforma</h3>



<p>A Anthropic anunciou nesta quarta-feira o beta público do Claude Managed Agents, plataforma de infraestrutura gerenciada que permite a empresas implantar agentes de IA autônomos com o modelo Claude sem precisar construir toda a base técnica do zero.</p>



<p>O produto reúne quatro componentes centrais: agent harness (orquestração de tarefas), memória persistente, sandbox de execução isolado e dashboard de monitoramento. Com essa estrutura, os agentes operam por horas na nuvem, executam fluxos complexos e mantêm contexto entre sessões, com controle de permissões acessível ao time responsável.</p>



<p>O lançamento ocorre em um momento de forte crescimento da Anthropic: a receita recorrente anual (ARR) da empresa superou US$ 30 bilhões (cerca de R$ 180 bilhões, na cotação atual), três vezes o patamar de dezembro de 2025. Notion, Rakuten e Asana já estão entre os primeiros adotantes.</p>



<h2 class="wp-block-heading">Infraestrutura pronta para agentes autônomos: o que é o Claude Managed Agents</h2>



<p>O Claude Managed Agents resolve um problema recorrente para equipes que desenvolvem soluções com IA generativa: a necessidade de montar do zero toda a infraestrutura de orquestração, memória e execução de agentes. O produto entrega esse conjunto pré-configurado, reduzindo o tempo de implementação e o custo de manutenção operacional.</p>



<p>Os componentes centrais são o agent harness, responsável pela orquestração de tarefas; a memória persistente, que mantém contexto entre sessões distintas; o sandbox de execução, que isola o ambiente do agente para garantir segurança; e o dashboard de monitoramento, que centraliza logs, permissões e controle de acesso em uma interface única.</p>



<p>Angela Jiang, head of product da Claude Platform, explicou que o objetivo do lançamento é permitir que desenvolvedores concentrem esforço na lógica do negócio em vez de construir a camada técnica de base. O produto está disponível como beta público, com acesso via API e integração direta com o ecossistema Claude.</p>



<h2 class="wp-block-heading">Agentes que rodam por horas na nuvem sem supervisão humana constante</h2>



<p>Uma das capacidades centrais do Claude Managed Agents é a execução prolongada na nuvem. Diferente de chamadas pontuais a um modelo de linguagem, os agentes criados com a plataforma operam por horas em tarefas encadeadas, tomando decisões intermediárias sem intervenção humana a cada etapa.</p>



<p>O controle de permissões via dashboard permite que equipes de tecnologia definam o escopo de ação de cada agente — quais ferramentas podem acessar, quais APIs podem chamar e em que condições devem pausar para validação humana. Esse mecanismo cria um modelo de autonomia gradual, adequado para empresas que ainda padronizam o uso de IA em processos críticos.</p>



<p>Katelyn Lesse, head of engineering da Claude Platform, destacou que a arquitetura foi projetada para garantir rastreabilidade total, com suporte a auditoria em qualquer ponto da execução. Para equipes que já trabalham com o SDK para agentes autônomos ou exploraram o Claude Cowork, o Managed Agents representa a camada de produção sobre essa base técnica.</p>



<h2 class="wp-block-heading">Notion é o primeiro caso público: onboarding de clientes com agentes</h2>



<p>O Notion é o caso de uso mais detalhado divulgado no lançamento. A empresa utiliza o Claude Managed Agents para automatizar o processo de onboarding de novos clientes — guiando usuários pelas configurações iniciais, respondendo dúvidas contextuais e executando ações dentro do produto com base no perfil de cada conta.</p>



<p>Rakuten e Asana também figuram entre os primeiros adotantes, embora os casos específicos dessas empresas não tenham sido detalhados no anúncio. A presença de três nomes de peso no portfólio inicial indica que o produto já opera em ambientes corporativos reais, além da fase de experimentação.</p>



<p>Para times de produto, o exemplo do Notion é particularmente relevante: demonstra que o Claude Managed Agents é aplicável em fluxos voltados ao cliente final, não apenas em automações internas. A memória persistente entre sessões e a personalização por perfil de usuário são os diferenciais técnicos que viabilizam esse tipo de aplicação em escala.</p>



<h2 class="wp-block-heading">Concorrência direta com OpenAI Frontier e a corrida pela plataforma de agentes</h2>



<p>O Claude Managed Agents entra em concorrência direta com o OpenAI Frontier, plataforma voltada para implantação de agentes em ambientes corporativos. O confronto reflete uma tendência mais ampla: as principais empresas de IA estão migrando o foco de modelos de linguagem puros para infraestrutura de agentes como serviço gerenciado.</p>



<p>A Conversion já cobriu iniciativas da OpenAI nessa direção. O OpenAI Agent Builder e o AgentKit da OpenAI seguem o mesmo padrão: orquestração, memória, ferramentas e monitoramento empacotados como produto gerenciado, reduzindo a barreira de entrada para empresas sem times de machine learning dedicados.</p>



<p>O dado de ARR reforça que a Anthropic tem escala para sustentar essa aposta. Com receita recorrente anual superando US$ 30 bilhões (cerca de R$ 180 bilhões, na cotação atual) — três vezes o patamar de dezembro de 2025 —, a empresa acumula tração suficiente para competir com a OpenAI no segmento corporativo, onde contratos são definidos por confiabilidade de plataforma.</p>



<h2 class="wp-block-heading">O que muda para empresas que usam IA generativa</h2>



<p>O Claude Managed Agents representa uma mudança de paradigma para empresas que hoje usam IA como serviço de inferência pontual. Em vez de chamar um modelo para gerar um texto ou resumir um documento, a empresa passa a delegar fluxos completos a agentes que operam de forma autônoma e contínua.</p>



<p>Para times de marketing e produto, processos como qualificação de leads, atendimento personalizado, geração de relatórios e onboarding de usuários podem ser orquestrados por agentes com supervisão reduzida. O dashboard de controle de permissões funciona como o mecanismo de governança que torna esse nível de automação viável em ambientes corporativos.</p>



<p>O Claude Code e outras ferramentas da Anthropic já sinalizavam essa direção, mas o Managed Agents formaliza a infraestrutura necessária para levar agentes ao ambiente de produção. O blog da Conversion acompanha as iniciativas paralelas da Anthropic e da OpenAI que definem essa nova camada da IA generativa.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.conversion.com.br/blog/claude-managed/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Google expande anúncios no AI Mode com Shopping, Travel e checkout via UCP</title>
		<link>https://www.conversion.com.br/blog/google-ai-mode-anuncios-shopping-travel/</link>
					<comments>https://www.conversion.com.br/blog/google-ai-mode-anuncios-shopping-travel/#respond</comments>
		
		<dc:creator><![CDATA[Diego Ivo]]></dc:creator>
		<pubDate>Mon, 06 Apr 2026 18:31:03 +0000</pubDate>
				<category><![CDATA[SEO]]></category>
		<guid isPermaLink="false">https://www.conversion.com.br/?p=53023</guid>

					<description><![CDATA[Google transforma AI Mode em canal de mídia com Shopping ads, Travel ads, Direct Offers e checkout nativo via Universal Commerce Protocol com Etsy, Wayfair e Shopify]]></description>
										<content:encoded><![CDATA[
<h3 class="wp-block-heading">Google Ads lança Shopping ads, Travel ads e Direct Offers no AI Mode com checkout nativo via Universal Commerce Protocol já ativo com Etsy e Wayfair nos Estados Unidos</h3>



<p>Google anunciou a expansão de formatos publicitários dentro do AI Mode, recurso de busca conversacional baseado em inteligência artificial. A empresa introduziu Shopping ads, Travel ads e Direct Offers como novos formatos de anúncio que operam nativamente dentro das respostas geradas pela IA.</p>



<p>A VP de Google Ads, Vidhya Srinivasan, afirmou que anúncios no AI Mode &#8220;deixam de ser experimentais&#8221; em 2026. A declaração marca a transição do formato de testes iniciais para operação comercial completa, com monetização integrada ao fluxo conversacional da busca.</p>



<p>O anúncio original ocorreu durante o NRF 2026, em janeiro, e recebeu expansão em abril com detalhes sobre o Universal Commerce Protocol (UCP). O protocolo permite que consumidores nos Estados Unidos concluam compras diretamente no AI Mode, sem sair da interface de busca do Google.</p>



<h2 class="wp-block-heading">Shopping ads aparecem abaixo de recomendações orgânicas no AI Mode</h2>



<p>Os Shopping ads funcionam como listings patrocinados posicionados abaixo das recomendações orgânicas geradas pela inteligência artificial. Cada anúncio carrega o rótulo &#8220;Sponsored&#8221; para diferenciar conteúdo pago do orgânico, seguindo o padrão de transparência publicitária do Google.</p>



<p>O formato preserva a experiência conversacional do AI Mode. Em vez de interromper a resposta, os Shopping ads se integram ao contexto da consulta do usuário. Quando alguém solicita recomendações de produtos, os anúncios aparecem como sugestões complementares às indicações orgânicas.</p>



<p>A abordagem difere dos anúncios tradicionais de busca, que ocupam posições fixas na SERP. No AI Mode, a exibição depende da relevância contextual da conversa, o que exige dos anunciantes uma estratégia de feeds de produto atualizada e alinhada com as intenções de compra identificadas pela IA.</p>



<h2 class="wp-block-heading">Travel ads integram hotéis, destinos e voos ao fluxo conversacional</h2>



<p>Os Travel ads introduzem formatos contextuais específicos para o setor de turismo dentro do AI Mode. O formato exibe opções de hotéis, destinos turísticos e passagens aéreas diretamente na interface conversacional, adaptando as sugestões ao contexto e à intenção da consulta do viajante.</p>



<p>Na prática, quando um usuário interage com o AI Mode para planejar uma viagem, os anúncios de Travel aparecem com informações relevantes, como disponibilidade, faixas de preço e características dos destinos. O formato aproveita a capacidade da IA de entender intenções complexas, como &#8220;hotel pet-friendly perto da praia em abril&#8221;.</p>



<p>A integração transforma o AI Mode em um assistente de planejamento de viagem com recomendações patrocinadas. Para anunciantes do setor hoteleiro e aéreo, o formato representa um novo ponto de contato que combina descoberta orgânica com promoção paga.</p>



<h2 class="wp-block-heading">Direct Offers criam canal exclusivo de descontos para compradores prontos</h2>



<p>O formato Direct Offers permite que anunciantes ofereçam descontos exclusivos, como 20% de desconto, para consumidores que demonstram intenção de compra dentro do AI Mode, conforme documentado pelo <a href="https://blog.google/products/ads-commerce/digital-advertising-commerce-2026/" target="_blank" rel="noopener">Google Ads &amp; Commerce Blog</a>. O mecanismo não altera a oferta pública do anunciante em outros canais, preservando a estratégia de precificação original.</p>



<p>A lógica prioriza compradores que estão próximos da conversão. Ao identificar sinais de intenção de compra na conversa, o AI Mode apresenta ofertas personalizadas que funcionam como incentivo final para a transação. O desconto aparece como benefício contextual, vinculado ao momento específico da jornada.</p>



<p>O Google planeja expandir o formato para incluir loyalty benefits e product bundles nas próximas fases. Essa expansão permitiria que marcas ofereçam benefícios de fidelidade e pacotes de produtos como incentivos adicionais dentro do AI Mode.</p>



<h2 class="wp-block-heading">UCP permite checkout completo sem sair do AI Mode</h2>



<p>O Universal Commerce Protocol (UCP) funciona como infraestrutura de checkout nativo integrada ao AI Mode, conforme documentação do Google Blog. O protocolo permite que consumidores nos Estados Unidos selecionem produtos e concluam o pagamento sem abandonar a interface de busca.</p>



<p>O processo de pagamento utiliza Google Pay como método ativo, com integração do PayPal prevista para as próximas semanas. A transação ocorre inteiramente dentro do ambiente do AI Mode, disponível tanto na interface do Google Search quanto no aplicativo Gemini para dispositivos móveis.</p>



<p>Do ponto de vista técnico, o UCP estabelece uma camada de comércio sobre a interface conversacional. O protocolo gerencia catálogo de produtos, processamento de pagamento e confirmação de pedido dentro do ambiente de IA, eliminando redirecionamentos para sites externos.</p>



<h2 class="wp-block-heading">Etsy e Wayfair operam UCP, Shopify e Walmart entram em breve</h2>



<p>O checkout via UCP já opera com Etsy e Wayfair como parceiros iniciais nos Estados Unidos. Os consumidores dessas plataformas podem selecionar produtos, aplicar cupons e finalizar compras diretamente no AI Mode com pagamento via Google Pay.</p>



<p>A próxima fase de expansão inclui Shopify, Target e Walmart. A entrada do Shopify representa um alcance significativo, considerando que a plataforma hospeda milhões de lojas independentes. Target e Walmart adicionam grandes varejistas ao ecossistema de checkout nativo.</p>



<p>A adoção progressiva de parceiros indica que o Google estrutura o UCP como um protocolo aberto para o varejo digital. Com cada nova integração, o AI Mode amplia o catálogo de produtos disponíveis para compra direta, consolidando a interface de IA como ponto de venda.</p>



<h2 class="wp-block-heading">Google transforma AI Mode de experimento em canal de mídia</h2>



<p>A combinação de Shopping ads, Travel ads, Direct Offers e UCP posiciona o AI Mode como um canal de mídia completo, e não apenas como uma ferramenta de busca conversacional. A evolução de fase experimental para operação comercial ocorre menos de um ano após o lançamento do recurso.</p>



<p>Para profissionais de marketing, a mudança exige adaptação das estratégias de mídia paga. Campanhas de Shopping e Travel precisarão considerar o AI Mode como ponto de contato adicional, com dinâmicas próprias de exibição e conversão. O ecossistema de IA do Google, que inclui o <a href="https://www.conversion.com.br/blog/gemini-ai/">Gemini AI</a>, amplia as superfícies disponíveis para interação publicitária.</p>



<p>A monetização do AI Mode segue o padrão que o Google aplicou em outros produtos: lançamento gratuito, adoção massiva e, em seguida, introdução progressiva de formatos comerciais. Para anunciantes brasileiros, o desenvolvimento nos Estados Unidos sinaliza funcionalidades que tendem a chegar ao mercado nacional nos próximos trimestres.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.conversion.com.br/blog/google-ai-mode-anuncios-shopping-travel/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Google lança Gemma 4 com modelos open source para IA no edge</title>
		<link>https://www.conversion.com.br/blog/google-gemma-4-open-source/</link>
					<comments>https://www.conversion.com.br/blog/google-gemma-4-open-source/#respond</comments>
		
		<dc:creator><![CDATA[Diego Ivo]]></dc:creator>
		<pubDate>Mon, 06 Apr 2026 18:30:07 +0000</pubDate>
				<category><![CDATA[IA]]></category>
		<guid isPermaLink="false">https://www.conversion.com.br/?p=53019</guid>

					<description><![CDATA[Google DeepMind apresenta Gemma 4 sob Apache 2.0 com quatro modelos de 2B a 31B parâmetros, suporte a 140+ idiomas e até 256K tokens de contexto]]></description>
										<content:encoded><![CDATA[
<h3 class="wp-block-heading">Google DeepMind apresenta família de quatro modelos open source sob licença Apache 2.0 com até 256K tokens de contexto, capacidades multimodais e suporte a mais de 140 idiomas</h3>



<p>Google DeepMind lançou Gemma 4, família de modelos de inteligência artificial open source construída a partir da pesquisa por trás do Gemini 3. Os quatro modelos variam de 2,3 bilhões a 31 bilhões de parâmetros efetivos e chegam sob licença Apache 2.0, pela primeira vez na história da família Gemma.</p>



<p>A mudança de licenciamento representa uma abertura significativa em relação às versões anteriores, que operavam sob os Gemma Terms of Use. Com a Apache 2.0, desenvolvedores e empresas podem usar, modificar e distribuir os modelos livremente para aplicações comerciais sem restrições proprietárias.</p>



<p>Os modelos estão disponíveis gratuitamente no Google AI Studio, Hugging Face, Kaggle, Ollama e LM Studio. A família Gemma acumula mais de 400 milhões de downloads desde o lançamento da primeira geração, segundo o Google, e a comunidade já criou mais de 100 mil variantes.</p>



<h2 class="wp-block-heading">Google DeepMind apresenta quatro modelos com capacidades distintas</h2>



<p>A nova família traz quatro variantes projetadas para cenários diferentes de uso. O Gemma 4 E2B conta com 2,3 bilhões de parâmetros efetivos e 5,1 bilhões no total, enquanto o E4B opera com 4,5 bilhões efetivos e 8 bilhões totais. Ambos utilizam janela de contexto de 128 mil tokens.</p>



<p>Para aplicações em nuvem e servidores, os modelos maiores oferecem capacidade ampliada. O Gemma 4 26B A4B emprega arquitetura Mixture-of-Experts com 26 bilhões de parâmetros totais, porém apenas 4 bilhões ativos durante a inferência. O modelo 31B Dense utiliza todos os 31 bilhões de parâmetros e entrega a maior capacidade da família.</p>



<p>Todos os quatro modelos suportam mais de 140 idiomas e processam entradas multimodais, incluindo texto, imagens e vídeo. Os modelos 26B e 31B contam com janela de contexto expandida de 256 mil tokens, adequada para documentos extensos e fluxos de trabalho complexos.</p>



<h2 class="wp-block-heading">Benchmarks posicionam modelo de 31 bilhões entre os mais competitivos</h2>



<p>O Gemma 4 31B Dense alcançou 89,2% no AIME 2026, benchmark de raciocínio matemático avançado, de acordo com dados publicados pelo <a href="https://blog.google/innovation-and-ai/technology/developers-tools/gemma-4/" target="_blank" rel="noopener">Google Blog</a> e pelo <a href="https://deepmind.google/models/gemma/gemma-4/" target="_blank" rel="noopener">Google DeepMind</a>. No LiveCodeBench v6, referência para geração de código, o modelo atingiu 80%. A pontuação no Arena AI, que mede preferência humana, chegou a 1.452 ELO.</p>



<p>No GPQA Diamond, teste de raciocínio científico, o 31B registrou 84,3%. O Codeforces ELO, que avalia capacidade de programação competitiva, posicionou o modelo em 2.150 pontos. No conjunto, esses resultados colocam o Gemma 4 31B em competição direta com modelos que possuem consideravelmente mais parâmetros.</p>



<p>Ainda assim, o modelo 26B MoE apresentou desempenho próximo ao 31B em diversas métricas, apesar de ativar apenas 4 bilhões de parâmetros na inferência. No Arena AI, atingiu 1.441 ELO — apenas 11 pontos abaixo do 31B — com aproximadamente oito vezes menos computação necessária.</p>



<h2 class="wp-block-heading">Arquitetura combina eficiência e profundidade de raciocínio</h2>



<p>A arquitetura do Gemma 4 incorpora técnicas avançadas, conforme documentado pela <a href="https://huggingface.co/blog/gemma4" target="_blank" rel="noopener">Hugging Face</a>. O sistema de alternating attention combina camadas de janela deslizante local com camadas de contexto global completo. O Dual RoPE aplica codificação posicional padrão nas camadas de sliding window e proporcional nas camadas globais.</p>



<p>O recurso Per-Layer Embeddings alimenta uma tabela de embeddings secundária como sinal residual em cada camada do decodificador. Além disso, o Shared KV Cache permite que as últimas N camadas reutilizem estados de key-value de camadas anteriores, reduzindo o uso de memória sem comprometer a qualidade das respostas.</p>



<p>O codificador de visão utiliza posições 2D aprendidas com RoPE multidimensional e orçamentos configuráveis de tokens visuais. Os modelos E2B e E4B incluem também um codificador de áudio baseado em conformer, adicionando capacidades nativas de processamento sonoro.</p>



<h2 class="wp-block-heading">Modelos compactos processam imagem, vídeo e áudio no dispositivo</h2>



<p>Todos os quatro modelos aceitam entradas de imagem e vídeo com resoluções variáveis. Os modelos E2B e E4B possuem capacidade adicional de processamento nativo de áudio, que permite reconhecimento de fala e compreensão de conteúdo sonoro diretamente no dispositivo, sem depender de servidores externos.</p>



<p>Além disso, os modelos compactos foram projetados para operação offline com latência próxima de zero. Segundo dados do Google DeepMind, os modelos E2B e E4B rodam em smartphones, Raspberry Pi e Jetson Nano. Essa portabilidade amplia as possibilidades de uso em cenários com conectividade limitada.</p>



<p>Na parte de automação, o suporte a function calling nativo permite que os modelos executem workflows agênticos, incluindo navegação de aplicativos e conclusão de tarefas automatizadas. O Gemma 4 também gera saídas estruturadas em JSON para detecção de objetos e bounding boxes nativamente.</p>



<h2 class="wp-block-heading">Quatro tamanhos cobrem do smartphone ao data center</h2>



<p>O E2B atende cenários de edge computing em dispositivos com recursos limitados, enquanto o E4B oferece capacidade intermediária para aplicações mobile mais exigentes. Ambos estão disponíveis com quantizações GGUF para implantação otimizada em hardware diverso.</p>



<p>Por outro lado, os modelos 26B e 31B destinam-se a servidores e ambientes de nuvem. A versão 26B MoE equilibra desempenho e eficiência computacional, ativando apenas 4 bilhões de parâmetros por inferência. O 31B Dense entrega capacidade máxima para tarefas que demandam raciocínio profundo e contexto extenso.</p>



<p>As plataformas de distribuição incluem Google AI Studio, Hugging Face, Kaggle, Ollama, LM Studio e Docker. Os frameworks compatíveis abrangem JAX, Vertex AI, Keras e Google AI Edge, além de integrações com o ecossistema <a href="https://www.conversion.com.br/blog/gemini-ai/">Gemini AI</a> do Google.</p>



<h2 class="wp-block-heading">Comunidade Gemma ultrapassa 400 milhões de downloads</h2>



<p>A família Gemma acumula mais de 400 milhões de downloads desde a primeira geração, segundo o Google. Os desenvolvedores construíram mais de 100 mil variantes customizadas dos modelos, formando o ecossistema que o Google denomina &#8220;Gemmaverse&#8221;.</p>



<p>Do ponto de vista de licenciamento, o Gemma 4 representa a primeira vez que a família adota Apache 2.0. As versões anteriores utilizavam os Gemma Terms of Use, que impunham restrições adicionais de redistribuição e uso comercial. A mudança elimina essas limitações e equipara o licenciamento ao padrão adotado por outros modelos open source.</p>



<p>Os modelos foram construídos a partir da mesma base de pesquisa e tecnologia do Gemini 3, conforme informações do Google DeepMind. Versões instruction-tuned de todos os quatro modelos estão disponíveis para download imediato nas plataformas listadas.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.conversion.com.br/blog/google-gemma-4-open-source/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>OpenAI firma parceria com Smartly e lança anúncios conversacionais no ChatGPT</title>
		<link>https://www.conversion.com.br/blog/openai-smartly-anuncios-conversacionais-chatgpt/</link>
					<comments>https://www.conversion.com.br/blog/openai-smartly-anuncios-conversacionais-chatgpt/#respond</comments>
		
		<dc:creator><![CDATA[Diego Ivo]]></dc:creator>
		<pubDate>Mon, 06 Apr 2026 18:28:36 +0000</pubDate>
				<category><![CDATA[Inteligência Artificial]]></category>
		<guid isPermaLink="false">https://www.conversion.com.br/?p=53021</guid>

					<description><![CDATA[OpenAI assina Smartly como primeiro parceiro de ad-tech criativa para criar anúncios interativos no ChatGPT, com piloto de US$ 100M e 600+ anunciantes]]></description>
										<content:encoded><![CDATA[
<h3 class="wp-block-heading">OpenAI assina empresa finlandesa Smartly como primeiro parceiro de ad-tech criativa para transformar anúncios do ChatGPT em diálogos interativos entre usuários e marcas</h3>



<p>OpenAI fechou acordo com a Smartly, empresa de ad-tech sediada em Helsinki, para desenvolver anúncios conversacionais interativos no ChatGPT. A parceria, anunciada em 1 de abril de 2026, posiciona a Smartly como primeiro parceiro de tecnologia criativa publicitária da plataforma de inteligência artificial.</p>



<p>O novo formato vai além dos anúncios estáticos contextuais introduzidos em fevereiro deste ano. Com os ads conversacionais, usuários poderão dialogar diretamente com marcas dentro da interface do ChatGPT, recebendo respostas personalizadas sobre produtos e serviços em tempo real.</p>



<p>A Smartly opera com receita anual estimada em US$ 101 milhões (cerca de R$ 521 milhões) e valuation aproximado de US$ 300 milhões (R$ 1,55 bilhão). A empresa finlandesa atende clientes nos setores de entretenimento, varejo e esportes, segmentos que já participam do programa piloto de publicidade no ChatGPT.</p>



<h2 class="wp-block-heading">Parceria transforma anúncios estáticos em diálogos com marcas</h2>



<p>Os anúncios contextuais que a OpenAI lançou em fevereiro de 2026 exibiam conteúdo publicitário estático, inserido de forma relevante ao tema da conversa. O formato funcionava como um display contextual dentro do chat, sem possibilidade de interação adicional por parte do usuário.</p>



<p>Com o novo modelo conversacional desenvolvido em parceria com a Smartly, o anúncio passa a funcionar como uma extensão do diálogo. O usuário pode fazer perguntas sobre a marca, solicitar detalhes de produtos e receber recomendações personalizadas, tudo sem sair da interface do ChatGPT.</p>



<p>A diferença entre os dois formatos altera a dinâmica de engajamento. Enquanto ads estáticos dependem de cliques para redirecionar ao site do anunciante, os conversacionais mantêm o usuário na plataforma e permitem qualificação de interesse antes de qualquer ação externa.</p>



<h2 class="wp-block-heading">Piloto acumula receita anualizada de US$ 100 milhões</h2>



<p>O programa piloto de publicidade no ChatGPT atingiu receita anualizada de US$ 100 milhões (R$ 516 milhões), conforme divulgado pela OpenAI no final de março de 2026. Mais de 600 anunciantes participam do programa, que opera com CPM (custo por mil impressões) médio de aproximadamente US$ 60 — equivalente a cerca de R$ 310 por mil impressões.</p>



<p>O valor do CPM posiciona o ChatGPT como canal publicitário premium, segundo dados divulgados pela <a href="https://thenextweb.com/news/openai-is-hiring-ad-tech-firms-to-make-chatgpt-ads-talk-back-to-you" target="_blank" rel="noopener">OpenAI</a>. Plataformas tradicionais de mídia programática operam com CPMs significativamente inferiores, o que indica que anunciantes atribuem valor diferenciado ao contexto conversacional do assistente de IA.</p>



<p>Além disso, a Criteo, parceira de ad-tech da OpenAI, reporta que anúncios no ChatGPT geram taxa de conversão 1,5 vez superior à de outros canais digitais. Esse dado sugere que o ambiente conversacional de IA favorece a intenção de compra do usuário em relação a formatos convencionais de display e redes sociais.</p>



<h2 class="wp-block-heading">Smartly assume papel de parceiro criativo exclusivo</h2>



<p>A Smartly é a primeira empresa contratada pela OpenAI especificamente para a camada criativa dos anúncios. A companhia finlandesa atua na interseção entre automação de mídia e criação publicitária, oferecendo ferramentas que combinam dados de audiência com produção criativa em escala.</p>



<p>Com sede em Helsinki, a empresa reportou receita de aproximadamente US$ 101 milhões em 2025, o que equivale a cerca de R$ 521 milhões. O valuation estimado em US$ 300 milhões (R$ 1,55 bilhão) reflete o posicionamento da Smartly como player consolidado no mercado global de ad-tech.</p>



<p>A parceria indica que a OpenAI está estruturando um ecossistema publicitário com fornecedores especializados por camada. Enquanto a Criteo opera na infraestrutura de entrega e mensuração de anúncios, a Smartly concentra-se no desenvolvimento dos formatos criativos que os anunciantes utilizarão na plataforma.</p>



<h2 class="wp-block-heading">Ferramentas self-serve abrem acesso a anunciantes menores</h2>



<p>A OpenAI planeja lançar ferramentas self-serve para anunciantes em abril de 2026. A mudança elimina a necessidade de negociação direta com a equipe comercial da empresa, permitindo que marcas de menor porte acessem a plataforma publicitária do ChatGPT de forma autônoma.</p>



<p>O modelo self-serve segue a mesma lógica adotada por plataformas consolidadas de mídia digital. Anunciantes poderão configurar campanhas, definir orçamentos e segmentar públicos diretamente em um painel de controle, sem intermediários.</p>



<p>Essa abertura representa uma transição do modelo atual, restrito a grandes anunciantes no programa piloto. Com 600 marcas já participando, a expansão para self-serve pode ampliar consideravelmente a base de receita publicitária do <a href="https://www.conversion.com.br/blog/chatgpt/">ChatGPT</a> nos próximos meses.</p>



<h2 class="wp-block-heading">Expansão geográfica mira mercados anglófonos</h2>



<p>A OpenAI confirmou planos de expandir o programa de anúncios para Canadá, Austrália e Nova Zelândia. Os três mercados compartilham idioma inglês e maturidade digital elevada, o que facilita a adaptação dos formatos publicitários já testados nos Estados Unidos.</p>



<p>A escolha de mercados anglófonos como primeira fase de internacionalização segue padrão recorrente em empresas de tecnologia norte-americanas. A expansão geográfica prioriza regiões com infraestrutura publicitária desenvolvida e menor barreira de adaptação criativa.</p>



<p>Por outro lado, a ausência de mercados latino-americanos e europeus na primeira onda indica que a monetização global do ChatGPT via publicidade seguirá ritmo gradual. Profissionais de marketing no Brasil devem acompanhar a evolução do programa para avaliar quando o canal estará disponível localmente.</p>



<h2 class="wp-block-heading">Modelo de monetização evolui de assinaturas para publicidade</h2>



<p>A inclusão de anúncios representa uma diversificação significativa na receita da OpenAI, historicamente concentrada em assinaturas do ChatGPT Plus e contratos empresariais. Com US$ 100 milhões anualizados apenas no piloto, a publicidade já demonstra potencial para se tornar pilar relevante do modelo de negócios.</p>



<p>A evolução de ads estáticos para conversacionais em menos de dois meses sinaliza velocidade de iteração. A OpenAI está testando formatos rapidamente, incorporando parceiros especializados como Smartly e Criteo para acelerar o desenvolvimento do ecossistema publicitário.</p>



<p>Para profissionais de marketing, o surgimento do ChatGPT como canal de mídia adiciona uma nova variável ao planejamento de campanhas. A combinação de alcance global, contexto de alta intenção e formatos interativos posiciona a plataforma como alternativa diferenciada aos canais consolidados de publicidade digital.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.conversion.com.br/blog/openai-smartly-anuncios-conversacionais-chatgpt/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Google March 2026 Core Update completa rollout com queda de 71% para conteúdo de IA massificado</title>
		<link>https://www.conversion.com.br/blog/google-core-update-marco-2026-impacto/</link>
					<comments>https://www.conversion.com.br/blog/google-core-update-marco-2026-impacto/#respond</comments>
		
		<dc:creator><![CDATA[Diego Ivo]]></dc:creator>
		<pubDate>Mon, 06 Apr 2026 18:25:11 +0000</pubDate>
				<category><![CDATA[SEO]]></category>
		<guid isPermaLink="false">https://www.conversion.com.br/?p=53020</guid>

					<description><![CDATA[Análise de 600 mil páginas revela que sites com dados originais ganharam 22% de visibilidade enquanto conteúdo gerado por IA sem valor próprio perdeu 71% de tráfego]]></description>
										<content:encoded><![CDATA[
<h3 class="wp-block-heading">Google conclui o core update em 14 dias e estudo da JetDigitalPro com 600 mil páginas mostra queda de 71% para IA massificada e ganho de 22% para dados originais</h3>



<p>O Google completou o rollout do March 2026 Core Update aproximadamente 14 dias após o início, em 27 de março. A atualização afetou 55% dos sites monitorados e provocou quedas de tráfego entre 20% e 35% nos domínios mais impactados, segundo análise da JetDigitalPro com amostra de 600 mil páginas.</p>



<p>O foco declarado pelo Google para este update é information gain e content originality. Na prática, o algoritmo passou a priorizar páginas que oferecem dados, pesquisas ou perspectivas inexistentes em outros resultados da mesma consulta, penalizando conteúdo que apenas repete informações disponíveis em fontes já indexadas.</p>



<p>A principal conclusão do estudo é que o Google não penaliza conteúdo gerado por inteligência artificial de forma indiscriminada. A correlação estatística entre uso de IA e perda de tráfego ficou em 0,011 — praticamente zero. O que determina a penalização é a ausência de valor original, independentemente de como o texto foi produzido.</p>



<h2 class="wp-block-heading">Rollout do March 2026 Core Update durou 14 dias</h2>



<p>O <a href="https://developers.google.com/search/news" target="_blank" rel="noopener">Google Search Central</a> confirmou o início do March 2026 Core Update em 27 de março. A conclusão ocorreu em aproximadamente duas semanas, período que ficou dentro da média histórica dos core updates recentes. Durante o rollout, flutuações de ranking foram observadas de forma progressiva em diferentes verticais.</p>



<p>Entre os sites monitorados pela JetDigitalPro, 55% registraram alguma alteração de posicionamento durante o período. As mudanças variaram desde ganhos expressivos até perdas substanciais, com a maioria dos sites afetados negativamente apresentando reduções de tráfego orgânico entre 20% e 35%.</p>



<p>Contudo, a distribuição dos impactos não foi uniforme. Sites com conteúdo autoral e dados proprietários tenderam a manter ou melhorar posições, enquanto domínios dependentes de conteúdo massificado concentraram as maiores perdas.</p>



<h2 class="wp-block-heading">Análise de 600 mil páginas quantifica impacto do core update</h2>



<p>A JetDigitalPro conduziu estudo com amostra de 600 mil páginas para mensurar o efeito do update em diferentes tipos de conteúdo. O levantamento identificou que conteúdo gerado por IA de forma massificada — sem edição humana, sem dados próprios e sem expertise demonstrável — perdeu em média 71% do tráfego orgânico.</p>



<p>Em contraste, sites que publicam pesquisas originais, dados proprietários e análises com fontes primárias registraram ganho médio de 22% em visibilidade orgânica. Essa disparidade reforça o conceito de information gain que o Google vem priorizando desde as atualizações do Helpful Content.</p>



<p>Os resultados indicam que o volume de conteúdo publicado deixou de ser um fator competitivo isolado. Páginas que adicionam informação nova ao ecossistema de busca receberam tratamento preferencial, enquanto conteúdo redundante — mesmo que tecnicamente correto — perdeu relevância nos resultados.</p>



<h2 class="wp-block-heading">Correlação entre uso de IA e penalização é estatisticamente irrelevante</h2>



<p>Um dos achados mais relevantes do estudo é o coeficiente de correlação de 0,011 entre uso de ferramentas de IA e queda de tráfego. Na prática, esse valor indica ausência de relação direta entre o método de produção e a penalização algorítmica.</p>



<p>O que o update efetivamente penaliza é a falta de originalidade e valor agregado. Sites que utilizam IA como ferramenta de apoio — combinando geração automatizada com edição humana, dados próprios e expertise — não registraram perdas significativas no estudo da JetDigitalPro.</p>



<p>Por outro lado, operações que empregaram IA para gerar centenas ou milhares de páginas sem diferenciação sofreram reduções severas. A distinção não está na tecnologia utilizada, mas na qualidade e unicidade do resultado publicado.</p>



<h2 class="wp-block-heading">Conteúdo de IA massificado concentra 71% de queda</h2>



<p>A perda de 71% no tráfego de conteúdo de IA massificado seguiu um padrão identificável pela JetDigitalPro. As páginas mais afetadas compartilham três características: ausência de dados originais, estrutura de templates repetitivos e nenhuma evidência de revisão editorial por especialistas.</p>



<p>Além disso, o estudo identificou que a penalização atingiu tanto conteúdo textual quanto páginas com elementos visuais gerados por IA sem curadoria. Domínios que publicaram mais de 500 páginas mensais com padrões textuais similares registraram quedas superiores à média de 71%.</p>



<p>Esses resultados sugerem que o algoritmo utiliza sinais de escala e repetitividade para identificar conteúdo massificado. Variação temática limitada, ancoragem em templates fixos e ausência de fontes citáveis configuram os indicadores que o update detecta com maior consistência.</p>



<h2 class="wp-block-heading">Sites com dados originais registram ganho de 22% em visibilidade</h2>



<p>Na outra ponta do espectro, sites que publicam pesquisas próprias, estudos de caso e análises baseadas em dados primários conquistaram ganho médio de 22% em visibilidade orgânica. O conceito de information gain — contribuição informacional única de uma página — tornou-se o principal diferencial competitivo medido pelo estudo.</p>



<p>A JetDigitalPro classificou os conteúdos beneficiados em três categorias: pesquisas originais com metodologia documentada, estudos de caso com resultados mensuráveis e análises que combinam múltiplas fontes primárias para produzir conclusões inéditas.</p>



<p>Do ponto de vista de produção de conteúdo, o update valida a estratégia de investir em profundidade e exclusividade. Páginas que funcionam como fonte primária para determinado tema obtiveram vantagem mensurável sobre concorrentes que apenas compilam informações disponíveis.</p>



<h2 class="wp-block-heading">Scaled content abuse e programmatic SEO concentram as maiores quedas</h2>



<p>O scaled content abuse — prática de gerar grandes volumes de conteúdo automatizado para capturar tráfego de cauda longa — foi o principal alvo do March 2026 Core Update, de acordo com as diretrizes do Google. Sites que empregavam programmatic SEO com templates genéricos e sem expertise temática demonstraram quedas mais severas que a média.</p>



<p>A distinção entre programmatic SEO legítimo e abusivo, no contexto deste update, concentra-se na presença de expertise e dados únicos. Diretórios com informações proprietárias mantiveram posições, enquanto agregadores que replicam dados públicos em templates automatizados perderam relevância. Ferramentas de <a href="https://www.conversion.com.br/blog/gemini-ai/">Gemini AI</a> e outros assistentes podem apoiar a produção, desde que o resultado final contenha valor editorial verificável.</p>



<p>O padrão observado indica que o Google avançou na capacidade de distinguir conteúdo programático que serve ao usuário daquele que existe apenas para capturar impressões. A escala de publicação, combinada com similaridade estrutural e ausência de fontes, configura o sinal mais forte de penalização identificado no estudo.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.conversion.com.br/blog/google-core-update-marco-2026-impacto/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>[OPINIÃO] O e-commerce agêntico prometeu demais, mas até agora mostrou bem pouco.</title>
		<link>https://www.conversion.com.br/blog/opiniao-agentic-commerce/</link>
					<comments>https://www.conversion.com.br/blog/opiniao-agentic-commerce/#respond</comments>
		
		<dc:creator><![CDATA[Letícia Soares]]></dc:creator>
		<pubDate>Thu, 02 Apr 2026 01:09:56 +0000</pubDate>
				<category><![CDATA[Conversion]]></category>
		<guid isPermaLink="false">https://www.conversion.com.br/?p=53003</guid>

					<description><![CDATA[OpenAI e Google querem transformar os chats de IA em canal de conversão, mas ainda falta o que nenhuma integração técnica resolve: a confiança do usuário. Quando a OpenAI anunciou o Instant Checkout junto com o Protocolo de Comércio Agêntico, em setembro de 2025, parecíamos estar diante de uma nova virada de chave na web. [&#8230;]]]></description>
										<content:encoded><![CDATA[
<h3 class="wp-block-heading">OpenAI e Google querem transformar os chats de IA em canal de conversão, mas ainda falta o que nenhuma integração técnica resolve: a confiança do usuário.</h3>



<p>Quando a OpenAI anunciou o <a href="https://www.conversion.com.br/blog/chatgpt-instant-checkout/">Instant Checkout</a> junto com o <a href="https://www.conversion.com.br/blog/agentic-commerce-protocol-acp/">Protocolo de Comércio Agêntico</a>, em setembro de 2025, parecíamos estar diante de uma nova virada de chave na web.</p>



<p>A promessa era de que os usuários poderiam pesquisar, comparar e comprar produtos sem deixar o chat, tendo a IA como um assistente de compras. A expectativa era de que, ao eliminar o redirecionamento para o site do varejista, as conversões subiriam.</p>



<p>No modelo proposto, o ChatGPT seria um agente do usuário, transmitindo as suas informações para o sistema do lojista, de forma que o processamento do pedido e o pagamento continuariam acontecendo neste ambiente.&nbsp;</p>



<p>O serviço seria gratuito para o usuário, mas os lojistas pagariam uma pequena tarifa sobre as compras finalizadas.</p>



<p><a href="https://www.conversion.com.br/blog/walmart-openai-chatgpt/">O Walmart foi um dos primeiros parceiros a testar o modelo</a>, em novembro de 2025, disponibilizando cerca de 200 mil itens do seu catálogo dentro do ChatGPT.&nbsp; Mas, agora, cinco meses depois, a gigante anunciou que está voltando atrás.</p>



<p>O resultado do teste foi o oposto do esperado: <a href="https://searchengineland.com/walmart-chatgpt-checkout-converted-worse-472071" target="_blank" rel="noopener"><strong>a taxa de conversão do Instant Checkout do ChatGPT foi até 3x menor do que quando o usuário era simplesmente redirecionado</strong></a> para o site da Walmart.</p>



<p>Mas, apesar de se afastar do Instant Checkout, o Walmart não desistiu completamente do ChatGPT.&nbsp;</p>



<p>A partir de agora, a empresa vai embutir o seu próprio chatbot, o Sparky, dentro da interface do GPT. Os usuários vão logar na conta do Walmart, sincronizar carrinhos e fechar a compra dentro do ecossistema do próprio varejista.</p>



<p>Diante da baixa adesão e do CTR meio desastroso, <a href="https://www.conversion.com.br/blog/chatgpt-abandona-checkout-nativo-4/">a própria OpenAI recuou do Instant Checkout</a> e está migrando para um modelo baseado em apps gerenciados pelos próprios varejistas, onde as compras acontecem dentro dos sistemas e plataformas de cada merchant, e não nativamente no chat.</p>



<p>No meio de tudo isso, a Shopify anunciou a sua mais nova iniciativa de <a href="https://www.conversion.com.br/blog/agentic-commerce/">Agentic Commerce</a>, o <strong>Agentic Storefronts</strong>, que conecta catálogos de produtos ao ChatGPT e a outras LLMs por padrão, sem opt-in necessário, e disponível também para lojas que não usam o Shopify como plataforma.&nbsp;</p>



<p>Quando o usuário toca em &#8220;comprar&#8221; dentro do chat, a loja abre dentro do app, possibilitando que o varejista mantenha o checkout, os dados e o relacionamento com o cliente.&nbsp;</p>



<p>A Sephora foi o primeiro grande nome a anunciar presença nesse modelo, revelado no Shoptalk Spring de março de 2026.</p>



<p>O Google, de outro lado, está amadurecendo a sua função de comércio agêntico com o <a href="https://www.conversion.com.br/blog/universal-commerce-protocol/">Universal Commerce Protocol (UCP)</a>, possibilitando <strong>compras diretas nas interfaces do Gemini e do AI Mode</strong>, que é exatamente o que o ChatGPT tentou fazer.</p>



<h2 class="wp-block-heading"><strong>Por que o Instant Checkout da OpenAI não funcionou, mas o UCP do Google é mais promissor?</strong></h2>



<p>Os dados ajudam a explicar por que o modelo nativo do ChatGPT não funcionou.</p>



<p>Uma <a href="https://newsroom.ibm.com/2026-01-07-ibm-nrf-study-brands-and-retailers-navigate-a-new-reality-as-ai-shapes-consumer-decisions-before-shopping-begins" target="_blank" rel="noopener">pesquisa da IBM em parceria com a National Retail Federation</a>, publicada em 2026, mostrou que 45% dos consumidores já usam IA na jornada de compra, principalmente para:</p>



<ul>
<li>pesquisar produtos (41%),&nbsp;</li>



<li>interpretar avaliações (33%)&nbsp;</li>



<li>e buscar descontos (31%).&nbsp;</li>
</ul>



<p>O uso da IA no processo de compra existe, e está ficando cada vez mais relevante, mas ainda está concentrado na etapa de descoberta e decisão, não na conversão.</p>



<p>Essa mesma pesquisa mostrou que <strong>83% dos consumidores apontam múltiplas preocupações sobre privacidade, uso indevido de dados e marketing abusivo</strong> em relação à compra via IA.&nbsp;</p>



<p>Essa não é uma tensão pequena, nem banal, e explica muito sobre por que fechar uma compra dentro de um chat ainda gera resistência.</p>



<p>Quando a relação envolve dinheiro, o grau de confiança exigido é outro: segurança no pagamento, atualização de inventário em tempo real, histórico de pedidos, política de devolução… e a IA ainda não entrega esse conjunto com a consistência que o usuário espera de um canal de compra.&nbsp;</p>



<p>O Google, por sua vez, já tem a confiança do público, décadas de relações com varejistas, o seu próprio serviço de pagamento (!) e muito mais anos de bagagem e calos de processos por uso de dados sensíveis.  </p>



<p>Parece que alguém já saiu bem na frente nessa corrida mesmo tendo disparado meses depois.</p>



<h3 class="wp-block-heading"><strong>A OpenAI vai conseguir se sustentar?</strong></h3>



<p>Nessa história toda existe um paralelo que eu acho impossível de ignorar — e, para mim, é até meio engraçado de pensar.</p>



<p>O ChatGPT e o <a href="https://www.conversion.com.br/blog/o-que-e-seo/">SEO</a> estão passando pela mesma crise de provar que são mais do que um canal de visibilidade.</p>



<p>No caso do SEO, essa crise foi ironicamente provocada justamente pela ascensão das IAs e pela queda de tráfego. <strong>No caso do ChatGPT, ela é muito mais sobre monetização e sobre se provar rentável</strong>: a plataforma precisa mostrar que consegue gerar receita de verdade, não só tráfego e atenção.</p>



<p>Os testes de <a href="https://www.conversion.com.br/blog/chatgpt-anuncios-receita-roi/">anúncios dentro do ChatGPT</a> reforçam essa leitura.&nbsp;</p>



<p>Os primeiros resultados mostram um CTR abaixo do Google Search, com investimento mínimo relatado de cerca de US$ 200 mil. Para quem está acostumado com as métricas do Google, esses números são difíceis de justificar.</p>



<p>É como se a OpenAI estivesse tentando provar que consegue sentar na mesa dos adultos quando o assunto é geração de receita, especialmente quando <a href="https://fortune.com/2025/11/26/is-openai-profitable-forecast-data-center-200-billion-shortfall-hsbc/" target="_blank" rel="noopener">a empresa opera em déficit e só tem previsão de gerar lucro em 2030</a>.</p>



<h2 class="wp-block-heading"><strong>O que essas movimentações no comércio agêntico significam para os SEOs?</strong></h2>



<p>Para nós, do lado de cá, esse me parece um dos momentos em que temos a faca e o queijo na mão, mas ainda não sabemos como fazer a divisão.&nbsp;</p>



<p>De um lado, temos um público sedento por facilidade — mas ainda desconfiado com o excesso de facilidade; do outro, temos os varejistas entendendo o potencial de alcance das IAs para a divulgação dos seus produtos, e, no meio, temos as <strong>empresas de IA tentando entrar em uma recinto muito mais sensível e regulamentado do que o campo de direitos autorais</strong>.&nbsp;</p>



<p><strong>De qualquer forma, o destino das IAs como canal de conversão ainda está aberto</strong>: o futuro das LLMs é se tornar um canal de conversão ou permanecer sendo um canal de descoberta indiscutivelmente poderoso?&nbsp;</p>



<p>Enquanto essa crise de identidade ainda não se resolve e as coisas se desenrolam em uma velocidade absurda, <strong>o básico continua sendo essencial</strong>.&nbsp;</p>



<p>Descrições bem escritas, informações organizadas, respostas para todas as dúvidas do usuário, sinais de confiança e facilidade de compra ainda são os fatores que levam à conversão, seja lá por onde ela acontecer.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.conversion.com.br/blog/opiniao-agentic-commerce/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
