<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Enrique Dans</title>
	<atom:link href="https://www.enriquedans.com/feed" rel="self" type="application/rss+xml" />
	<link>https://www.enriquedans.com</link>
	<description>Investigación y opinión acerca de los Sistemas y Tecnologías de Información</description>
	<lastBuildDate>Tue, 14 Apr 2026 17:54:36 +0000</lastBuildDate>
	<language>es</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>
	<item>
		<title>La inteligencia artificial frente al espejo de la sociedad: miedo, violencia y propaganda</title>
		<link>https://www.enriquedans.com/2026/04/la-inteligencia-artificial-frente-al-espejo-de-la-sociedad-miedo-violencia-y-propaganda.html</link>
					<comments>https://www.enriquedans.com/2026/04/la-inteligencia-artificial-frente-al-espejo-de-la-sociedad-miedo-violencia-y-propaganda.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Tue, 14 Apr 2026 07:02:30 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[Anthropic]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[influence]]></category>
		<category><![CDATA[lobbying]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[opinion]]></category>
		<category><![CDATA[perceptions]]></category>
		<category><![CDATA[politics]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57670</guid>

					<description><![CDATA[Durante años, las grandes compañías tecnológicas han cultivado una narrativa cuidadosamente diseñada: la inteligencia artificial como progreso inevitable, como motor de productividad, como solución casi mágica a problemas estructurales. Sin embargo, algo está empezando a resquebrajarse. Y no es su tecnología, que también, sino sobre todo su percepción social. Un interesante artículo reciente de The  <a href="https://www.enriquedans.com/2026/04/la-inteligencia-artificial-frente-al-espejo-de-la-sociedad-miedo-violencia-y-propaganda.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-full is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/04/AI-perceptions-and-politics-Dall·E.jpg"><img fetchpriority="high" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/04/AI-perceptions-and-politics-Dall·E.jpg" alt="IMAGE: A humanoid robot addresses a crowd at a podium while protesters behind it hold anti-AI signs, with surveillance drones overhead in a futuristic city " class="wp-image-57671" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/04/AI-perceptions-and-politics-Dall·E.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/04/AI-perceptions-and-politics-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/04/AI-perceptions-and-politics-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/04/AI-perceptions-and-politics-Dall·E-768x768.jpg 768w" sizes="(max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Durante años, las grandes compañías tecnológicas han cultivado una narrativa cuidadosamente diseñada: la inteligencia artificial como progreso inevitable, como motor de productividad, como solución casi mágica a problemas estructurales. Sin embargo, algo está empezando a resquebrajarse. Y no es su tecnología, que también, sino sobre todo su percepción social. </p>



<p>Un interesante artículo reciente de The Guardian, <em>«<a href="https://www.theguardian.com/technology/2026/apr/12/ai-image-problem-policy-papers-thinktanks" target="_blank" rel="noreferrer noopener">AI companies know they have an image problem. Will funding policy papers and thinktanks dig them out</a>?»</em>, advertía de un fenómeno inquietante: <em>think tanks</em>, recomendaciones de políticas públicas, <a href="https://www.theguardian.com/technology/2026/apr/02/openai-talk-show-tbpn" target="_blank" rel="noreferrer noopener">compra de medios</a> e incluso informes aparentemente técnicos están siendo cada vez más contaminados por imágenes generadas por inteligencia artificial que distorsionan la realidad o refuerzan narrativas interesadas. No se trata de un problema técnico, sino cultural. La inteligencia artificial no solo produce contenido: produce imaginarios. Y esos imaginarios, cuando son manipulados, erosionan la confianza en el conocimiento experto.</p>



<p>La reacción de las grandes compañías ante este deterioro de su imagen pública está lejos de ser pasiva. Más bien al contrario: estamos asistiendo a una ofensiva coordinada, sofisticada y, en muchos casos, profundamente política. </p>



<p>El ejemplo más evidente es el surgimiento de estructuras de influencia directa sobre el proceso democrático. Un Super PAC respaldado por actores clave del sector como OpenAI, Andreessen Horowitz, Palantir y otros, que ha recaudado al menos 125 millones de dólares para influir en las elecciones norteamericanas, <a href="https://www.cnbc.com/2026/01/30/ai-industry-super-pac-raises-campaign-money.html" target="_blank" rel="noreferrer noopener">con el objetivo explícito de favorecer a candidatos alineados con una regulación favorable a la industria</a>. No se trata de <em>lobbying</em> tradicional: es una estrategia de presión política a gran escala, con capacidad para premiar o castigar a legisladores. </p>



<p>El caso del candidato neoyorquino <a href="https://en.wikipedia.org/wiki/Alex_Bores" target="_blank" rel="noreferrer noopener">Alex Bores</a> ilustra hasta qué punto esta estrategia ha escalado. Su «delito» fue impulsar una ley estatal para introducir salvaguardas en el desarrollo de la inteligencia artificial. <a href="https://www.politico.com/news/magazine/2026/03/06/alex-bores-ai-leading-the-future-anthropic-00797055" target="_blank" rel="noreferrer noopener">La respuesta fue inmediata: campañas negativas millonarias, ataques personales y una narrativa diseñada para disuadir no solo a él, sino a cualquier otro político con aspiraciones regulatorias</a>. El objetivo no era solo derrotarle, sino enviar un mensaje claro: regular la inteligencia artificial tiene un coste político elevado. </p>



<p>Este patrón recuerda poderosamente a episodios anteriores en la historia tecnológica. La industria del tabaco, durante décadas, negó la evidencia científica mientras financiaba campañas de desinformación. Las grandes petroleras han seguido estrategias similares respecto al cambio climático. La diferencia ahora es la velocidad y la escala: la inteligencia artificial permite producir narrativas, imágenes y argumentos con una eficiencia sin precedentes.</p>



<p>Pero la presión no se limita al ámbito político. También se despliega en el terreno jurídico. Según Wired, OpenAI ha respaldado legislación destinada a limitar la responsabilidad legal de las empresas de inteligencia artificial por los daños causados por sus modelos. Es decir, no solo se busca influir en quién legisla, sino en qué se legisla y en qué términos.</p>



<p>Al mismo tiempo, las compañías intentan reconstruir su legitimidad desde dentro, con <a href="https://www.anthropic.com/news/the-anthropic-institute" target="_blank" rel="noreferrer noopener">iniciativas como el lanzamiento del Anthropic Institute</a>, presentado como un espacio para el estudio responsable del impacto de la inteligencia artificial. O con documentos como el reciente <em>«<a href="https://cdn.openai.com/pdf/561e7512-253e-424b-9734-ef4098440601/Industrial%20Policy%20for%20the%20Intelligence%20Age.pdf">Industrial Policy for the Intelligence Age</a>«</em> de OpenAI, que intenta enmarcar el desarrollo de la inteligencia artificial como una cuestión estratégica nacional, prácticamente geopolítica. El texto insiste en la necesidad de una política industrial activa, con inversión pública masiva, acceso preferente a energía y capacidad de computación, y una estrecha colaboración entre gobierno y empresas para asegurar el liderazgo frente a China. Pero más allá de sus propuestas concretas, lo verdaderamente relevante es el encuadre: la regulación deja de ser un mecanismo de control democrático para convertirse en un posible obstáculo estratégico. Es, en esencia, un intento de redefinir el debate, desplazándolo desde los riesgos sociales de la inteligencia artificial hacia una narrativa de competencia geopolítica en la que cualquier freno puede interpretarse como una amenaza al interés nacional. El mensaje es claro: regular demasiado puede significar perder frente a China. La narrativa del miedo cambia de objeto, pero no de lógica. </p>



<p>Sin embargo, estas iniciativas conviven con una realidad mucho más incómoda. La percepción social de la inteligencia artificial no solo está deteriorándose: está polarizándose. Los artículos de The Guardian y otros medios reflejan una creciente preocupación pública por los efectos de la inteligencia artificial en el empleo, la desinformación o la privacidad. Y esa preocupación, cuando no encuentra canales institucionales creíbles, puede derivar en formas más extremas de rechazo. Leeros la novela «<a href="https://amzn.to/4c6t7gu" target="_blank" rel="noreferrer noopener">La resistencia ludita</a>«, de <a href="https://www.robertoaugusto.com">Roberto Augusto</a>, y entenderéis de lo que estamos hablando.</p>



<p>Los episodios recientes en San Francisco son un síntoma claro. <a href="https://sfstandard.com/2025/12/02/openai-protester-shut-down-stop-ai-sam-kirchner/" target="_blank" rel="noreferrer noopener">Protestas que interrumpen eventos de OpenAI</a>, ataques contra <a href="https://sfstandard.com/2026/04/12/sam-altman-s-home-targeted-second-attack/" target="_blank" rel="noreferrer noopener">propiedades vinculadas a figuras del sector</a>, e incluso <a href="https://www.wired.com/story/sam-altman-home-attack-openai-san-franisco-office-threat/" target="_blank" rel="noreferrer noopener">incidentes violentos</a> que han requerido <a href="https://www.sanfranciscopolice.org/news/sfpd-arrests-suspects-involved-shooting-26-044" target="_blank" rel="noreferrer noopener">intervención policial</a>. No se trata de fenómenos aislados, sino de señales de una tensión creciente entre una industria que avanza a gran velocidad y una sociedad que no siempre entiende ni acepta hacia dónde se dirige. </p>



<p>Lo que estamos viendo, en realidad, es una crisis de legitimidad. Y como todas las crisis de legitimidad, no puede resolverse únicamente con mejores productos o más inversión. Requiere confianza, transparencia y, sobre todo, una disposición real a aceptar límites. </p>



<p>Pero ahí reside el problema fundamental. Las compañías de inteligencia artificial no parecen dispuestas a aceptar esos límites. En su lugar, están <a href="https://www.wired.com/story/openai-backs-bill-exempt-ai-firms-model-harm-lawsuits/" target="_blank" rel="noreferrer noopener">desplegando todo su arsenal financiero, político y narrativo para moldear el entorno en el que operan</a>. No es una reacción defensiva: es una estrategia ofensiva. </p>



<p>Y eso plantea una pregunta incómoda, pero inevitable: ¿qué ocurre cuando una tecnología que ya tiene la capacidad de moldear la realidad informativa se combina con actores dispuestos a moldear también la realidad política? La respuesta, probablemente, no la encontraremos en ningún modelo de lenguaje. Pero sí en cómo decidamos, como sociedad, enfrentarnos a esa convergencia. Porque la batalla por la inteligencia artificial ya no es tecnológica. Es, ante todo, una batalla por el control del relato. </p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is openly available in English on Medium, «<a href="https://medium.com/enrique-dans/manufacturing-consent-in-the-age-of-ai-control-the-narrative-5430f24869a0?sk=1385aaef2e8f1611b83abd0b7b965dd3" data-type="link" data-id="https://medium.com/enrique-dans/manufacturing-consent-in-the-age-of-ai-control-the-narrative-5430f24869a0?sk=1385aaef2e8f1611b83abd0b7b965dd3" target="_blank" rel="noreferrer noopener">Manufacturing consent in the age of AI: control the narrative</a>» </em></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/04/la-inteligencia-artificial-frente-al-espejo-de-la-sociedad-miedo-violencia-y-propaganda.html/feed</wfw:commentRss>
			<slash:comments>7</slash:comments>
		
		
			</item>
		<item>
		<title>Meta no intenta reparar los daños que provocó: lo único que quiere es impedir demandas masivas</title>
		<link>https://www.enriquedans.com/2026/04/meta-no-intenta-reparar-los-danos-que-provoco-lo-unico-que-quiere-es-impedir-demandas-masivas.html</link>
					<comments>https://www.enriquedans.com/2026/04/meta-no-intenta-reparar-los-danos-que-provoco-lo-unico-que-quiere-es-impedir-demandas-masivas.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Mon, 13 Apr 2026 08:14:45 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[class action]]></category>
		<category><![CDATA[danger]]></category>
		<category><![CDATA[Facebook]]></category>
		<category><![CDATA[Instagram]]></category>
		<category><![CDATA[irresponsibility]]></category>
		<category><![CDATA[lawsuit]]></category>
		<category><![CDATA[Meta]]></category>
		<category><![CDATA[social media]]></category>
		<category><![CDATA[social networks]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57657</guid>

					<description><![CDATA[Hay momentos en los que una compañía se delata mejor con sus reflejos que con sus comunicados. Meta lleva años sosteniendo, con esa mezcla tan característica de cinismo corporativo y arrogancia monopolística, que sus plataformas son poco menos que espacios neutros en los que, de vez en cuando, vaya por dios, suceden cosas lamentables. Pero  <a href="https://www.enriquedans.com/2026/04/meta-no-intenta-reparar-los-danos-que-provoco-lo-unico-que-quiere-es-impedir-demandas-masivas.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-full is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/04/Metas-irresponsibility-Dall·E.jpg"><img decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/04/Metas-irresponsibility-Dall·E.jpg" alt="IMAGE: A chained Meta logo locking a cracked smartphone with a crying eye on its screen, while shadowy figures with social media icons appear trapped in the background " class="wp-image-57658" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/04/Metas-irresponsibility-Dall·E.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/04/Metas-irresponsibility-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/04/Metas-irresponsibility-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/04/Metas-irresponsibility-Dall·E-768x768.jpg 768w" sizes="(max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Hay momentos en los que una compañía se delata mejor con sus reflejos que con sus comunicados. Meta lleva años sosteniendo, con esa mezcla tan característica de cinismo corporativo y arrogancia monopolística, que sus plataformas son poco menos que espacios neutros en los que, de vez en cuando, vaya por dios, suceden cosas lamentables. Pero cuando un jurado empieza a decir en voz alta lo que la compañía lleva demasiado tiempo negando, y cuando los despachos de abogados comienzan a buscar demandantes entre quienes fueron atrapados por ese diseño adictivo, la reacción de Meta no es revisar su modelo, asumir responsabilidades o reparar el daño. La reacción es otra: <a href="https://www.axios.com/2026/04/09/meta-social-media-addiction-ads" target="_blank" rel="noreferrer noopener">retirar de sus redes los anuncios de quienes buscan víctimas para litigar contra ella</a>. No intenta discutir el fondo. Intenta cortar el flujo. Intenta que quienes han sufrido no se encuentren entre sí. Intenta, en esencia, administrar el silencio. </p>



<p>El gesto es revelador porque desmonta de un plumazo toda la retórica de la plataforma abierta, del mercado libre de ideas y de la supuesta neutralidad tecnológica. Meta no tiene ningún problema en monetizar durante años la manipulación de la atención, la hipersegmentación publicitaria o la exposición sistemática de usuarios a dinámicas profundamente dañinas. Lo que de pronto parece intolerable no es el perjuicio, sino la posibilidad de que ese perjuicio genere organización, prueba, jurisprudencia y costes. Dicho de otra manera: la empresa que convirtió la vulnerabilidad de millones de adolescentes en inventario publicitario considera ahora inaceptable que unos abogados utilicen ese mismo ecosistema para localizar a quienes podrían pedir cuentas. No es una contradicción. Es exactamente el funcionamiento normal de un modelo depredador cuando empieza a sentirse jurídicamente amenazado. Esa lógica estaba ya en el centro de mis artículos recientes «<a href="https://www.enriquedans.com/2026/03/redes-sociales-un-negocio-obsceno-que-empieza-a-pasar-factura.html" target="_blank" rel="noreferrer noopener">Redes sociales: un negocio obsceno que empieza a pasar factura</a>» y «<a href="https://www.enriquedans.com/2026/03/un-depredador-no-se-arregla-hay-que-desmontarlo.html" target="_blank" rel="noreferrer noopener">Un depredador no se arregla: hay que desmontarlo</a>«: no hablamos de plataformas que se hayan torcido, sino de productos concebidos desde sus inicio para explotar compulsiones y extraer rendimiento económico de ellas. </p>



<p>Lo verdaderamente incómodo para Meta es que ya no estamos ante una crítica moral o cultural, sino ante una mutación legal. El caso de Los Ángeles, en el que Meta y YouTube fueron declaradas responsables por negligencia en un juicio sobre diseño adictivo y daño a una joven usuaria, introduce algo decisivo: la idea de que el problema no es simplemente el contenido que circula, sino la arquitectura misma del producto, sus mecanismos de retención, su ingeniería de dependencia y su capacidad para crear y agravar trastornos psicológicos. Según la cobertura de The Guardian, el jurado entendió precisamente eso: <a href="https://www.theguardian.com/media/2026/mar/25/jury-verdict-us-first-social-media-addiction-trial-meta-youtube" target="_blank" rel="noreferrer noopener">que la empresa sabía perfectamente lo que hacía y que ese diseño fue un factor sustancial en el daño causado</a>. Y apenas un día antes, el Departamento de Justicia de Nuevo México había celebrado otra victoria histórica, con <a href="https://nmdoj.gov/press-release/new-mexico-department-of-justice-wins-landmark-verdict-against-meta/" target="_blank" rel="noreferrer noopener">un jurado que declaró a Meta responsable de engañar a los consumidores sobre la seguridad de sus plataformas y de poner en peligro a menores</a>, imponiéndole 375 millones de dólares en sanciones civiles. No es extraño que empiecen a temblar. Lo extraño sería que no lo hicieran. </p>



<p>Porque además ese conocimiento estaba ahí. No hablamos de un daño descubierto retrospectivamente ni de una externalidad imprevista: hablamos de una compañía que llevaba años teniendo indicios palmarios, estudios internos, testimonios evidentes y señales suficientes como para saber que sus productos estaban afectando gravemente a adolescentes, especialmente en cuestiones de autoestima, ansiedad, compulsión y percepción corporal. La <a href="https://docs.house.gov/meetings/IF/IF16/20211201/114268/HHRG-117-IF16-20211201-SD010.pdf" target="_blank" rel="noreferrer noopener">documentación</a> difundida en el Congreso estadounidense a partir de los Facebook Files dejó negro sobre blanco frases imposibles de trivializar: adolescentes que describían Instagram como un espacio que las hacía sentirse «demasiado gordas», «no lo bastante guapas», o que eran incapaces de dejar de usar una aplicación que sabían que les hacía daño. Ese material no demuestra un fallo aislado de moderación: demuestra una obvia consciencia del perjuicio. Y cuando existe consciencia del perjuicio y se persevera en el diseño porque resulta rentable, lo que hay no es innovación mal calibrada: lo que hay es dolo moral, aunque el derecho tarde en encontrarle el nombre exacto. </p>



<p>Por eso resultan tan importantes los documentos oficiales que han ido acumulándose en paralelo. La <a href="https://ag.ny.gov/press-release/2023/attorney-general-james-and-multistate-coalition-sue-meta-harming-youth" target="_blank" rel="noreferrer noopener">demanda multilateral de 33 estados</a> acusó a Meta de explotar las vulnerabilidades de los jóvenes mediante algoritmos diseñados para prolongar el uso, alertas constantes, comparación social mediante <em>likes</em>, filtros que empeoran la dismorfia corporal y formatos como el <em>scroll</em> infinito pensados precisamente para sabotear cualquier intento de autorregulación. Las autoridades sanitarias de los Estados Unidos fueron igualmente claro al afirmar que <a href="https://www.hhs.gov/surgeongeneral/reports-and-publications/youth-mental-health/social-media/index.html" target="_blank" rel="noreferrer noopener">no puede concluirse que las redes sociales sean suficientemente seguras para niños y adolescentes</a>, y recordó que quienes pasan más de tres horas al día en ellas afrontan un riesgo significativamente mayor de sufrir problemas de salud mental. Y la propia FTC ha subrayado <a href="https://www.ftc.gov/news-events/news/press-releases/2024/09/ftc-staff-report-finds-large-social-media-video-streaming-companies-have-engaged-vast-surveillance" target="_blank" rel="noreferrer noopener">hasta qué punto estas plataformas descansan sobre vigilancia masiva, protección insuficiente para menores y una lógica de acumulación de datos que favorece tanto el abuso como la dominancia de mercado</a>. No es un debate ideológico. Es una convergencia cada vez más robusta entre salud pública, protección del menor, competencia y responsabilidad civil.</p>



<p>Y ahí aparece, desnudo, el verdadero miedo de Meta: que el precedente legal se convierta en industria litigiosa. Que las víctimas dejen de ser casos dispersos y se transformen en masa crítica. Que la narrativa pase de «algunos padres preocupados» a «miles de personas perjudicadas por un producto diseñado para engancharlas cuando eran menores». Que el paralelismo con el tabaco deje de parecer una metáfora periodística y empiece a funcionar como hoja de ruta judicial. Que la enorme cantidad de dinero acumulada durante años haciendo barbaridades empiece a escaparse por millones de agujeros en demandas individuales, o por una <em>class action</em> descomunal. </p>



<p>Si eso ocurre, el daño para Meta no será reputacional, sino estructural. Porque su negocio depende de maximizar atención, inferir vulnerabilidades y vender acceso a estados mentales capturados mediante un espionaje, una vigilancia masiva que jamás debió ser legal. De ahí que la retirada de esos anuncios tenga un valor casi confesional: no es la respuesta de quien se sabe inocente, sino la de quien comprende perfectamente el riesgo de que el goteo de casos se convierta en avalancha. Y cuando una empresa intenta impedir que las víctimas se localicen usando el mismo sistema con el que antes las perfiló, lo que está haciendo no es defender una política comercial. Está protegiendo la continuidad de su impunidad.</p>



<p>Conviene no equivocarse con el desenlace. No estamos viendo a Meta «corregir excesos»: estamos viendo a Meta atrincherarse. Primero negó el problema. Después lo minimizó. Más tarde fingió abordarlo con cosmética regulatoria. Y ahora, cuando las sentencias y las demandas amenazan con poner precio real a años de manipulación adictiva, intenta obstaculizar el acceso de las víctimas a la justicia. Es un patrón demasiado conocido: privatizar los beneficios, socializar el daño y, cuando llega la rendición de cuentas, tratar de bloquear el mecanismo que podría hacerla posible. La cuestión ya no es si Meta actuó irresponsablemente, eso hace tiempo que dejó de ser discutible. La cuestión es si vamos a permitir que, <a href="https://www.ftc.gov/news-events/news/press-releases/2025/01/ftc-finalizes-changes-childrens-privacy-rule-limiting-companies-ability-monetize-kids-data" target="_blank" rel="noreferrer noopener">además de haber construido un modelo obsceno sobre la explotación de menores</a>, utilice su poder de plataforma para dificultar que esos menores, convertidos ya en víctimas, puedan reclamar. Porque una cosa es haber creado el daño. Otra, todavía más indecente, es intentar borrar el camino que conduce hasta él.</p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is available in English on Medium, «<a href="https://medium.com/enrique-dans/first-meta-hooked-users-now-its-blocking-lawyers-9d8a4745fbf1?sk=75821c41dcf6decb00f0dcd170386508" data-type="link" data-id="https://medium.com/enrique-dans/first-meta-hooked-users-now-its-blocking-lawyers-9d8a4745fbf1?sk=75821c41dcf6decb00f0dcd170386508" target="_blank" rel="noreferrer noopener">First Meta hooked users. Now it&#8217;s blocking lawyers</a>» </em></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/04/meta-no-intenta-reparar-los-danos-que-provoco-lo-unico-que-quiere-es-impedir-demandas-masivas.html/feed</wfw:commentRss>
			<slash:comments>4</slash:comments>
		
		
			</item>
		<item>
		<title>Cuando el coche autónomo empieza a gestionar la ciudad</title>
		<link>https://www.enriquedans.com/2026/04/cuando-el-coche-autonomo-empieza-a-gestionar-la-ciudad.html</link>
					<comments>https://www.enriquedans.com/2026/04/cuando-el-coche-autonomo-empieza-a-gestionar-la-ciudad.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Sun, 12 Apr 2026 07:28:46 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[API]]></category>
		<category><![CDATA[autonomous car]]></category>
		<category><![CDATA[cities]]></category>
		<category><![CDATA[driving]]></category>
		<category><![CDATA[self-driving car]]></category>
		<category><![CDATA[smart cities]]></category>
		<category><![CDATA[Tesla]]></category>
		<category><![CDATA[Waymo]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57651</guid>

					<description><![CDATA[Durante años, la conversación sobre conducción autónoma estuvo contaminada por un error de enfoque: se hablaba del coche como si fuese un gadget. Como si bastase con fabricar un vehículo «más listo» y soltarlo en la calle para que, de repente, todo funcionase. Pero no, no es así. La conducción autónoma nunca fue solo un  <a href="https://www.enriquedans.com/2026/04/cuando-el-coche-autonomo-empieza-a-gestionar-la-ciudad.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-full is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/04/Autonomous-vehicles-as-sensors-Dall·E.jpg"><img decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/04/Autonomous-vehicles-as-sensors-Dall·E.jpg" alt="IMAGE: A white autonomous car navigating a modern city street while detecting a pothole being repaired, surrounded by visual indicators of sensors, connectivity, and urban infrastructure " class="wp-image-57652" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/04/Autonomous-vehicles-as-sensors-Dall·E.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/04/Autonomous-vehicles-as-sensors-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/04/Autonomous-vehicles-as-sensors-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/04/Autonomous-vehicles-as-sensors-Dall·E-768x768.jpg 768w" sizes="(max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Durante años, la conversación sobre conducción autónoma estuvo contaminada por un error de enfoque: se hablaba del coche como si fuese un <em>gadget</em>. Como si bastase con fabricar un vehículo «más listo» y soltarlo en la calle para que, de repente, todo funcionase. </p>



<p>Pero no, no es así. La conducción autónoma nunca fue solo un coche, y de hecho, no es «un coche», sino más bien «<a href="https://waymo.com/waymo-driver/" target="_blank" rel="noreferrer noopener">un conductor</a>«. Es una capa tecnológica que necesita sensores, <em>software</em>, aprendizaje, regulación, integración urbana y, sobre todo, una relación completamente distinta con la ciudad. Precisamente por eso resulta tan revelador que Waymo haya dado un paso que va mucho más allá del robotaxi: <a href="https://waymo.com/blog/2026/04/partnering-with-waze-to-help-cities-patch-their-potholes/" target="_blank" rel="noreferrer noopener">utilizar su flota para detectar baches y compartir esa información con ayuntamientos y departamentos de transporte a través de Waze for Cities</a>. No estamos viendo simplemente coches que se conducen solos. Estamos viendo infraestructura urbana móvil capaz de producir inteligencia operativa sobre la ciudad. </p>



<p>Eso es exactamente lo importante. El robotaxi es casi lo de menos. Lo verdaderamente significativo es que el despliegue de vehículos autónomos obliga a resolver una cuestión que muchos habían preferido ignorar: la autonomía real no se apoya solo en el coche, sino también en una microcartografía detalladísima del entorno, en sistemas capaces de interpretar cambios temporales y en una interlocución continua con las autoridades públicas. Waymo lo explica sin rodeos: antes de operar en una nueva zona, cartografía con enorme detalle carriles, señales, bordillos, pasos de peatones e intersecciones, y combina esos mapas de alta precisión con datos en tiempo real procedentes de sensores y algoritmos de inteligencia artificial. Esa idea de que el coche «simplemente ve y decide» suena muy bien en una <em>keynote</em>, pero la realidad industrial es otra bastante más compleja. La propia compañía lo describe así: primero se mapea el territorio, después se opera sobre él.</p>



<p>En ese contexto, Tesla representa una anomalía interesante y profundamente ideológica dentro del sector: mientras compañías como Waymo apuestan por la redundancia sensorial (cámaras, radar y lidar) y por una microcartografía extremadamente precisa del entorno, <a href="https://en.wikipedia.org/wiki/Tesla_Autopilot" target="_blank" rel="noreferrer noopener">Tesla</a> ha decidido <a href="https://www.notateslaapp.com/news/3077/why-tesla-walked-away-from-radar-and-lidar-to-go-all-in-on-vision" target="_blank" rel="noreferrer noopener">prescindir deliberadamente de todo eso</a> y <a href="https://opentools.ai/news/teslas-fsd-revolutionizes-autonomous-driving-with-vision-only-3d-worlds" target="_blank" rel="noreferrer noopener">basar su aproximación casi exclusivamente en visión artificial y aprendizaje automático a partir de cámaras</a>. La premisa es sencilla: si los humanos conducen utilizando básicamente los ojos, una red neuronal suficientemente entrenada debería poder hacer lo mismo. Su sistema Full Self-Driving transforma las imágenes captadas por múltiples cámaras en una representación tridimensional del entorno en tiempo real, sin necesidad de mapas de alta definición preconstruidos . Esta estrategia elimina la dependencia de infraestructuras cartográficas externas y reduce costes, pero traslada toda la complejidad al <em>software</em> y a la capacidad de aprendizaje de la inteligencia artificial, en un enfoque que muchos consideran más escalable&#8230; y otros, significativamente más arriesgado, al carecer de la redundancia que aportan sensores como el LiDAR o el radar. </p>



<p>Y cuando esa infraestructura existe, empieza a generar externalidades muy interesantes. Los baches son solo un ejemplo, pero uno especialmente simbólico. Un vehículo autónomo necesita detectar irregularidades del firme para proteger el coche, suavizar la marcha y preservar la seguridad del pasajero. Esa capacidad, que nace como requisito puramente operativo, se convierte ahora en una herramienta de mantenimiento urbano: <a href="https://www.theverge.com/transportation/908886/waymo-potholes-cities-data-waze-robotaxi" target="_blank" rel="noreferrer noopener">cámaras, radar, acelerómetros y sistemas de <em>feedback</em> físico detectan el deterioro del asfalto, lo geolocalizan y lo vuelcan a plataformas municipales</a> para facilitar reparaciones más rápidas. Es, básicamente, <a href="https://www.enriquedans.com/2017/01/las-ciudades-son-datos.html" target="_blank" rel="noreferrer noopener">mi vieja idea de la API municipal</a>: si quieres ofrecer servicios en la ciudad, conéctate a ella y ofrece información de manera transparente. </p>



<p>En ciudades donde Waymo ya opera, como San Francisco, Los Ángeles, Phoenix, Austin o Atlanta, esa información empieza a formar parte de la conversación pública sobre cómo gestionar mejor las calles. Es una evolución lógica: cuando una flota recorre la ciudad de forma constante y sensorizada, termina sabiendo mucho más del estado real de la vía que muchos sistemas administrativos tradicionales basados en avisos esporádicos y formularios burocraticos.</p>



<p>Conviene entender lo que esto implica políticamente. La conducción autónoma deja de presentarse como una extravagancia futurista o una amenaza abstracta y pasa a negociarse como un servicio urbano con contrapartidas concretas. La pregunta ya no es solo si el coche puede circular solo, sino qué obtiene la ciudad a cambio de permitir, regular y facilitar su despliegue. Datos sobre baches hoy; mañana, información sobre señalización defectuosa, incidencias temporales, obras mal balizadas o zonas donde la siniestralidad aumenta. La empresa ya no llega únicamente a «pedir permiso para circular»: llega a ofrecer una capa adicional de observación y optimización del espacio urbano. Y eso cambia completamente la relación de poder entre plataforma y ayuntamiento.</p>



<p>Además, a estas alturas seguir discutiendo si la conducción autónoma «es real o no» empieza a resultar casi pintoresco. Waymo afirma estar ofreciendo ya más de 500,000 trayectos autónomos eléctricos a la semana, y en febrero anunció la apertura pública de su servicio totalmente autónomo en Dallas, Houston, San Antonio y Orlando, elevando a diez sus áreas metropolitanas comerciales y anticipando más de un millón de viajes semanales antes de final de año. No estamos hablando de un piloto de laboratorio ni de un vídeo de demostración cuidadosamente editado. Estamos hablando de escala operativa, de uso cotidiano y de expansión territorial. Waymo también sostiene que <a href="https://waymo.com/blog/shorts/waymo-safety-impact-update-170m/" target="_blank" rel="noreferrer noopener">su análisis sobre más de 170 millones de millas totalmente autónomas muestra un 92% menos de siniestros con lesiones graves o mortales que los conductores humanos en condiciones comparables</a>. Se podrá discutir la metodología, y se debe hacer, pero ya no se puede sostener seriamente que esto no existe o no funciona fuera de una demo.</p>



<p>Por supuesto, realidad no significa perfección. La propia trayectoria de Waymo demuestra que la autonomía avanzada sigue teniendo límites, errores, adaptación local y un escrutinio regulatorio intenso. <a href="https://static.nhtsa.gov/odi/inv/2025/INOA-PE25013-23069.pdf">La NHTSA abrió en 2025 una evaluación preliminar tras un incidente en Atlanta en el que un vehículo de Waymo rodeó un autobús escolar detenido</a>: el documento indica además que entonces la compañía ya había superado los cien millones de millas y estaba acumulando alrededor de dos millones semanales. Es decir, incluso en un contexto de escala real y de mejora evidente, siguen apareciendo casos complejos que obligan a investigar, corregir y refinar. La conclusión sensata no es que «la autonomía ha fracasado», sino justamente la contraria: ha entrado en la fase adulta, esa en la que deja de evaluarse como promesa y empieza a evaluarse como sistema crítico.</p>



<p>También por eso las ciudades importan tanto. Boston, por ejemplo, está sirviendo como recordatorio de que no basta con que la tecnología exista: tiene que encajar en tejidos urbanos complicados, ganar legitimidad pública y atravesar debates regulatorios y laborales nada triviales. Allí, <a href="https://www.wbur.org/news/2025/07/28/waymo-boston-city-council-self-driving-regulations-newsletter" target="_blank" rel="noreferrer noopener">Waymo ha estado cartografiando la ciudad con vehículos equipados con lidar y cámaras, pero el salto a operaciones comerciales exigiría tanto el visto bueno político como un marco normativo estatal</a>. Y en las objeciones aparecen exactamente los temas que deberían aparecer: calles estrechas, nieve, complejidad urbana, convivencia con peatones y bicicletas, y el impacto potencial sobre el empleo. Esa es la discusión correcta. No «si algún día llegará», sino bajo qué condiciones, con qué reglas y con qué reparto de costes y beneficios.</p>



<p>En paralelo, el fenómeno ya no es exclusivamente norteamericano. En el golfo pérsico, por ejemplo, <a href="https://investor.uber.com/news-events/news/press-release-details/2026/Baidu-and-Uber-Partner-to-Bring-Apollo-Go-Autonomous-Ride-hailing-to-Dubai-in-Collaboration-with-Dubais-Roads-and-Transport-Authority/default.aspx" target="_blank" rel="noreferrer noopener">Uber y Baidu anunciaron en febrero el despliegue del servicio autónomo Apollo Go en Dubai</a>, con vehículos totalmente autónomos disponibles a través de la app y con el objetivo de expandirse por la ciudad conforme lo permitan el aprendizaje operativo y la regulación. La nota de Uber añade que Apollo Go ya había superado los 17 millones de viajes acumulados a octubre de 2025 y que su recuento semanal había rebasado los 250,000. Esa dimensión internacional, que se añade a la de cada vez más ciudades chinas, importa porque desmonta otra idea muy repetida: que la autonomía era una rareza localizada. No, está empezando a convertirse en una industria global que se adapta a marcos regulatorios distintos y que busca operar como red, no como curiosidad.</p>



<p>Lo interesante, en realidad, es hacia dónde debería llevarnos todo esto. El mejor futuro imaginable no es el de millones de propietarios adinerados comprándose su coche autónomo privado para mandarlo vacío a recoger la ropa a la tintorería, a buscar a los niños al colegio, a dar vueltas a la manzana mientras hacen un recado o a volver solo a casa mientras ellos están reunidos. Ese escenario sería un disparate urbano: más congestión, más kilómetros en vacío, más ocupación inútil del espacio público y la consolidación de la ciudad como aparcamiento y circuito de recados automatizados. El futuro razonable es otro: flotas autónomas compartidas, eléctricas, sensorizadas, integradas con transporte público y gestionadas con criterios de eficiencia colectiva. De hecho, <a href="https://waymo.com/sustainability/" target="_blank" rel="noreferrer noopener">Waymo subraya</a> que <a href="https://techcrunch.com/2024/10/17/waymo-offers-3-credit-for-san-francisco-riders-going-to-public-transit-stations/" target="_blank" rel="noreferrer noopener">un 36% de sus usuarios en San Francisco ha utilizado el servicio para conectar con sistemas de transporte público como BART, Muni o Caltrain</a>. Esa es la pista buena: no el coche autónomo como juguete de lujo, sino como pieza de una movilidad urbana mejor orquestada. </p>



<p>Por eso, cada vez que alguien sigue planteando la conducción autónoma como si fuese una fantasía lejana, conviene recordar algo muy simple: ya hay cientos de miles de trayectos semanales, decenas de millones de millas acumuladas, despliegues comerciales en múltiples ciudades y un ecosistema de acuerdos públicos y privados que va mucho más allá del vehículo. La verdadera prueba de madurez no es que el coche conduzca solo, sino que empieza a asumir parte del trabajo invisible de la ciudad: leerla, cartografiarla, anticipar sus anomalías y devolver información útil para gestionarla mejor. Ahí es donde la discusión deja de ser futurista y se vuelve estructural. Lo demás, como tantas veces, es dinero, regulación y voluntad política.</p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is available in English on Medium, «<a href="https://medium.com/enrique-dans/autonomous-cars-arent-vehicles-they-re-urban-infrastructure-c1b85436e2d5?sk=fdd5a90749966b7d4e61ddfe9871d4da" data-type="link" data-id="https://medium.com/enrique-dans/autonomous-cars-arent-vehicles-they-re-urban-infrastructure-c1b85436e2d5?sk=fdd5a90749966b7d4e61ddfe9871d4da" target="_blank" rel="noreferrer noopener">Autonomous cars aren’t vehicles, they’re urban infrastructure</a>» </em></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/04/cuando-el-coche-autonomo-empieza-a-gestionar-la-ciudad.html/feed</wfw:commentRss>
			<slash:comments>9</slash:comments>
		
		
			</item>
		<item>
		<title>La cosecha cautiva: cómo John Deere quiso convertir el software en un peaje</title>
		<link>https://www.enriquedans.com/2026/04/la-cosecha-cautiva-como-john-deere-quiso-convertir-el-software-en-un-peaje.html</link>
					<comments>https://www.enriquedans.com/2026/04/la-cosecha-cautiva-como-john-deere-quiso-convertir-el-software-en-un-peaje.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Sat, 11 Apr 2026 06:54:24 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[agriculture]]></category>
		<category><![CDATA[antitrust]]></category>
		<category><![CDATA[hacking]]></category>
		<category><![CDATA[jailbreaking]]></category>
		<category><![CDATA[John Deere]]></category>
		<category><![CDATA[lawsuit]]></category>
		<category><![CDATA[monopolistic]]></category>
		<category><![CDATA[right to repair]]></category>
		<category><![CDATA[software]]></category>
		<category><![CDATA[tractor]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57641</guid>

					<description><![CDATA[Hubo un tiempo en que comprar un tractor significaba comprar una máquina. Hoy, en demasiados casos, significaba alquilar obediencia. El caso de John Deere lo ilustra con una claridad casi didáctica: la empresa fue transformando sus equipos agrícolas en sistemas digitalmente cerrados, de manera que el agricultor ya no adquiría una herramienta plenamente utilizable, sino  <a href="https://www.enriquedans.com/2026/04/la-cosecha-cautiva-como-john-deere-quiso-convertir-el-software-en-un-peaje.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-full is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/04/John-Deere-Dall·E.jpg"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/04/John-Deere-Dall·E.jpg" alt="IMAGE: A large green tractor in a wheat field under a dramatic sky, highlighting its scale and power " class="wp-image-57642" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/04/John-Deere-Dall·E.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/04/John-Deere-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/04/John-Deere-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/04/John-Deere-Dall·E-768x768.jpg 768w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Hubo un tiempo en que comprar un tractor significaba comprar una máquina. Hoy, en demasiados casos, significaba alquilar obediencia. El <a href="https://en.wikipedia.org/wiki/John_Deere#Non-serviceability_by_owners_or_third_parties" target="_blank" rel="noreferrer noopener">caso de John Deere</a> lo ilustra con una claridad casi didáctica: la empresa fue transformando sus equipos agrícolas en sistemas digitalmente cerrados, de manera que el agricultor ya no adquiría una herramienta plenamente utilizable, sino un producto condicionado por llaves de <em>software</em>, herramientas de diagnóstico restringidas y una arquitectura diseñada para canalizar obligatoriamente las reparaciones hacia su red oficial. La reciente <a href="https://www.agri-pulse.com/ext/resources/pdfs/gov.uscourts.ilnd.415798.333.1.pdf" target="_blank" rel="noreferrer noopener">propuesta de acuerdo</a> por <a href="https://www.thedrive.com/news/john-deere-to-pay-99-million-in-monumental-right-to-repair-settlement" target="_blank" rel="noreferrer noopener">99 millones de dólares</a> no solo revela <a href="https://apnews.com/article/john-deere-repair-lawsuit-settlement-595d4b089689cd94418991326275b68d" target="_blank" rel="noreferrer noopener">la magnitud del problema</a>, sino también algo más inquietante: hasta qué punto una compañía puede utilizar la tecnología no para mejorar el producto, sino para construir un peaje permanente alrededor de él. </p>



<p>Lo importante aquí no es solamente el dinero. En el propio documento judicial puede leerse que el objetivo del litigio era desmontar el <em>«anticompetitive moat»</em> levantado por John Deere, ese foso anticompetitivo que impedía a agricultores y talleres independientes acceder a las herramientas necesarias para mantener, diagnosticar y reparar la maquinaria sin verse obligados a pasar por los concesionarios autorizados. El acuerdo obliga a la compañía, durante diez años, a poner a disposición de propietarios, arrendatarios y reparadores independientes los recursos de reparación, incluidas capacidades de diagnóstico y soluciones técnicas que hasta ahora estaban reservadas <em>de facto</em> a su red oficial. Y, además, el documento estima daños por sobreprecio de entre los 190 y los 387.3 millones de dólares, de los que el fondo de compensación cubriría aproximadamente entre un 26% y un 53%, una proporción muy superior a la habitual en acuerdos <em>antitrust</em>. No es una anécdota: es la constatación de que el abuso era sistémico. </p>



<p>La clave del modelo de Deere fue convertir una reparación mecánica en un privilegio computacional. Según la FTC, <a href="https://www.ftc.gov/news-events/news/press-releases/2025/01/ftc-states-sue-deere-company-protect-farmers-unfair-corporate-tactics-high-repair-costs" target="_blank" rel="noreferrer noopener">la única herramienta de <em>software</em> plenamente funcional para realizar todas las reparaciones era Service ADVISOR, y John Deere reservaba su uso exclusivamente a sus distribuidores autorizados</a>. A los clientes y a terceros les dejaba una versión inferior, incapaz de cubrir todas las necesidades. Eso no solo permitía cobrar más por la reparación; permitía también decidir quién podía reparar, cuándo y en qué condiciones. Y en el campo, el tiempo no es una variable decorativa. Un retraso en plena siembra, pulverización o cosecha no es una molestia: puede convertirse en menores rendimientos, en pérdidas económicas severas y en un encadenamiento de costes que se puede arrastrar durante toda una campaña. La propia FTC subraya que estas restricciones privaban a los agricultores de su propio trabajo de reparación, les impedían recurrir a proveedores locales más rápidos y fiables (o a reparaciones efectuadas por ellos mismos), y les forzaban a pagar más por piezas y servicios. </p>



<p>Lo más llamativo del tema es que la compañía llevaba años intentando presentar ese control como si fuese simple modernidad. En una entrevista de hace algunos años, <a href="https://www.theverge.com/22533735/john-deere-cto-hindman-decoder-interview-right-to-repair-tractors" target="_blank" rel="noreferrer noopener">su CTO defendía que la mayoría de las reparaciones seguían siendo posibles</a>, pero la propia conversación dejaba ver <a href="https://arstechnica.com/tech-policy/2023/01/john-deere-relents-says-farmers-can-fix-their-own-tractors-after-all/" target="_blank" rel="noreferrer noopener">el corazón del problema</a>: cuando una máquina entra en <em>«<a href="https://mechanicbase.com/engine/limp-mode/" target="_blank" rel="noreferrer noopener">limp mode</a>«</em>, cuando un sensor dispara una limitación, o cuando una función crítica depende de <em>software</em>, el poder ya no está en la llave inglesa, sino en el acceso digital. Ese es el verdadero desplazamiento de poder que tantas empresas tecnológicas persiguen: no venderte una máquina mejor, sino redefinir la propiedad para que, incluso después de pagarla, sigas dependiendo de ellas. El tractor deja de ser enteramente tuyo y pasa a ser una plataforma bajo supervisión corporativa. </p>



<p>Por eso este caso trasciende la agricultura: John Deere no estaba defendiendo la seguridad, ni la calidad, ni la integridad técnica en sentido estricto. Estaba defendiendo un modelo de extracción de rentas basado en la asimetría informacional y en el control del <em>software</em>. Y cuando ese control se vuelve excesivo, aparecen fenómenos reveladores: agricultores que prefieren maquinaria más antigua porque es reparable, mercados secundarios que premian lo analógico, y hasta <em>hackers</em> que buscan liberar aquello que el fabricante ha encerrado. <a href="https://gizmodo.com/john-deere-hacking-right-to-repair-1849412256" target="_blank" rel="noreferrer noopener">El <em>jailbreak</em> presentado hace años en Def Con</a> es significativo no porque glorifique el <em>hackeo</em>, sino porque muestra la consecuencia natural del abuso: cuando la empresa convierte la reparación legítima en una actividad cautiva, algunos usuarios empiezan a tratar la restricción como un muro que debe ser sorteado. Eso es exactamente lo que ocurre cuando una estrategia comercial se diseña contra los intereses básicos del propietario.</p>



<p>John Deere intentó amortiguar la presión con el <a href="https://www.fb.org/files/AFBF_John_Deere_MOU.pdf" target="_blank" rel="noreferrer noopener">memorándum de entendimiento firmado en 2023 con la American Farm Bureau Federation</a>, presentado en su momento como una apertura razonable. Pero aquel texto ya anticipaba sus límites: hablaba de acceso «en términos justos y razonables», preservaba amplias salvaguardas en torno a propiedad intelectual, seguridad y emisiones, y además incluía una cláusula por la que la organización agraria se comprometía a no impulsar legislación adicional más exigente mientras el acuerdo estuviera vigente. Era, en la práctica, una desactivación política parcial del conflicto, no su resolución. <a href="https://www.reuters.com/legal/government/deere-must-face-ftcs-antitrust-lawsuit-over-repair-costs-us-judge-rules-2025-06-10/" target="_blank" rel="noreferrer noopener">El litigio posterior y la demanda de la FTC</a> evidencian con claridad que aquella salida voluntaria no fue suficiente. Si una empresa necesita ser demandada para ofrecer de forma efectiva los recursos de reparación, es que nunca tuvo verdadera intención de abrir el sistema. </p>



<p>La dimensión <em>antitrust</em> del caso es, además, fundamental. No estamos ante una simple discusión de consumo ni ante la eterna retórica del «<a href="https://en.wikipedia.org/wiki/Right_to_repair" target="_blank" rel="noreferrer noopener">derecho a reparar</a>» como causa simpática. Estamos ante una empresa que, según la FTC, <a href="https://www.tradingkey.com/news/commodities/250775184-reuters" target="_blank" rel="noreferrer noopener">utilizó su posición dominante en grandes equipos agrícolas y el control exclusivo de una herramienta esencial para sostener un 100% de cuota en ciertas reparaciones que requerían el <em>software</em> completo</a>. Y en junio de 2025 un juez federal permitió que esa demanda <em>antitrust</em> siguiera adelante, rechazando el intento de Deere de tumbarla en una fase preliminar. Eso importa porque sitúa la discusión donde debe estar: no solo en la comodidad del usuario, sino en la estructura de mercado, en la competencia y en los incentivos perversos que nacen cuando el fabricante controla tanto la máquina como la única llave digital para mantenerla operativa. </p>



<p>Lo que John Deere hizo fue ensayar, en un entorno rural y aparentemente alejado del debate tecnológico cotidiano, una idea que las Big Tech conocen muy bien: usar el <em>software</em> para degradar la propiedad y convertir la postventa en una mina cautiva. Cobrar más por el mantenimiento, excluir a terceros, imponer piezas y canales, y hacer que el cliente soporte también el coste del tiempo perdido. En una cosechadora parada a mitad de una cosecha, esa lógica se vuelve completamente obscena. Y precisamente por eso el caso es tan importante: porque demuestra que la discusión sobre tecnología nunca ha sido sólo sobre innovación, sino también sobre poder. Cuando una empresa puede decidir si puedes arreglar lo que has comprado, no te está vendiendo un producto: te está alquilando una dependencia. Y esa, por mucho que la disfracemos de sofisticación digital, sigue siendo una forma de abuso. </p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is available in English on Medium, «<a href="https://medium.com/enrique-dans/harvesting-profits-the-software-trap-behind-john-deeres-tractors-809eb872d088?sk=8b7b58a04db27628398a45c288d6de1d" data-type="link" data-id="https://medium.com/enrique-dans/harvesting-profits-the-software-trap-behind-john-deeres-tractors-809eb872d088?sk=8b7b58a04db27628398a45c288d6de1d" target="_blank" rel="noreferrer noopener">Harvesting profits: the software trap behind John Deere’s tractors</a>» </em></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/04/la-cosecha-cautiva-como-john-deere-quiso-convertir-el-software-en-un-peaje.html/feed</wfw:commentRss>
			<slash:comments>13</slash:comments>
		
		
			</item>
		<item>
		<title>Mythos, o cuando hackear deja de ser difícil</title>
		<link>https://www.enriquedans.com/2026/04/mythos-o-cuando-hackear-deja-de-ser-dificil.html</link>
					<comments>https://www.enriquedans.com/2026/04/mythos-o-cuando-hackear-deja-de-ser-dificil.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Fri, 10 Apr 2026 08:30:18 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[Anthropic]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[Claude]]></category>
		<category><![CDATA[cybersecurity]]></category>
		<category><![CDATA[hacking]]></category>
		<category><![CDATA[responsibility]]></category>
		<category><![CDATA[security]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57648</guid>

					<description><![CDATA[Durante años, la industria tecnológica ha jugado con una idea cómoda: que la ciberseguridad es un problema complejo, sí, pero contenido. Que los atacantes realmente peligrosos son pocos, que el talento ofensivo avanzado es escaso, y que, con suficientes capas de defensa, auditorías y herramientas, el sistema se mantiene razonablemente estable. Claude Mythos dinamita esa  <a href="https://www.enriquedans.com/2026/04/mythos-o-cuando-hackear-deja-de-ser-dificil.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-large is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/04/Claude-Mythos-Anthropic.jpg"><img loading="lazy" decoding="async" width="1024" height="576" src="https://www.enriquedans.com/wp-content/uploads/2026/04/Claude-Mythos-Anthropic-1024x576.jpg" alt="IMAGE: Anthropic's Claude star logo and the text reading &quot;Claude Mythos&quot;  " class="wp-image-57649" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/04/Claude-Mythos-Anthropic-1024x576.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/04/Claude-Mythos-Anthropic-300x169.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/04/Claude-Mythos-Anthropic-768x432.jpg 768w, https://www.enriquedans.com/wp-content/uploads/2026/04/Claude-Mythos-Anthropic.jpg 1280w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Durante años, la industria tecnológica ha jugado con una idea cómoda: que la ciberseguridad es un problema complejo, sí, pero contenido. Que los atacantes realmente peligrosos son pocos, que el talento ofensivo avanzado es escaso, y que, con suficientes capas de defensa, auditorías y herramientas, el sistema se mantiene razonablemente estable. </p>



<p><a href="https://www-cdn.anthropic.com/08ab9158070959f88f296514c21b7facce6f52bc.pdf" target="_blank" rel="noreferrer noopener">Claude Mythos</a> dinamita esa narrativa. No porque introduzca un riesgo completamente nuevo, sino porque altera de manera radical el coste y la escala de los ataques.</p>



<p>La cuestión no es si Mythos es «tan peligroso como dicen». De hecho, conviene empezar por ahí: como recuerda Gary Marcus en Communications of the ACM, <a href="https://cacm.acm.org/blogcacm/what-should-we-take-from-anthropics-possibly-terrifying-new-report-on-mythos/" target="_blank" rel="noreferrer noopener">estamos en una fase en la que es difícil separar el riesgo real del marketing y del alarmismo interesado</a>, porque los modelos no son públicos, los experimentos no son reproducibles y las condiciones en las que se obtienen los resultados no están del todo claras. Es una advertencia importante: la historia reciente de la inteligencia artificial está llena de exageraciones, y Anthropic no es precisamente un actor neutral en la construcción de su propio relato. </p>



<p>Pero sería un error quedarse ahí y despachar el tema como <em>hype</em>. Incluso el propio Marcus reconoce algo mucho más inquietante: no hace falta que Mythos sea AGI ni que sea perfecto para poder causar daños significativos. Basta con que sea suficientemente bueno en dominios concretos, como el código o la seguridad, para tener efectos sistémicos. Y eso enlaza directamente con lo que ya estamos viendo. </p>



<p>Según el análisis de The Economist, <a href="https://www.economist.com/business/2026/04/08/how-dangerous-is-mythos-anthropics-new-ai-model" target="_blank" rel="noreferrer noopener">hay razones de peso para tomarse en serio las advertencias de Anthropic</a>. No solo por la magnitud de las afirmaciones, con el <a href="https://venturebeat.com/security/mythos-detection-ceiling-security-teams-new-playbook" target="_blank" rel="noreferrer noopener">hallazgo de vulnerabilidades críticas en todos los grandes sistemas operativos y navegadores</a>, incluyendo <a href="https://medium.com/@creativeaininja/project-glasswing-and-claude-mythos-ai-that-finds-bugs-humans-missed-for-27-years-0c964e77f3e4" target="_blank" rel="noreferrer noopener">fallos que llevaban décadas sin detectarse</a>, sino por la reacción de la industria: empresas como Apple, Google o la Linux Foundation se han sumado a <a href="https://www.anthropic.com/glasswing" target="_blank" rel="noreferrer noopener">Project Glasswing</a>, lo que sugiere que la amenaza es, como mínimo, creíble. Cuando competidores directos se alinean en torno a una iniciativa de este tipo, no estamos ante una simple maniobra de marketing. ¿<a href="https://medium.com/@kram254/anthropics-mythos-the-ai-that-forced-its-creators-into-unprecedented-action-0d9b549c756a" target="_blank" rel="noreferrer noopener">Qué es Project Glasswing</a>? La iniciativa de emergencia que Anthropic ha creado con Amazon, Apple, Google, Microsoft, Nvidia y otros gigantes tecnológicos para tratar de anticipar los posibles efectos de poner Mythos en el mercado. </p>



<p>El verdadero problema, sin embargo, no está en Mythos como producto, sino en Mythos como síntoma. Lo que este modelo pone de manifiesto es algo mucho más profundo: que la capacidad de encontrar y explotar vulnerabilidades no depende de una inteligencia «general», sino de algo mucho más simple y más escalable. Capacidad de iteración. Paciencia infinita. Automatización del ensayo y error. </p>



<p>Es exactamente lo que describía hace unos días en «<a href="https://www.enriquedans.com/2026/03/la-maquina-que-empieza-a-redisenarse-sola.html" target="_blank" rel="noreferrer noopener">La máquina que empieza a rediseñarse sola</a>«: no necesitamos máquinas conscientes ni superinteligentes para cambiar el mundo. Nos basta con máquinas infinitamente pacientes que puedan probar millones de combinaciones sin cansarse, aprender de cada intento y persistir allí donde los humanos abandonan. Aplicado a la ciberseguridad, eso tiene implicaciones obvias: el ataque deja de ser un arte artesanal para convertirse en un proceso industrial. Y cuando algo se industrializa, se abarata. Y cuando se abarata, se democratiza. De repente, <a href="https://www.synack.com/blog/mythos-attack-surface-risk-ai-cyberattacks/" target="_blank" rel="noreferrer noopener">todos tus sistemas pasan a ser superficies de ataque</a>. </p>



<p>Aquí es donde el debate deja de ser técnico y pasa a ser estructural. Durante décadas, el equilibrio en ciberseguridad se ha basado en una asimetría manejable: atacar es más fácil que defender, sí, pero <a href="https://medium.com/@marc.bara.iniesta/what-mythos-means-elite-cyberattacks-just-got-much-cheaper-983d736b1a1e" target="_blank" rel="noreferrer noopener">los ataques realmente sofisticados requieren recursos, conocimiento y tiempo</a>. Mythos, y sobre todo, lo que representa, rompe ese equilibrio al reducir drásticamente el coste marginal de encontrar vulnerabilidades. <a href="https://pixicstudio.medium.com/anthropic-claude-mythos-preview-5cae1aa2f5ee">Mythos demuestra que la inteligencia artificial sabe <em>hackear</em></a>&#8230; y hacerlo además <a href="https://medium.com/the-visibility-layer/anthropics-mythos-proved-ai-can-hack-now-what-d17a7c845af9" target="_blank" rel="noreferrer noopener">mejor que los mejores <em>hackers</em> humanos</a>. </p>



<p>Eso no significa que mañana cualquier adolescente vaya a derribar el sistema financiero global desde su habitación. Pero sí significa que el umbral de entrada para ataques avanzados se desplaza peligrosamente hacia abajo. Lo que antes requería equipos altamente cualificados puede empezar a estar al alcance de actores mucho más numerosos y mucho menos sofisticados.</p>



<p>Y, como suele ocurrir, el impacto no será homogéneo. Las grandes tecnológicas, los gobiernos con recursos y las organizaciones más maduras podrán posiblemente adaptarse, reforzar sus sistemas y, en algunos casos, utilizar estas mismas herramientas para defenderse. Pero el resto, desde PYMEs a administraciones públicas, pasando por infraestructuras <em>legacy</em>, sistemas críticos mal mantenidos, etc. se convierten en objetivos mucho más vulnerables. </p>



<p>Hay, además, otra dimensión que tanto The Economist como el propio Marcus apuntan, aunque desde ángulos distintos: la gobernanza. <a href="https://techcrunch.com/2026/04/09/is-anthropic-limiting-the-release-of-mythos-to-protect-the-internet-or-anthropic/" target="_blank" rel="noreferrer noopener">La decisión de Anthropic de no liberar Mythos y canalizarlo a través de Project Glasswing puede interpretarse como responsabilidad</a>. Dar tiempo a parchear antes de exponer capacidades ofensivas tiene sentido. Pero también plantea una pregunta incómoda: ¿<a href="https://medium.com/data-and-beyond/claude-mythos-the-ai-anthropic-built-and-is-too-scared-to-release-9fc43851dfb4" target="_blank" rel="noreferrer noopener">quién decide cuándo una tecnología es demasiado peligrosa para ser pública</a>?</p>



<p>Porque, en ausencia de regulación, la respuesta es simple: los CEOs de las empresas que la desarrollan. Y eso, como señala Marcus, es un problema en sí mismo. La autorregulación llega tarde y es inherentemente insuficiente . Si la capacidad de comprometer sistemas críticos a escala global depende de decisiones corporativas, estamos trasladando una cuestión de seguridad colectiva al ámbito de intereses privados.</p>



<p>La geopolítica tampoco desaparece, al contrario. The Economist introduce un matiz especialmente interesante: iniciativas como Glasswing podrían incluso interferir con estrategias ofensivas estatales, como el almacenamiento de vulnerabilidades <em>«zero-day»</em> para su uso futuro . Es decir, no solo estamos ante una herramienta que puede empoderar a delincuentes, sino también ante algo que puede alterar el equilibrio entre Estados en el terreno cibernético.</p>



<p>Y, por supuesto, todo esto ocurre en un contexto en el que no todos los actores juegan con las mismas reglas. Mientras algunas compañías optan por la cautela, otras, incluidos potencialmente actores en entornos regulatorios más laxos, pueden no hacerlo. La contención, en ese sentido, es siempre temporal.</p>



<p>Por eso, quizás la conclusión más incómoda es también la más evidente: Mythos no es el problema. Es el anticipo. <a href="https://www.theatlantic.com/technology/2026/04/claude-mythos-hacking/686746/" target="_blank" rel="noreferrer noopener">Un anticipo de un mundo en el que encontrar vulnerabilidades será trivial, explotarlas será automatizable y defenderse requerirá un nivel de sofisticación que muchas organizaciones simplemente no tienen</a>. Un mundo en el que la mejor herramienta para proteger sistemas será, al mismo tiempo, la mejor herramienta para atacarlos. <a href="https://medium.com/@ritukampani/claude-mythos-and-cybersecurity-when-ai-capability-becomes-a-double-edged-sword-32f7b4d607f7" target="_blank" rel="noreferrer noopener">Espadas de doble filo</a>. </p>



<p>Y, sobre todo, un mundo en el que seguiremos discutiendo si estamos ante <em>hype</em> o realidad&#8230; mientras la superficie de ataque crece más rápido de lo que somos capaces de comprender. </p>



<p>Porque la pregunta ya no es si una inteligencia artificial puede convertirse en el arma perfecta para penetrar cualquier empresa, banco o gobierno. La evidencia apunta a que estamos muy cerca de que así sea. </p>



<p>La pregunta es otra, mucho más incómoda: cuánto tiempo vamos a seguir actuando como si no lo fuera.</p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is available in English on Medium, «<a href="https://medium.com/enrique-dans/mythos-is-about-to-make-cybersecurity-much-more-difficult-2d4bd3831fc8?sk=21d33b170a03abb19a186df6186d3590" data-type="link" data-id="https://medium.com/enrique-dans/mythos-is-about-to-make-cybersecurity-much-more-difficult-2d4bd3831fc8?sk=21d33b170a03abb19a186df6186d3590" target="_blank" rel="noreferrer noopener">Mythos is about to make cybersecurity much more difficult</a>» </em></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/04/mythos-o-cuando-hackear-deja-de-ser-dificil.html/feed</wfw:commentRss>
			<slash:comments>28</slash:comments>
		
		
			</item>
		<item>
		<title>Google, la inteligencia artificial y el día en que el buscador decidió dejar de ser neutral</title>
		<link>https://www.enriquedans.com/2026/04/google-la-inteligencia-artificial-y-el-dia-en-que-el-buscador-decidio-dejar-de-ser-neutral.html</link>
					<comments>https://www.enriquedans.com/2026/04/google-la-inteligencia-artificial-y-el-dia-en-que-el-buscador-decidio-dejar-de-ser-neutral.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Thu, 09 Apr 2026 08:42:21 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[Clayton Christensen]]></category>
		<category><![CDATA[generative]]></category>
		<category><![CDATA[Google]]></category>
		<category><![CDATA[hallucinations]]></category>
		<category><![CDATA[mistake]]></category>
		<category><![CDATA[search]]></category>
		<category><![CDATA[search engines]]></category>
		<category><![CDATA[trust]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57631</guid>

					<description><![CDATA[Durante años, Google construyó algo extraordinariamente valioso: no solo un producto, sino un hábito cognitivo global. Buscar en Google no era simplemente acceder a información: era confiar en que esa información estaba razonablemente ordenada y filtrada. No era perfecta, de acuerdo, pero sí era suficientemente fiable como para servir de punto de partida. El trabajo  <a href="https://www.enriquedans.com/2026/04/google-la-inteligencia-artificial-y-el-dia-en-que-el-buscador-decidio-dejar-de-ser-neutral.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-full is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/04/Googles-mistakes-Dall·E.jpg"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/04/Googles-mistakes-Dall·E.jpg" alt="IMAGE: An AI robot inside a magnifying glass under Google’s logo, surrounded by warning signs and conflicting information sources " class="wp-image-57633" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/04/Googles-mistakes-Dall·E.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/04/Googles-mistakes-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/04/Googles-mistakes-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/04/Googles-mistakes-Dall·E-768x768.jpg 768w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Durante años, Google construyó algo extraordinariamente valioso: no solo un producto, sino un hábito cognitivo global. Buscar en Google no era simplemente acceder a información: era confiar en que esa información estaba razonablemente ordenada y filtrada. No era perfecta, de acuerdo, pero sí era suficientemente fiable como para servir de punto de partida. El trabajo de verificación, obviamente, lo tenía que hacer uno mismo (y muchos no lo hacían), pero esa confianza, acumulada durante décadas es el verdadero activo de la compañía. Y ese es precisamente  el activo que hoy está en juego. </p>



<p>La introducción de los <a href="https://en.wikipedia.org/wiki/AI_Overviews" target="_blank" rel="noreferrer noopener">AI Overviews</a> marcó un cambio profundo en la naturaleza del buscador. Sobre todo, porque Google dejaba de ser un intermediario para convertirse, cada vez más, en un narrador. Ya no se limitaba a mostrar enlaces: ahora sintetizaba, interpretaba y respondía directamente, e posición destacada, por encima de los resultados de búsqueda. El paso podía parecer lógico desde el punto de vista tecnológico y competitivo, ni más ni menos que lo que le demandaba el mercado, pero es profundamente problemático desde el punto de vista de la confianza. </p>



<p>Los datos más recientes lo ilustran con claridad. Un <a href="https://www.nytimes.com/2026/04/07/technology/google-ai-overviews-accuracy.html" target="_blank" rel="noreferrer noopener">análisis independiente publicado por el New York Times</a> basado en el <a href="https://arxiv.org/pdf/2509.07968" target="_blank" rel="noreferrer noopener"><em>benchmark</em> SimpleQA</a> sitúa la precisión de estos resúmenes en torno al 91%, que así, a primera vista, podría parecer una cifra razonable. Pero cuando esa cifra se traslada a la gigantesca escala de Google, con sus más de cinco billones de búsquedas anuales, el resultado cambia de naturaleza: <a href="https://arstechnica.com/google/2026/04/analysis-finds-google-ai-overviews-is-wrong-10-percent-of-the-time/" target="_blank" rel="noreferrer noopener">supone decenas de millones de respuestas erróneas cada hora</a>. Eso ya no es un margen de error: es un fenómeno sistémico. </p>



<p>Y el problema no termina ahí. Además, más de la mitad de las respuestas consideradas correctas están mal fundamentadas: enlazan a fuentes que no respaldan la información que presentan. Es decir, que incluso cuando aciertan, lo hacen de forma difícilmente verificable. El usuario, en el estilo que ya todos vamos empezando a conocer de los <em>chatbots</em>, recibe una respuesta con apariencia de autoridad, pero carente de un mecanismo claro para contrastarla. No solo son mentiras: son mentiras disfrazadas y difíciles de comprobar. </p>



<p>Esto no es un <em>bug</em>: es una característica inherente a la tecnología utilizada. Los modelos generativos no conocen la verdad: estiman probabilidades. Funcionan como lo que <a href="https://en.wikipedia.org/wiki/Emily_M._Bender" target="_blank" rel="noreferrer noopener">Emily Bender</a> definió en su día como <em>«<a href="https://en.wikipedia.org/wiki/Stochastic_parrot">stochastic parrots</a>«</em>, loros probabilísticos que producen secuencias plausibles sin comprender realmente su significado. Esa limitación no es necesariamente problemática en contextos experimentales, pero lo es cuando se integra en el corazón del sistema de acceso a la información de cientos de millones de personas que, además, confían ciegamente en que «lo que dice Google» es la verdad. </p>



<p>Google lo sabe. Siempre lo ha sabido. No en vano, la arquitectura que sustenta toda esta revolución, los <em><a href="https://en.wikipedia.org/wiki/Transformer_(deep_learning)" target="_blank" rel="noreferrer noopener">transformers</a></em>, nació en sus propios laboratorios con el célebre <em>paper</em> <em>«<a href="https://arxiv.org/abs/1706.03762" target="_blank" rel="noreferrer noopener">Attention Is All You Need</a>«</em>. Google no es un actor rezagado en la inteligencia artificial generativa: es, en muchos sentidos, su origen. Precisamente por eso, su aparente lentitud inicial no era falta de visión, sino exceso de ella. Entendía mejor que nadie las implicaciones para la compañía (y para todos) de desplegar masivamente una tecnología inherentemente imperfecta. </p>



<p>Ahí encaja perfectamente el marco del <em>«<a href="https://en.wikipedia.org/wiki/The_Innovator's_Dilemma">Innovator’s Dilemma</a>«</em> del gran <a href="https://en.wikipedia.org/wiki/Clayton_Christensen" target="_blank" rel="noreferrer noopener">Clayton Christensen</a>. Google no dudaba porque no pudiera innovar, sino porque esa innovación amenazaba el núcleo de su propuesta de valor. Mientras <em>startups</em> como OpenAI podían permitirse experimentar, equivocarse y corregir sobre la marcha, Google tenía mucho más que perder: su credibilidad. Lo expliqué hace tiempo en artículos como «<a href="https://www.enriquedans.com/2024/05/google-y-el-problema-de-ser-quien-es.html" target="_blank" rel="noreferrer noopener">Google y el problema de ser quien es</a>» o «<a href="https://www.enriquedans.com/2024/05/google-y-el-dilema-del-robot-borracho.html" target="_blank" rel="noreferrer noopener">Google y el dilema del robot borracho</a>«: un <em>chatbot</em> puede alucinar y seguir siendo útil, según lo que le pidas y lo que sepa quien se lo pide. Pero un buscador no puede hacerlo sin erosionar su propia razón de ser. </p>



<p>Sin embargo, la presión competitiva ha terminado imponiéndose: Google optó por desplegar sus AI Overviews a gran escala, e integrándolos en el lugar más visible de su producto. Según la propia compañía, <a href="https://blog.google/products-and-platforms/products/search/generative-ai-google-search-may-2024/" target="_blank" rel="noreferrer noopener">el sistema ha alcanzado ya a más de mil millones de usuarios y sigue expandiéndose rápidamente</a>. Pero el problema es que la escala no corrige los errores: los amplifica. </p>



<p>Innumerables casos concretos ilustran bien la naturaleza del fallo. El sistema puede ofrecer respuestas incorrectas incluso cuando enlaza a fuentes correctas, o construir conclusiones erróneas a partir de datos válidos. Puede añadir contexto adicional que introduce nuevos errores sobre una respuesta inicialmente correcta. O puede apoyarse en fuentes de baja calidad, como publicaciones en redes sociales, con mayor frecuencia cuando se equivoca. Todo ello envuelto en una presentación limpia, directa y con autoridad aparente. El resultado, como no podía ser de otra manera viniendo del buscador en el que todos llevamos décadas confiando, es una ilusión de certeza. </p>



<p>Ese es el verdadero cambio: no solo se producen errores, sino que estos se presentan de forma más convincente que nunca. El usuario ya no ve una lista de enlaces entre los que debe navegar: ve una respuesta única, sintética, colocada en la posición de mayor visibilidad y respaldada implícitamente por la marca Google. La fricción desaparece. Y con ella, también, una parte esencial del pensamiento crítico. </p>



<p>Diversos análisis apuntan además a un efecto colateral significativo: la reducción del tráfico hacia las fuentes originales. Si el usuario obtiene una respuesta directa, la necesidad de hacer clic disminuye. Google deja de ser un intermediario que distribuye atención para convertirse en un destino que la retiene. Y eso, combinado con respuestas potencialmente erróneas, redefine por completo la ecología de la información. </p>



<p>Y lo más interesante del tema es que esta tensión no es exclusiva de Google. Microsoft, uno de los actores más agresivos en la comercialización de la inteligencia artificial generativa, reconoce implícitamente el problema. En sus propios términos de uso, <a href="https://techcrunch.com/2026/04/05/copilot-is-for-entertainment-purposes-only-according-to-microsofts-terms-of-service/" target="_blank" rel="noreferrer noopener">Copilot se define como una herramienta <em>«for entertainment purposes only»</em>, advirtiendo explícitamente que puede cometer errores y que no debe utilizarse para decisiones importantes</a>. Aunque la compañía ha intentado posteriormente matizar ese lenguaje calificándolo como <a href="https://www.pcmag.com/news/copilot-terms-claim-microsofts-ai-is-for-entertainment-purposes-only" target="_blank" rel="noreferrer noopener">un vestigio de versiones anteriores</a>, el mensaje subyacente resulta difícil de ignorar: las mismas empresas que nos invitan a integrar estas herramientas en nuestro trabajo cotidiano se protegen legalmente recordándonos que, en el fondo, no son fiables. La diferencia es que Microsoft puede permitirse ese matiz, porque Copilot no es, al menos todavía, la puerta de entrada al conocimiento global. Google, en cambio, sí lo es. Y ahí es donde el riesgo cambia completamente de escala. </p>



<p>Incluso los sistemas más avanzados siguen lejos de ofrecer garantías sólidas en términos de exactitud: <a href="https://www.enriquedans.com/2025/09/alucinaciones-o-simplemente-errores-inevitables.html" target="_blank" rel="noreferrer noopener">las alucinaciones y las respuestas erróneas no son un problema de funcionamiento, sino de planteamiento</a>. La cuestión, por tanto, no es si Google puede mejorar estos sistemas. Lo hará. La cuestión es si puede permitirse desplegarlos como lo ha hecho antes de que esa mejora sea suficiente. </p>



<p>Porque aquí no estamos hablando de un producto nuevo compitiendo en un mercado emergente. Estamos hablando de una infraestructura central del ecosistema informativo global. Una infraestructura que ahora decide asumir, de forma explícita, las limitaciones de una tecnología que produce errores por diseño. </p>



<p>Durante años, Google evitó ser un oráculo. Se limitó a señalar dónde estaban las respuestas. Hoy, empieza a ofrecértelas directamente. Y cuando el oráculo miente, el problema no es que se equivoque. Es que deja de ser el oráculo. </p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is available in English on Medium, «<a href="https://medium.com/enrique-dans/ai-overviews-and-the-quiet-erosion-of-googles-credibility-5b7979720ac9?sk=b0ecd2769691e2a8c23da195881052e0" target="_blank" rel="noreferrer noopener">AI Overviews and the quiet erosion of Google’s credibility</a>» (yes, I know, Medium has a paywall and all that&#8230; but if you click on this link, I promise there will be no paywall at all!)</em> </p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/04/google-la-inteligencia-artificial-y-el-dia-en-que-el-buscador-decidio-dejar-de-ser-neutral.html/feed</wfw:commentRss>
			<slash:comments>7</slash:comments>
		
		
			</item>
		<item>
		<title>La empleabilidad algorítmica</title>
		<link>https://www.enriquedans.com/2026/04/la-empleabilidad-algoritmica.html</link>
					<comments>https://www.enriquedans.com/2026/04/la-empleabilidad-algoritmica.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Wed, 08 Apr 2026 08:47:31 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[employment]]></category>
		<category><![CDATA[Invertia]]></category>
		<category><![CDATA[SME]]></category>
		<category><![CDATA[Spain]]></category>
		<category><![CDATA[work]]></category>
		<category><![CDATA[workers]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57611</guid>

					<description><![CDATA[Mi columna de esta semana en el diario económico de El Español, Invertia, se titula «La nueva obediencia digital: sin inteligencia artificial, quizá dejes de ser empleable» (pdf), y trata sobre una transformación que me parece mucho más profunda de lo que sugiere la conversación habitual sobre productividad, automatización o «nuevas herramientas». Durante un tiempo,  <a href="https://www.enriquedans.com/2026/04/la-empleabilidad-algoritmica.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-full is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/04/AI-employability-Dall·E.jpg"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/04/AI-employability-Dall·E.jpg" alt="IMAGE: A person stands before an AI figure displaying approval and rejection symbols, suggesting evaluation or judgment." class="wp-image-57638" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/04/AI-employability-Dall·E.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/04/AI-employability-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/04/AI-employability-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/04/AI-employability-Dall·E-768x768.jpg 768w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Mi columna de esta semana en el diario económico de El Español, Invertia, se titula «<a href="https://www.elespanol.com/invertia/opinion/20260408/nueva-obediencia-digital-sin-inteligencia-artificial-dejes-empleable/1003744197120_13.html" target="_blank" rel="noreferrer noopener">La nueva obediencia digital: sin inteligencia artificial, quizá dejes de ser empleable</a>» (<a href="https://www.enriquedans.com/wp-content/uploads/2026/04/IA-y-empleabilidad-Invertia.pdf" target="_blank" rel="noreferrer noopener">pdf</a>), y trata sobre una transformación que me parece mucho más profunda de lo que sugiere la conversación habitual sobre productividad, automatización o «nuevas herramientas». Durante un tiempo, la inteligencia artificial en el trabajo fue presentada como una posibilidad, como un recurso adicional para quien quisiera experimentar y ganar eficiencia. Pero esa fase está terminando muy deprisa. En muchas empresas tecnológicas, <a href="https://www.wsj.com/tech/ai/tech-firms-arent-just-encouraging-their-workers-to-use-ai-theyre-enforcing-it-d43ebf84" target="_blank" rel="noreferrer noopener">el uso de la inteligencia artificial está dejando de ser voluntario para convertirse en un requisito explícito o implícito</a>, incorporado a evaluaciones de desempeño, procesos de selección y expectativas cotidianas de rendimiento. Ya no se trata de que puedas usarla: <a href="https://www.wsj.com/tech/ai/ai-work-use-performance-reviews-1e8975df" target="_blank" rel="noreferrer noopener">se empieza a asumir que debes hacerlo</a>.</p>



<p>Eso cambia completamente la naturaleza del debate. Cuando <a href="https://www.fastcompany.com/91517123/failing-to-use-ai-at-work-could-cost-you-your-job" target="_blank" rel="noreferrer noopener">una herramienta pasa de opcional a obligatoria</a>, deja de ser sólo tecnología y se convierte en una forma de disciplina laboral. La cuestión ya no es si ChatGPT, Copilot o el agente de turno te ayudan a trabajar mejor, sino qué ocurre cuando la empresa decide que tu valor profesional depende de tu disposición a integrarlos en cada tarea. El artículo del Wall Street Journal lo describe con bastante claridad al documentar cómo grandes tecnológicas y compañías de servicios empiezan a medir el uso de inteligencia artificial, a premiarlo y, en algunos casos, a penalizar su ausencia. No estamos ante una moda corporativa, sino ante la construcción de un nuevo estándar de normalidad laboral.</p>



<p>Naturalmente, esa normalidad se vende con el envoltorio más previsible del mundo: «adaptación», «eficiencia», «futuro del trabajo», <em>«upskilling»</em>. Google, por ejemplo, ha lanzado en Europa <a href="https://blog.google/company-news/inside-google/around-the-globe/google-europe/ai-works-for-europe/" target="_blank" rel="noreferrer noopener">toda una narrativa sobre cómo la inteligencia artificial puede impulsar crecimiento, formación y competitividad</a>, mientras Salesforce presume de <a href="https://www.salesforce.com/news/stories/daily-ai-workforce-use-growth/" target="_blank" rel="noreferrer noopener">aumentos muy fuertes en el uso diario de inteligencia artificial entre trabajadores del conocimiento</a> y de <a href="https://www.salesforce.com/news/stories/agentic-ai-impact-on-workforce-research/" target="_blank" rel="noreferrer noopener">una expectativa creciente de rediseño de plantillas y funciones en torno a agentes y automatización</a>. Nada sorprendente: las compañías que han invertido miles de millones en inteligencia artificial necesitan demostrar que su adopción interna es real, irreversible y ejemplarizante. </p>



<p>El problema es que, como ocurre siempre, los costes de esa supuesta modernización no se reparten de forma homogénea. La OCDE lleva tiempo advirtiendo de que <a href="https://www.oecd.org/en/publications/algorithmic-management-in-the-workplace_287c13c4-en.html" target="_blank" rel="noreferrer noopener">la gestión algorítmica del trabajo no solo organiza tareas: también monitoriza, clasifica, recomienda, puntúa y condiciona la autonomía profesional</a>. Y la OIT ha señalado que <a href="https://www.ilo.org/publications/generative-ai-and-jobs-refined-global-index-occupational-exposure" target="_blank" rel="noreferrer noopener">la exposición a la inteligencia artificial generativa se concentra especialmente en tareas administrativas y de oficina</a>, es decir, precisamente en actividades donde la promesa de «asistencia» puede convertirse muy deprisa en una lógica de sustitución parcial, intensificación del control o degradación del margen de decisión. El FMI, además, advierte de que <a href="https://www.imf.org/en/publications/staff-discussion-notes/issues/2024/01/14/gen-ai-artificial-intelligence-and-the-future-of-work-542379" target="_blank" rel="noreferrer noopener">la inteligencia artificial puede aumentar la desigualdad si complementa sobre todo a los trabajadores ya mejor situados en términos de cualificación e ingresos</a>.</p>



<p>Visto desde España, la cuestión adquiere un interés particular, porque aquí la discusión sobre inteligencia artificial suele oscilar entre el entusiasmo vacío y la retórica institucional, pero muy pocas veces aterriza en la estructura real del empleo. <a href="https://digital-strategy.ec.europa.eu/en/factpages/spain-2025-digital-decade-country-report" target="_blank" rel="noreferrer noopener">La Comisión Europea reconoce que España tiene fortalezas en conectividad y en ciertas competencias digitales de base</a>, pero también sigue señalando <a href="https://www.oecd.org/en/publications/generative-ai-and-the-sme-workforce_2d08b99d-en.html" target="_blank" rel="noreferrer noopener">debilidades persistentes en la digitalización empresarial, especialmente en las PYMEs</a>. Y como las PYMEs siguen siendo el núcleo de nuestro tejido productivo, eso significa que la transición hacia la inteligencia artificial obligatoria no va a vivirse igual en todas partes. Las grandes empresas podrán formar, comprar licencias, rediseñar procesos y repartir costes. Las pequeñas, muchas veces, simplemente trasladarán la presión al trabajador. </p>



<p>Ahí está, de hecho, la parte más importante del problema. Si la «empleabilidad» empieza a definirse por la familiaridad práctica con herramientas de inteligencia artificial, pero el acceso a esa familiaridad depende del tipo de empresa en la que trabajas, entonces la inteligencia artificial deja de ser solo una innovación y se convierte en un nuevo mecanismo de segmentación laboral. No entre los que saben mucho y los que saben poco, sino entre los que tienen organizaciones capaces de absorber la curva de aprendizaje y los que tienen que improvisarla en soledad, fuera de horario y sin criterios claros. La propia OCDE, en su trabajo sobre inteligencia artificial generativa y pymes, subraya que estas pueden beneficiarse mucho de la tecnología, sí, pero también que encuentran barreras muy concretas en recursos, capacidades y gobernanza. </p>



<p>Y eso ocurre, además, en un mercado laboral español que sigue arrastrando vulnerabilidades estructurales. La OCDE destaca <a href="https://www.oecd.org/en/publications/oecd-employment-outlook-2025-country-notes_f91531f7-en/spain_ded48eec-en.html" target="_blank" rel="noreferrer noopener">la persistencia de retos en productividad, calidad del empleo y formación continua</a>, mientras Eurostat sigue mostrando <a href="https://ec.europa.eu/eurostat/statistics-explained/index.php" target="_blank" rel="noreferrer noopener">el peso desproporcionado de la temporalidad en determinados segmentos del mercado de trabajo europeo</a>, una realidad que en España tiene una relevancia obvia. <a href="https://www.ft.com/content/ee2b05f2-3cf1-4d45-874d-3552a5f43555" target="_blank" rel="noreferrer noopener">Aunque el empleo haya mejorado y el desempleo haya caído</a>, eso no elimina la fragilidad de muchos itinerarios laborales ni la facilidad con la que un nuevo requisito tecnológico puede convertirse en filtro social.</p>



<p>Por eso me interesa tanto este tema: porque desmonta la ficción de que la adaptación es un asunto puramente individual. Claro que cada trabajador tendrá que aprender, experimentar y encontrar su sitio en entornos cada vez más mediados por inteligencia artificial, pero cuando una empresa exige uso de inteligencia artificial sin dedicar tiempo, recursos, formación y criterios transparentes a esa transición, no está innovando: está externalizando costes. Está diciendo, básicamente, «actualízate tú, asume tú los riesgos, aprende tú por tu cuenta y acepta que tu evaluación dependa de herramientas cuyo funcionamiento, sesgos y límites no controlas». Y eso, más que futuro del trabajo, se parece bastante a una nueva obediencia digital.</p>



<p>La cuestión, en el fondo, no es tecnológica, es política y laboral. Si aceptamos sin más que la inteligencia artificial pase de ser herramienta opcional a condición tácita de empleabilidad, deberíamos al menos discutir quién define ese estándar, con qué garantías, con qué derechos para los trabajadores y con qué apoyo real para las empresas pequeñas. Porque si no lo hacemos, la inteligencia artificial no va a «democratizar» nada: va a funcionar como otro acelerador de desigualdad, otro instrumento de control y otra forma de clasificar quién merece seguir dentro y quién puede ser tratado como perfectamente prescindible. </p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is openly available in English on Medium, «<a href="https://medium.com/enrique-dans/when-ai-stops-being-a-tool-and-becomes-a-job-requirement-db36549099b0?sk=69a2046ffafa7b75a0969203c413fe08" data-type="link" data-id="https://medium.com/enrique-dans/when-ai-stops-being-a-tool-and-becomes-a-job-requirement-db36549099b0?sk=69a2046ffafa7b75a0969203c413fe08" target="_blank" rel="noreferrer noopener">When AI stops being a tool and becomes a job requirement</a>» </em></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/04/la-empleabilidad-algoritmica.html/feed</wfw:commentRss>
			<slash:comments>23</slash:comments>
		
		
			</item>
		<item>
		<title>A la industria de la inteligencia artificial le encanta la inflación de tokens. A tu empresa no debería&#8230;</title>
		<link>https://www.enriquedans.com/2026/04/a-la-industria-de-la-inteligencia-artificial-le-encanta-la-inflacion-de-tokens-a-tu-empresa-no-deberia.html</link>
					<comments>https://www.enriquedans.com/2026/04/a-la-industria-de-la-inteligencia-artificial-le-encanta-la-inflacion-de-tokens-a-tu-empresa-no-deberia.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Tue, 07 Apr 2026 10:27:04 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[agentic]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[Anthropic]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[Claude]]></category>
		<category><![CDATA[context]]></category>
		<category><![CDATA[Fast Company]]></category>
		<category><![CDATA[OpenClaw]]></category>
		<category><![CDATA[tokens]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57621</guid>

					<description><![CDATA[La industria de la inteligencia artificial tiene un problema de adicción silencioso: está enganchada a los tokens. Cada nueva generación de inteligencia artificial agéntica parece asumir que la respuesta a la complejidad es lanzar más contexto al modelo, mantener historiales más largos, generar más llamadas, iterar sobre más herramientas y dejar que el contador de  <a href="https://www.enriquedans.com/2026/04/a-la-industria-de-la-inteligencia-artificial-le-encanta-la-inflacion-de-tokens-a-tu-empresa-no-deberia.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-full is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/04/Token-inflation-Dall·E.jpg"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/04/Token-inflation-Dall·E.jpg" alt="IMAGE: A split scene shows, on one side, a chaotic flood of glowing tokens and industrial AI systems, and on the other, a calm workspace where a person carefully builds a structured stack of relevant information, symbolizing efficient AI use " class="wp-image-57622" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/04/Token-inflation-Dall·E.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/04/Token-inflation-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/04/Token-inflation-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/04/Token-inflation-Dall·E-768x768.jpg 768w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>La industria de la inteligencia artificial tiene un problema de adicción silencioso: está enganchada a los <em>tokens</em>.</p>



<p>Cada nueva generación de inteligencia artificial agéntica parece asumir que la respuesta a la complejidad es lanzar más contexto al modelo, mantener historiales más largos, generar más llamadas, iterar sobre más herramientas y dejar que el contador de <em>tokens</em> se dispare.</p>



<p>El auge de los sistemas agénticos, y ahora de proyectos como <a href="https://docs.openclaw.ai/" target="_blank" rel="noreferrer noopener">OpenClaw</a>, refuerza aún más esa tentación: en cuanto das más autonomía a los modelos, no solo consumen <em>tokens</em> para responder preguntas. Los consumen para planificar, reflexionar, reintentar, resumir, llamar a herramientas, inspeccionar resultados y mantenerse en el camino. OpenClaw se define a sí mismo como una puerta de enlace <em>agent-native</em> con sesiones, memoria, uso de herramientas y enrutamiento multiagente a través de plataformas de mensajería, lo que deja claro hacia dónde vamos: más autonomía, más orquestación y, salvo que alguien lo corrija, mucho más consumo de <em>tokens</em>.</p>



<p>Esa trayectoria entusiasma a casi todos los que venden la infraestructura. Si la facturación se basa en <em>tokens</em>, más consumo significa más crecimiento. Si vendes el cómputo que hay detrás de esos <em>tokens</em>, mejor todavía. Google señaló en sus <a href="https://abc.xyz/investor/events/event-details/2025/2025-Q3-Earnings-Call-2025-4OI4Bac_Q9/default.aspx" target="_blank" rel="noreferrer noopener">resultados de octubre de 2025</a> que estaba procesando <strong>más de 1.3 cuatrillones de <em>tokens</em> mensuales</strong> en sus plataformas, más de veinte veces el volumen de un año antes. NVIDIA, por su parte, está <a href="https://nvidianews.nvidia.com/news/nvidia-announces-financial-results-for-fourth-quarter-and-fiscal-2026" target="_blank" rel="noreferrer noopener">apostando claramente por la economía de la inferencia y la inteligencia artificial agéntica</a>, subrayando tanto el aumento de la demanda como la oportunidad de vender cada vez más infraestructura.</p>



<p>Pero las empresas que compran inteligencia artificial deberían verlo de otra manera. Porque, desde el punto de vista del cliente, el crecimiento explosivo del consumo de <em>tokens</em> no es necesariamente una señal de inteligencia. En muchos casos, es una señal de ineficiencia.</p>



<p></p>



<p><strong>Más <em>tokens</em> no equivalen a más inteligencia</strong></p>



<p>El relato dominante en la industria trata el consumo de <em>tokens</em> como si fuera un indicador de progreso. Ventanas de contexto más grandes, más trazas de razonamiento, más bucles de agentes, más memoria, más recuperación, más interacciones. Todo suena impresionante.</p>



<p>Pero un sistema que necesita ingerir y regenerar enormes cantidades de contexto en cada paso no es necesariamente más inteligente. Puede simplemente estar mal diseñado.</p>



<p>La propia <a href="https://www.anthropic.com/engineering/effective-context-engineering-for-ai-agents" target="_blank" rel="noreferrer noopener">guía de ingeniería de Anthropic</a> lo deja sorprendentemente claro. Su equipo defiende que el contexto debe tratarse como un recurso finito, y que una buena ingeniería de contexto consiste en encontrar «el conjunto más pequeño posible de <em>tokens</em> de alta señal» para cada tarea. No es una optimización marginal. Es una filosofía completamente distinta. Viene a decir que el futuro no pertenece a los sistemas que pueden tragarse más contexto, sino a los que saben qué contexto importa de verdad.</p>



<p>Esa distinción se vuelve crítica a medida que se extienden los flujos de trabajo agénticos. En cuanto permites que un sistema de inteligencia artificial actúe de forma iterativa, utilice herramientas, revise planes y mantenga estado de sesión, el consumo de <em>tokens</em> se multiplica rápidamente. Lo que desde fuera parece una única tarea puede implicar múltiples prompts ocultos, subconsultas, resúmenes y reintentos. <a href="https://www.deloitte.com/us/en/services/consulting/articles/how-to-navigate-economics-of-ai.html" target="_blank" rel="noreferrer noopener">Deloitte ya describe los <em>tokens</em> como la nueva moneda de la economía de la inteligencia artificial</a>, precisamente porque la estructura de los sistemas agénticos altera radicalmente la dinámica de costes.</p>



<p>Y, sin embargo, muchas empresas siguen comportándose como si escalar fuera suficiente para resolver el problema.</p>



<p>No lo es.</p>



<p></p>



<p><strong>El contexto largo no es gratis</strong></p>



<p>Uno de los mitos más persistentes en la inteligencia artificial empresarial es que, si algo de contexto es bueno, más contexto tiene que ser mejor. Esa suposición siempre fue simplista, y la evidencia en su contra es cada vez más sólida.</p>



<p>El paper <em>«<a href="https://aclanthology.org/2024.tacl-1.9.pdf" target="_blank" rel="noreferrer noopener">Lost in the Middle</a>«</em> mostró que los modelos de lenguaje tienen dificultades para utilizar información relevante cuando está enterrada en contextos largos, funcionando mejor cuando la información clave aparece al principio o al final. Más recientemente, la evaluación de contexto largo de Chroma en 18 modelos encontró que <a href="https://www.trychroma.com/research/context-rot" target="_blank" rel="noreferrer noopener">el rendimiento se vuelve cada vez más inestable a medida que crece la longitud de entrada</a>. En otras palabras, llega un punto en el que más <em>tokens</em> dejan de aportar inteligencia y empiezan a aportar sólo ruido.</p>



<p>Es aquí donde el enfoque de fuerza bruta empieza a parecer menos una inevitabilidad tecnológica y más una arquitectura perezosa. Si tu respuesta a cada nueva necesidad es meter más contenido en el prompt, conservar cada interacción para siempre y mantener todos los artefactos intermedios en la ventana activa de contexto, no estás construyendo un mejor sistema de inteligencia artificial. Estás construyendo uno más caro y, probablemente, peor.</p>



<p><strong>La verdadera frontera es la ingeniería de contexto</strong></p>



<p>El futuro interesante no es «más grande y más voraz». Es <strong>más selectivo, más estructurado y más deliberado</strong>. Por eso el concepto emergente más importante en la inteligencia artificial aplicada puede no ser la ingeniería de <em>prompts</em>, sino la <strong>ingeniería de contexto</strong>.</p>



<p>Anthropic define explícitamente la ingeniería de contexto como el siguiente paso tras la ingeniería de prompts. OpenAI ofrece recuperación (<em><a href="https://developers.openai.com/api/docs/guides/retrieval" target="_blank" rel="noreferrer noopener">retrieval</a></em>) y <em><a href="https://developers.openai.com/api/docs/guides/prompt-caching" target="_blank" rel="noreferrer noopener">prompt caching</a></em> para evitar enviar repetidamente grandes volúmenes de información. Google ofrece <em><a href="https://docs.cloud.google.com/vertex-ai/generative-ai/docs/context-cache/context-cache-overview" target="_blank" rel="noreferrer noopener">context caching</a></em> para reutilizar contextos iniciales extensos. Las <a href="https://learn.microsoft.com/en-us/azure/search/retrieval-augmented-generation-overview?tabs=videos" target="_blank" rel="noreferrer noopener">recomendaciones de Microsoft sobre RAG</a> y <em><a href="https://learn.microsoft.com/en-us/azure/architecture/ai-ml/guide/rag/rag-chunking-phase">chunking</a></em> son igual de claras: enviar documentos completos o fragmentos sobredimensionados es caro, puede saturar los límites de <em>tokens</em> y a menudo produce peores resultados que pipelines de recuperación bien diseñados.</p>



<p>Un ejemplo reciente lo ilustra perfectamente: <a href="https://venturebeat.com/technology/anthropic-cuts-off-the-ability-to-use-claude-subscriptions-with-openclaw-and" target="_blank" rel="noreferrer noopener">la decisión de Anthropic de cortar el acceso a Claude desde entornos como OpenClaw cuando se utilizaban suscripciones planas</a>. En cuanto los sistemas agénticos empezaron a ejecutar bucles autónomos —planificando, iterando y llamando herramientas sin fricción— el consumo de <em>tokens</em> dejó de ser marginal y pasó a ser explosivo. Lo que desde fuera parecía «más inteligencia» era, en realidad, una arquitectura que quemaba <em>tokens</em> a una velocidad incompatible con los modelos de <em>pricing</em> existentes. La <a href="https://www.theverge.com/ai-artificial-intelligence/907074/anthropic-openclaw-claude-subscription-ban" target="_blank" rel="noreferrer noopener">rápida reacción del proveedor</a> no es una anomalía: es una señal estructural. Cuando el coste real aflora, los límites aparecen. Y eso debería hacer reflexionar a cualquier empresa: si tu sistema depende de supuestos económicos o contractuales que pueden romperse en cuanto el uso se vuelve intensivo, no tienes una ventaja tecnológica. Tienes una dependencia frágil disfrazada de capacidad.</p>



<p>No son técnicas marginales. Son señales claras de que la era de la fuerza bruta tiene límites.</p>



<p>El patrón es evidente. El <em>stack</em> empresarial del futuro no consistirá en reenviar ciegamente todo lo que una empresa sabe a un modelo en cada interacción. Se basará en mejor arquitectura: capas de recuperación, control de accesos, memoria selectiva, resúmenes jerárquicos, compresión de contexto, caché, enrutamiento y planificación de consultas.</p>



<p>En otras palabras, se basará en ingeniería.</p>



<p></p>



<p><strong>Por qué la economía actual es engañosa</strong></p>



<p>Aquí es donde los incentivos se distorsionan.</p>



<p>Los proveedores de modelos pueden vivir perfectamente en un mundo en el que los clientes creen que el crecimiento de <em>tokens</em> es natural, inevitable e incluso deseable. Más llamadas, más contexto, más bucles, más ingresos. Los fabricantes de GPUs también salen ganando cuando la demanda de inferencia sigue creciendo.</p>



<p>Y, por supuesto, parte de esa demanda es legítima. Hay casos de uso reales que requieren más contexto, más modalidades y una inferencia más sofisticada. Pero sería un error confundir «hay demanda» con «no hay desperdicio».</p>



<p>OpenAI afirma que <a href="https://developers.openai.com/api/docs/guides/prompt-caching" target="_blank" rel="noreferrer noopener">el <em>prompt caching</em> puede reducir la latencia hasta en un 80% y los costes de <em>tokens</em> de entrada hasta en un 90%</a> en contenidos repetidos. Google señala que <a href="https://docs.cloud.google.com/vertex-ai/generative-ai/docs/context-cache/context-cache-overview" target="_blank" rel="noreferrer noopener">el <em>context caching</em> es especialmente útil cuando se reutiliza un contexto inicial amplio</a>. Microsoft afirma que <a href="https://learn.microsoft.com/en-us/azure/architecture/ai-ml/guide/rag/rag-chunking-phase" target="_blank" rel="noreferrer noopener">un buen <em>chunking</em> elimina información irrelevante y mejora tanto el coste como la calidad</a>. Ninguna de estas capacidades sería relevante si el enfoque de fuerza bruta fuera ya eficiente. Su mera existencia demuestra que una arquitectura inteligente supera al uso indiscriminado de <em>tokens</em>.</p>



<p>Por eso las empresas deberían ser muy cautas al adoptar el lenguaje de los proveedores que les venden computación. «Más capaz» y «más caro de ejecutar» no son sinónimos. <strong>La industria de la inteligencia artificial está monetizando la inflación de <em>tokens</em>. Las empresas inteligentes diseñarán sistemas para escapar de ella</strong>.</p>



<p></p>



<p><strong>La ventaja competitiva vendrá de entender tu propio contexto</strong></p>



<p>Aquí es donde este análisis deja de ser una queja sobre costes. Porque la verdadera oportunidad no es solo reducir la factura de <em>tokens</em>. Es construir mejores sistemas.</p>



<p>Una empresa que entiende su propia estructura de conocimiento, sus permisos internos, sus flujos de trabajo, su terminología y su lógica de decisión no debería tener que abordar cada interacción con un sistema de inteligencia artificial como si hablara con un desconocido desde cero. Debería ser capaz de arquitectar el contexto de forma inteligente: recuperar la información adecuada en el momento adecuado, preservar lo relevante, descartar lo superfluo y anclar las respuestas en su propia lógica interna.</p>



<p>No es una mejora menor. Cambia radicalmente la economía de la inteligencia artificial empresarial.</p>



<p>Si la plataforma de la empresa está bien diseñada, el modelo no debería tener que cargar con todo el mundo en su memoria activa constantemente. Debería trabajar con un subconjunto dinámico, curado y de alta señal. La <a href="https://learn.microsoft.com/en-us/azure/search/retrieval-augmented-generation-overview?tabs=videos" target="_blank" rel="noreferrer noopener">arquitectura de recuperación agéntica de Microsoft</a> apunta exactamente en esa dirección: subconsultas enfocadas, respuestas estructuradas, citas, filtrado de seguridad y anclaje en fuentes de conocimiento, en lugar de saturar el contexto indiscriminadamente.</p>



<p>Por eso mismo argumenté en otro artículo que «<a href="https://www.enriquedans.com/2026/03/la-inteligencia-artificial-no-sustituye-a-la-estrategia-la-deja-al-descubierto.html" target="_blank" rel="noreferrer noopener">la inteligencia artificial no sustituye a la estrategia: la dejará al descubierto</a>«. Aquí ocurre lo mismo. La inteligencia artificial no solo revelará si has adoptado el último modelo. Revelará si tu empresa entiende realmente su propia arquitectura de información o si ha estado operando en una niebla de documentos desconectados, permisos inconsistentes y procesos fragmentados.</p>



<p></p>



<p><strong>Qué premiará realmente la próxima fase de la inteligencia artificial</strong></p>



<p>Las empresas que ganen en la próxima fase de la inteligencia artificial no serán las que puedan pagar las mayores facturas de <em>tokens</em>. Serán las que construyan sistemas que no las necesiten.</p>



<p>Tratarán los <em>tokens</em> como los buenos ingenieros tratan el ancho de banda, la batería o la latencia: no como recursos infinitos que se consumen sin pensar, sino como restricciones que premian el diseño inteligente. Guardarán la mayor parte del contexto en modelos del mundo. Usarán modelos grandes cuando tenga sentido. Usarán recuperación cuando sea suficiente. Cachearán el contexto repetido. Enrutarán tareas simples a modelos más baratos. Gestionarán la memoria en lugar de idealizarla. Distinguirán entre contexto disponible y contexto útil.</p>



<p>Y, sobre todo, dejarán de confundir fuerza bruta con sofisticación. Esa es la parte del relato actual de la inteligencia artificial que necesita una corrección urgente. La industria nos empuja a imaginar un futuro en el que el consumo creciente de <em>tokens</em> es simplemente el precio del progreso.</p>



<p>Probablemente no lo sea. Es, al menos en parte, el precio de una arquitectura inmadura. Y la arquitectura madura tiene una forma muy eficaz de destruir malos modelos de negocio.</p>



<p><strong>El futuro de la inteligencia artificial no pertenecerá a las empresas que consuman más <em>tokens</em>. Pertenecerá a las que sepan necesitar menos. </strong></p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>(This article was <a href="https://www.fastcompany.com/91517855/ai-industry-loves-token-inflation-your-company-shouldnt">previously published on Fast Company</a>)</em> </p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/04/a-la-industria-de-la-inteligencia-artificial-le-encanta-la-inflacion-de-tokens-a-tu-empresa-no-deberia.html/feed</wfw:commentRss>
			<slash:comments>10</slash:comments>
		
		
			</item>
		<item>
		<title>Colorado y el fin del frenar solo durante el tramo de radar</title>
		<link>https://www.enriquedans.com/2026/04/colorado-y-el-fin-del-frenar-solo-durante-el-tramo-de-radar.html</link>
					<comments>https://www.enriquedans.com/2026/04/colorado-y-el-fin-del-frenar-solo-durante-el-tramo-de-radar.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Mon, 06 Apr 2026 08:28:33 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[automotive]]></category>
		<category><![CDATA[drivers]]></category>
		<category><![CDATA[driving]]></category>
		<category><![CDATA[fines]]></category>
		<category><![CDATA[radar]]></category>
		<category><![CDATA[speed]]></category>
		<category><![CDATA[speeding ticket]]></category>
		<category><![CDATA[surveillance]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57614</guid>

					<description><![CDATA[Durante años, demasiados conductores han entendido el control de velocidad no como una norma, sino como un pequeño juego de estrategia: correr cuando el asfalto parece libre, mirar el móvil cuando Waze o el detector avisan, levantar el pie justo antes del radar y volver a acelerar unos metros después. No era conducción responsable, sólo  <a href="https://www.enriquedans.com/2026/04/colorado-y-el-fin-del-frenar-solo-durante-el-tramo-de-radar.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-full is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/04/Speed-camera-Dall·E.jpg"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/04/Speed-camera-Dall·E.jpg" alt="IMAGE: A highway scene with multiple cars driving under a network of automated speed cameras, one prominently scanning vehicles and tracking their average speed across the road " class="wp-image-57615" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/04/Speed-camera-Dall·E.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/04/Speed-camera-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/04/Speed-camera-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/04/Speed-camera-Dall·E-768x768.jpg 768w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Durante años, demasiados conductores han entendido el control de velocidad no como una norma, sino como un pequeño juego de estrategia: correr cuando el asfalto parece libre, mirar el móvil cuando Waze o el detector avisan, levantar el pie justo antes del radar y volver a acelerar unos metros después. No era conducción responsable, sólo picaresca automatizada.</p>



<p>Lo que está haciendo ahora Colorado con su <a href="https://www.codot.gov/programs/speedenforcement">Colorado Speed Enforcement Program</a>, sin embargo, cambia por completo esa lógica: como los <a href="https://www.dgt.es/comunicacion/noticias/que-es-un-radar-de-tramo/" target="_blank" rel="noreferrer noopener">radares de tramo</a> en España, ya no mide si ibas demasiado rápido en un punto, sino <a href="https://www.codot.gov/programs/speedenforcement/faq" target="_blank" rel="noreferrer noopener">si has circulado demasiado rápido a lo largo de un tramo</a>. Y eso convierte el viejo truco del frenazo puntual en algo prácticamente inútil. </p>



<p>Este sistema se apoya en cámaras de control de velocidad separadas entre sí, normalmente entre un cuarto y media milla en las zonas de obra. <a href="https://www.motor1.com/news/792050/colorado-automated-speed-limit-cameras/" target="_blank" rel="noreferrer noopener">Cada vez que un vehículo pasa por una de ellas, el sistema registra imagen, matrícula y marca temporal. Después calcula la velocidad media entre dos puntos dividiendo la distancia recorrida por el tiempo empleado</a>. Si esa media supera el límite aplicable, <a href="https://www.codot.gov/news/2026/march-2026-news/speeding-fines-begin-april2-i25-mead-berthoud" target="_blank" rel="noreferrer noopener">llega una multa</a>. No importa tanto lo que hiciste justo delante de la cámara como lo que hiciste durante todo el trayecto vigilado. Eso es lo verdaderamente disruptivo del modelo, y también lo que lo hace mucho más difícil de esquivar con hábitos oportunistas. </p>



<p>En el caso concreto que ha llamado la atención en Colorado, el estado ha activado ocho cámaras en ambos sentidos de la I-25 entre Mead y Berthoud, en una zona de obras, situadas en los hitos 244.3, 245.9, 247.5 y 249.4, según el <a href="https://www.codot.gov/programs/speedenforcement/cameralocations" target="_blank" rel="noreferrer noopener">mapa oficial de ubicaciones activas</a>. El estado anunció <a href="https://www.motor1.com/news/792050/colorado-automated-speed-limit-cameras/" target="_blank" rel="noreferrer noopener">un período de advertencias desde el 1 de marzo y el inicio de las sanciones el 2 de abril</a>, y tras ese período, las multas pasaron a ser de 75 dólares en zonas de obra, y se envían directamente al propietario registrado del vehículo. El propio departamento explica además que la señalización debe colocarse con antelación, y que los avisos públicos son obligatorios antes de activar el sistema. En realidad, poca novedad: <a href="https://motor.elpais.com/actualidad/el-radar-de-tramo-que-se-te-olvida-mientras-conduces-asi-funciona-el-mas-extenso-y-temido-de-espana/" target="_blank" rel="noreferrer noopener">en España hay radares de tramo que abarcan hasta 32,9 kilómetros</a>. </p>



<p>Ese detalle, que la sanción recaiga sobre el propietario registrado y no necesariamente sobre quien conducía, introduce otra capa interesante. No estamos ya ante el viejo agente apostado con radar, que detiene a una persona concreta y la identifica en el acto, sino ante una lógica de responsabilidad administrativa vinculada al vehículo. La página legislativa de la <a href="https://leg.colorado.gov/bills/sb23-200" target="_blank" rel="noreferrer noopener">SB23-200</a> deja claro que el estado abrió la puerta a estos sistemas en 2023, exigiendo además 30 días de anuncio público y otros 30 días iniciales solo con advertencias. Las preguntas frecuentes oficiales de CDOT añaden que estas infracciones no conllevan puntos en el carnet, pero sí un proceso de cobro y apelación con plazos definidos. Es una evolución muy significativa: menos castigo penalizado en puntos, más automatización administrativa, más trazabilidad y menos margen para la improvisación del conductor.</p>



<p>Lo verdaderamente interesante, sin embargo, no es la multa, sino el cambio cultural que implica. El conductor que solo reduce la velocidad al pasar por el radar deja de tener ventaja. Si acelera entre cámara y cámara, la media lo delata. Dicho de otro modo: el sistema no obliga a parecer obediente durante tres segundos, sino a comportarse de manera consistente a lo largo de todo el tramo monitorizado. Esa es precisamente la razón por la que este modelo erosiona el valor tradicional de las alertas puntuales de apps de navegación. Saber dónde está una cámara sirve de poco si lo que se vigila no es un punto, sino una secuencia. La única manera fiable de no ser sancionado deja de ser el frenazo teatral y pasa a ser algo mucho menos glamuroso: respetar el límite durante todo el recorrido controlado. Esa conclusión se desprende directamente del funcionamiento oficial del sistema.</p>



<p>Desde la perspectiva de la seguridad vial, el razonamiento del estado no es caprichoso. <a href="https://www.cpr.org/2024/06/04/speed-cameras-are-coming-to-a-colorado-highway-construction-zone-near-you/" target="_blank" rel="noreferrer noopener">La expansión de estos sistemas se plantea primero en zonas de obras, precisamente porque son entornos peligrosos y difíciles de vigilar con presencia policial convencional</a>. CDOT sostiene ahora que en la I-25, durante el período de advertencias, las velocidades excesivas en el corredor cayeron un 90%, y que en el corredor anterior de la CO119 habían caído en más de un 80%. Son cifras oficiales que habrá que seguir con cuidado, porque proceden de la propia administración interesada en demostrar la eficacia del programa, pero apuntan a algo razonable: cuando el control deja de ser esporádico y se vuelve continuo, la conducta cambia.</p>



<p>Y no se trata solo de una intuición de despacho. La evidencia acumulada sobre radares y cámaras de velocidad es bastante consistente. Un <a href="https://www.cochrane.org/evidence/CD004607_do-speed-cameras-reduce-road-traffic-crashes-injuries-and-deaths" target="_blank" rel="noreferrer noopener">estudio</a> concluyó que las cámaras de velocidad son una intervención útil para reducir lesiones y muertes por tráfico, con reducciones observadas en velocidad media, en proporción de conductores que exceden el límite y en siniestros graves cerca de los puntos controlados. El Insurance Institute for Highway Safety va en la misma dirección y <a href="https://www.iihs.org/media/bfb25e65-6fae-40eb-a8a6-56f112b321d7/SFohNg/Topics/Research%20summaries/IIHS-HLDI%20Safety%20Solution%E2%80%94speed%20safety%20cameras.pdf">ofrece resultados que vinculan estas tecnologías con menos excesos de velocidad y menos accidentes graves</a>. Uno puede discutir cómo se implantan, con qué garantías y con qué límites, pero cada vez resulta más difícil sostener seriamente que no sirven para modificar comportamientos. </p>



<p>La parte incómoda, por supuesto, es otra. Cada vez que una administración implanta un sistema así, aparece la discusión sobre vigilancia, privacidad, recaudación y despersonalización del castigo, y no le falta cierta razón. La FAQ oficial insiste en que las imágenes solo se conservan cuando hay infracción, que los materiales asociados son confidenciales y que se destruyen en un plazo de hasta tres años tras resolverse el caso. Todo eso está muy bien, pero no elimina la cuestión de fondo: estamos normalizando infraestructuras que convierten la carretera en un espacio cada vez más medido, más trazable y más gobernado por sistemas automáticos. El radar deja de ser una excepción visible y se convierte en una capa ambiental del tráfico. </p>



<p>La pregunta, en realidad, no es si Colorado ha encontrado una forma más eficaz de multar. La pregunta es si estamos asistiendo al final de una cultura de conducción basada en la simulación del cumplimiento. Durante décadas muchos conductores no han respetado los límites: han respetado, como mucho, la posibilidad de ser cazados. El sistema de velocidad media ataca exactamente esa hipocresía. Obliga a cumplir de verdad, no únicamente a escenificar el cumplimiento. Y ahí reside toda su fuerza, pero también toda su carga simbólica: no corrige solo una infracción, corrige toda una manera de pensar. </p>



<p>Por eso la novedad de Colorado merece atención. No porque una <em>app</em> vaya a avisar menos, sino porque introduce una idea mucho más profunda y probablemente irreversible: en la carretera del futuro, la trampa del último segundo vale cada vez menos. El conductor que antes jugaba a esconderse del radar tendrá que elegir entre dos opciones mucho menos divertidas: conducir dentro de la norma o financiar, de multa en multa, la pedagogía tecnológica del estado. </p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is openly available in English on Medium, «<a href="https://medium.com/enrique-dans/you-cant-outsmart-this-speed-camera-it-doesn-t-care-where-you-slow-down-285f93f7092d?sk=dc67527917dc224056642f64640b1ee0" data-type="link" data-id="https://medium.com/enrique-dans/you-cant-outsmart-this-speed-camera-it-doesn-t-care-where-you-slow-down-285f93f7092d?sk=dc67527917dc224056642f64640b1ee0" target="_blank" rel="noreferrer noopener">You can’t outsmart this speed camera: it doesn’t care where you slow down</a>» </em></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/04/colorado-y-el-fin-del-frenar-solo-durante-el-tramo-de-radar.html/feed</wfw:commentRss>
			<slash:comments>30</slash:comments>
		
		
			</item>
		<item>
		<title>Pensar cansa: por eso estamos empezando a dejar que la inteligencia artificial lo haga por nosotros</title>
		<link>https://www.enriquedans.com/2026/04/pensar-cansa-por-eso-estamos-empezando-a-dejar-que-la-inteligencia-artificial-lo-haga-por-nosotros.html</link>
					<comments>https://www.enriquedans.com/2026/04/pensar-cansa-por-eso-estamos-empezando-a-dejar-que-la-inteligencia-artificial-lo-haga-por-nosotros.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Sun, 05 Apr 2026 06:16:54 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[chatbots]]></category>
		<category><![CDATA[convergence]]></category>
		<category><![CDATA[critical thinking]]></category>
		<category><![CDATA[Large Language Model]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57606</guid>

					<description><![CDATA[Hay algo profundamente tentador en una respuesta bien escrita, inmediata y aparentemente razonable. Algo que invita a asentir, copiar, pegar… y seguir adelante. Durante años hemos delegado tareas en máquinas sin mayor problema, pero lo que empieza a emerger con la inteligencia artificial generativa no es una simple delegación: es otra cosa mucho más inquietante.  <a href="https://www.enriquedans.com/2026/04/pensar-cansa-por-eso-estamos-empezando-a-dejar-que-la-inteligencia-artificial-lo-haga-por-nosotros.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-full is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/04/Cognitive-surrender-Gemini.jpg"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/04/Cognitive-surrender-Gemini.jpg" alt="IMAGE: A modern illustration showing two people. On the left, a person is zoned out while using a computer; colorful, glowing data threads come from the screen, flowing around their head like an artificial brain process. On the right, another person is actively thinking and critical, with a distinct, glowing, gear-filled thought cloud appearing above their own head " class="wp-image-57608" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/04/Cognitive-surrender-Gemini.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/04/Cognitive-surrender-Gemini-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/04/Cognitive-surrender-Gemini-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/04/Cognitive-surrender-Gemini-768x768.jpg 768w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Hay algo profundamente tentador en una respuesta bien escrita, inmediata y aparentemente razonable. Algo que invita a asentir, copiar, pegar… y seguir adelante. Durante años hemos delegado tareas en máquinas sin mayor problema, pero lo que empieza a emerger con la inteligencia artificial generativa no es una simple delegación: es otra cosa mucho más inquietante. Es lo que algunos investigadores ya llaman <em><a href="https://www.psychologytoday.com/us/blog/harnessing-hybrid-intelligence/202602/are-we-cruising-toward-cognitive-capitulation" target="_blank" rel="noreferrer noopener">cognitive surrender</a></em>, rendición cognitiva. Y el término no es exagerado. </p>



<p>La idea es sencilla, pero incómoda: no estamos usando la IA para pensar mejor, sino cada vez más para no tener que pensar. Y no porque no sepamos hacerlo, sino porque resulta más rápido, más cómodo y, sobre todo, más convincente aceptar lo que la máquina nos devuelve que someterlo al escrutinio que exigiría cualquier respuesta humana.</p>



<p>Un estudio reciente con más de mil participantes, publicado como <em>working paper</em> en SSRN y titulado «<a href="https://papers.ssrn.com/sol3/papers.cfm?abstract_id=6097646" target="_blank" rel="noreferrer noopener"><em>Thinking—fast, slow, and artificial: how AI is reshaping human reasoning and the rise of cognitive surrender</em></a>«, lo deja claro: cuando una inteligencia artificial proporciona respuestas incorrectas, los usuarios siguen aceptándolas en más de un 70% de los casos. No es solo un problema de error, <a href="https://arstechnica.com/ai/2026/04/research-finds-ai-users-scarily-willing-to-surrender-their-cognition-to-llms/" target="_blank" rel="noreferrer noopener">es un problema de sumisión</a>. Lo verdaderamente preocupante es que muchos participantes no solo fallaban, sino que lo hacían con más confianza. Se equivocaban&#8230; pero convencidos de que no lo hacían. </p>



<p>Esto no va de ignorancia, sino de comportamiento: de cómo reaccionamos ante una fuente que parece fiable, articulada y segura de sí misma. La inteligencia artificial no duda, no titubea, no muestra inseguridad. Y en un entorno saturado de incertidumbre, eso la convierte en una especie de oráculo moderno. Uno que no siempre acierta, pero que siempre suena como si lo hiciera. </p>



<p>La psicología lleva décadas estudiando algo parecido bajo otros nombres: automatización, sesgo de autoridad, dependencia cognitiva. Pero hay una diferencia clave. Antes, las máquinas eran torpes, rígidas, claramente artificiales. Ahora, el interfaz conversacional disfraza sus limitaciones bajo una capa de lenguaje natural impecable. Y eso cambia radicalmente nuestra relación con ellas. </p>



<p>Porque no evaluamos una respuesta solo por su contenido, sino por su forma. Y una frase bien construida, fluida, coherente, tiene muchas más probabilidades de ser aceptada que una torpe, incluso aunque ambas sean igual de correctas&#8230; o de incorrectas. Lo anticipé hace ya tiempo <a href="https://www.enriquedans.com/2023/01/cuando-el-algoritmo-piensa-por-ti.html" target="_blank" rel="noreferrer noopener">aquí</a>: el resultado es una externalización progresiva del razonamiento. No sólo buscamos información fuera de nuestra cabeza, algo perfectamente lógico, sino que empezamos a delegar el proceso mismo de pensar: estructurar un argumento, ponderar alternativas, detectar inconsistencias. Es decir, justo aquello que define el pensamiento crítico.</p>



<p>No todos caen igual. Quienes tienen mayor capacidad de razonamiento abstracto, lo que en psicología se denomina <em><a href="https://www.btbpsychology.com/blog/understanding-psychoeducational-testing-terms-fluid-reasoning" target="_blank" rel="noreferrer noopener">fluid reasoning</a></em>, parecen resistir mejor esa tentación. Detectan mejor cuándo algo no encaja y mantienen (o tratan de mantener, según su nivel de conocimineto de la materia) una cierta distancia crítica. Pero el diseño actual de estos sistemas no ayuda precisamente a fomentar ese comportamiento. Al contrario: todo está optimizado para reducir fricción, no para generar duda. </p>



<p>Y ahí aparece otro problema, más sutil pero igual de grave: la inteligencia artificial no solo puede equivocarse, sino que puede reforzar nuestros propios errores. Hay evidencias claras de que <a href="https://news.stanford.edu/stories/2026/03/ai-advice-sycophantic-models-research">algunos modelos tienden a comportarse de forma complaciente, a dar la razón al usuario incluso cuando no debería</a>, un modelo muy preocupante de convergencia con el usuario que algunos, infantilmente, creen que pueden contrarrestar simplemente copiando y pegando un <em>prompt</em> con variaciones de «no me des la razón». No, los LLM no corrigen, no confrontan, no incomodan. Y eso tiene consecuencias. Porque una herramienta que confirma tus sesgos es mucho más peligrosa que una que los cuestiona.</p>



<p>En el ámbito educativo, los síntomas empiezan a ser visibles. Menos esfuerzo cognitivo, sí. Pero también argumentos más superficiales, menos elaborados, menos originales. Investigaciones recientes apuntan precisamente en esa dirección: <a href="https://www.sciencedirect.com/science/article/pii/S0747563224002541" target="_blank" rel="noreferrer noopener">el uso de modelos generativos reduce la carga cognitiva, pero también la calidad del razonamiento</a>.</p>



<p>Pensar es lento, incómodo y, en muchas ocasiones, frustrante. Requiere tiempo, atención y una cierta tolerancia al error. La inteligencia artificial elimina gran parte de ese coste. Pero al hacerlo, también elimina una parte esencial del aprendizaje. Porque no es lo mismo llegar a una conclusión que recibirla. </p>



<p>El problema no es que la inteligencia artificial sea mala. El problema es que es demasiado buena en algo muy concreto: en parecer convincente. Y eso, en un contexto en el que tendemos a premiar la velocidad sobre la profundidad, crea el caldo de cultivo perfecto para la rendición cognitiva. <a href="https://news.mit.edu/2024/reasoning-skills-large-language-models-often-overestimated-0711" target="_blank" rel="noreferrer noopener">Tendemos a sobreestimar la capacidad de razonamiento de estos sistemas</a>, especialmente cuando nos movemos fuera de los contextos que nos son más familiares, y en los que nuestra capacidad de contrastar es más débil. Simplemente, aceptamos lo que nos dicen como verdad absoluta, sin rechistar. </p>



<p>No se trata de dejar de usar estas herramientas. Sería absurdo. Se trata de entender qué hacen con nosotros cuando las usamos mal. Porque la frontera no está en la tecnología, sino en la actitud. Podemos utilizarlas para pensar mejor&#8230; o para dejar de pensar. Y esa elección, aunque no lo parezca, no es técnica. Es profundamente cultural. </p>



<p>La gran paradoja de este momento es que, cuanto más accesible se vuelve la inteligencia, más valor adquiere algo mucho más escaso: el criterio. Y el criterio no se delega. O al menos, no se delega sin pagar un precio. </p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is openly available in English on Medium, «<a href="https://medium.com/enrique-dans/thinking-hurts-so-why-not-surrender-to-ai-68da41119eb2?sk=322870b1c6c067015b05c7fc6c173999" data-type="link" data-id="https://medium.com/enrique-dans/thinking-hurts-so-why-not-surrender-to-ai-68da41119eb2?sk=322870b1c6c067015b05c7fc6c173999" target="_blank" rel="noreferrer noopener">Thinking hurts, so why not surrender to AI</a>?» </em></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/04/pensar-cansa-por-eso-estamos-empezando-a-dejar-que-la-inteligencia-artificial-lo-haga-por-nosotros.html/feed</wfw:commentRss>
			<slash:comments>29</slash:comments>
		
		
			</item>
	</channel>
</rss>
