<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Enrique Dans</title>
	<atom:link href="https://www.enriquedans.com/feed" rel="self" type="application/rss+xml" />
	<link>https://www.enriquedans.com</link>
	<description>Investigación y opinión acerca de los Sistemas y Tecnologías de Información</description>
	<lastBuildDate>Sat, 11 Apr 2026 15:15:15 +0000</lastBuildDate>
	<language>es</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>
	<item>
		<title>La cosecha cautiva: cómo John Deere quiso convertir el software en un peaje</title>
		<link>https://www.enriquedans.com/2026/04/la-cosecha-cautiva-como-john-deere-quiso-convertir-el-software-en-un-peaje.html</link>
					<comments>https://www.enriquedans.com/2026/04/la-cosecha-cautiva-como-john-deere-quiso-convertir-el-software-en-un-peaje.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Sat, 11 Apr 2026 06:54:24 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[agriculture]]></category>
		<category><![CDATA[antitrust]]></category>
		<category><![CDATA[hacking]]></category>
		<category><![CDATA[jailbreaking]]></category>
		<category><![CDATA[John Deere]]></category>
		<category><![CDATA[lawsuit]]></category>
		<category><![CDATA[monopolistic]]></category>
		<category><![CDATA[right to repair]]></category>
		<category><![CDATA[software]]></category>
		<category><![CDATA[tractor]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57641</guid>

					<description><![CDATA[Hubo un tiempo en que comprar un tractor significaba comprar una máquina. Hoy, en demasiados casos, significaba alquilar obediencia. El caso de John Deere lo ilustra con una claridad casi didáctica: la empresa fue transformando sus equipos agrícolas en sistemas digitalmente cerrados, de manera que el agricultor ya no adquiría una herramienta plenamente utilizable, sino  <a href="https://www.enriquedans.com/2026/04/la-cosecha-cautiva-como-john-deere-quiso-convertir-el-software-en-un-peaje.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-full is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/04/John-Deere-Dall·E.jpg"><img fetchpriority="high" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/04/John-Deere-Dall·E.jpg" alt="IMAGE: A large green tractor in a wheat field under a dramatic sky, highlighting its scale and power " class="wp-image-57642" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/04/John-Deere-Dall·E.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/04/John-Deere-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/04/John-Deere-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/04/John-Deere-Dall·E-768x768.jpg 768w" sizes="(max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Hubo un tiempo en que comprar un tractor significaba comprar una máquina. Hoy, en demasiados casos, significaba alquilar obediencia. El <a href="https://en.wikipedia.org/wiki/John_Deere#Non-serviceability_by_owners_or_third_parties" target="_blank" rel="noreferrer noopener">caso de John Deere</a> lo ilustra con una claridad casi didáctica: la empresa fue transformando sus equipos agrícolas en sistemas digitalmente cerrados, de manera que el agricultor ya no adquiría una herramienta plenamente utilizable, sino un producto condicionado por llaves de <em>software</em>, herramientas de diagnóstico restringidas y una arquitectura diseñada para canalizar obligatoriamente las reparaciones hacia su red oficial. La reciente <a href="https://www.agri-pulse.com/ext/resources/pdfs/gov.uscourts.ilnd.415798.333.1.pdf" target="_blank" rel="noreferrer noopener">propuesta de acuerdo</a> por <a href="https://www.thedrive.com/news/john-deere-to-pay-99-million-in-monumental-right-to-repair-settlement" target="_blank" rel="noreferrer noopener">99 millones de dólares</a> no solo revela <a href="https://apnews.com/article/john-deere-repair-lawsuit-settlement-595d4b089689cd94418991326275b68d" target="_blank" rel="noreferrer noopener">la magnitud del problema</a>, sino también algo más inquietante: hasta qué punto una compañía puede utilizar la tecnología no para mejorar el producto, sino para construir un peaje permanente alrededor de él. </p>



<p>Lo importante aquí no es solamente el dinero. En el propio documento judicial puede leerse que el objetivo del litigio era desmontar el <em>«anticompetitive moat»</em> levantado por John Deere, ese foso anticompetitivo que impedía a agricultores y talleres independientes acceder a las herramientas necesarias para mantener, diagnosticar y reparar la maquinaria sin verse obligados a pasar por los concesionarios autorizados. El acuerdo obliga a la compañía, durante diez años, a poner a disposición de propietarios, arrendatarios y reparadores independientes los recursos de reparación, incluidas capacidades de diagnóstico y soluciones técnicas que hasta ahora estaban reservadas <em>de facto</em> a su red oficial. Y, además, el documento estima daños por sobreprecio de entre los 190 y los 387.3 millones de dólares, de los que el fondo de compensación cubriría aproximadamente entre un 26% y un 53%, una proporción muy superior a la habitual en acuerdos <em>antitrust</em>. No es una anécdota: es la constatación de que el abuso era sistémico. </p>



<p>La clave del modelo de Deere fue convertir una reparación mecánica en un privilegio computacional. Según la FTC, <a href="https://www.ftc.gov/news-events/news/press-releases/2025/01/ftc-states-sue-deere-company-protect-farmers-unfair-corporate-tactics-high-repair-costs" target="_blank" rel="noreferrer noopener">la única herramienta de <em>software</em> plenamente funcional para realizar todas las reparaciones era Service ADVISOR, y John Deere reservaba su uso exclusivamente a sus distribuidores autorizados</a>. A los clientes y a terceros les dejaba una versión inferior, incapaz de cubrir todas las necesidades. Eso no solo permitía cobrar más por la reparación; permitía también decidir quién podía reparar, cuándo y en qué condiciones. Y en el campo, el tiempo no es una variable decorativa. Un retraso en plena siembra, pulverización o cosecha no es una molestia: puede convertirse en menores rendimientos, en pérdidas económicas severas y en un encadenamiento de costes que se puede arrastrar durante toda una campaña. La propia FTC subraya que estas restricciones privaban a los agricultores de su propio trabajo de reparación, les impedían recurrir a proveedores locales más rápidos y fiables (o a reparaciones efectuadas por ellos mismos), y les forzaban a pagar más por piezas y servicios. </p>



<p>Lo más llamativo del tema es que la compañía llevaba años intentando presentar ese control como si fuese simple modernidad. En una entrevista de hace algunos años, <a href="https://www.theverge.com/22533735/john-deere-cto-hindman-decoder-interview-right-to-repair-tractors" target="_blank" rel="noreferrer noopener">su CTO defendía que la mayoría de las reparaciones seguían siendo posibles</a>, pero la propia conversación dejaba ver <a href="https://arstechnica.com/tech-policy/2023/01/john-deere-relents-says-farmers-can-fix-their-own-tractors-after-all/" target="_blank" rel="noreferrer noopener">el corazón del problema</a>: cuando una máquina entra en <em>«<a href="https://mechanicbase.com/engine/limp-mode/" target="_blank" rel="noreferrer noopener">limp mode</a>«</em>, cuando un sensor dispara una limitación, o cuando una función crítica depende de <em>software</em>, el poder ya no está en la llave inglesa, sino en el acceso digital. Ese es el verdadero desplazamiento de poder que tantas empresas tecnológicas persiguen: no venderte una máquina mejor, sino redefinir la propiedad para que, incluso después de pagarla, sigas dependiendo de ellas. El tractor deja de ser enteramente tuyo y pasa a ser una plataforma bajo supervisión corporativa. </p>



<p>Por eso este caso trasciende la agricultura: John Deere no estaba defendiendo la seguridad, ni la calidad, ni la integridad técnica en sentido estricto. Estaba defendiendo un modelo de extracción de rentas basado en la asimetría informacional y en el control del <em>software</em>. Y cuando ese control se vuelve excesivo, aparecen fenómenos reveladores: agricultores que prefieren maquinaria más antigua porque es reparable, mercados secundarios que premian lo analógico, y hasta <em>hackers</em> que buscan liberar aquello que el fabricante ha encerrado. <a href="https://gizmodo.com/john-deere-hacking-right-to-repair-1849412256" target="_blank" rel="noreferrer noopener">El <em>jailbreak</em> presentado hace años en Def Con</a> es significativo no porque glorifique el <em>hackeo</em>, sino porque muestra la consecuencia natural del abuso: cuando la empresa convierte la reparación legítima en una actividad cautiva, algunos usuarios empiezan a tratar la restricción como un muro que debe ser sorteado. Eso es exactamente lo que ocurre cuando una estrategia comercial se diseña contra los intereses básicos del propietario.</p>



<p>John Deere intentó amortiguar la presión con el <a href="https://www.fb.org/files/AFBF_John_Deere_MOU.pdf" target="_blank" rel="noreferrer noopener">memorándum de entendimiento firmado en 2023 con la American Farm Bureau Federation</a>, presentado en su momento como una apertura razonable. Pero aquel texto ya anticipaba sus límites: hablaba de acceso «en términos justos y razonables», preservaba amplias salvaguardas en torno a propiedad intelectual, seguridad y emisiones, y además incluía una cláusula por la que la organización agraria se comprometía a no impulsar legislación adicional más exigente mientras el acuerdo estuviera vigente. Era, en la práctica, una desactivación política parcial del conflicto, no su resolución. <a href="https://www.reuters.com/legal/government/deere-must-face-ftcs-antitrust-lawsuit-over-repair-costs-us-judge-rules-2025-06-10/" target="_blank" rel="noreferrer noopener">El litigio posterior y la demanda de la FTC</a> evidencian con claridad que aquella salida voluntaria no fue suficiente. Si una empresa necesita ser demandada para ofrecer de forma efectiva los recursos de reparación, es que nunca tuvo verdadera intención de abrir el sistema. </p>



<p>La dimensión <em>antitrust</em> del caso es, además, fundamental. No estamos ante una simple discusión de consumo ni ante la eterna retórica del «<a href="https://en.wikipedia.org/wiki/Right_to_repair" target="_blank" rel="noreferrer noopener">derecho a reparar</a>» como causa simpática. Estamos ante una empresa que, según la FTC, <a href="https://www.tradingkey.com/news/commodities/250775184-reuters" target="_blank" rel="noreferrer noopener">utilizó su posición dominante en grandes equipos agrícolas y el control exclusivo de una herramienta esencial para sostener un 100% de cuota en ciertas reparaciones que requerían el <em>software</em> completo</a>. Y en junio de 2025 un juez federal permitió que esa demanda <em>antitrust</em> siguiera adelante, rechazando el intento de Deere de tumbarla en una fase preliminar. Eso importa porque sitúa la discusión donde debe estar: no solo en la comodidad del usuario, sino en la estructura de mercado, en la competencia y en los incentivos perversos que nacen cuando el fabricante controla tanto la máquina como la única llave digital para mantenerla operativa. </p>



<p>Lo que John Deere hizo fue ensayar, en un entorno rural y aparentemente alejado del debate tecnológico cotidiano, una idea que las Big Tech conocen muy bien: usar el <em>software</em> para degradar la propiedad y convertir la postventa en una mina cautiva. Cobrar más por el mantenimiento, excluir a terceros, imponer piezas y canales, y hacer que el cliente soporte también el coste del tiempo perdido. En una cosechadora parada a mitad de una cosecha, esa lógica se vuelve completamente obscena. Y precisamente por eso el caso es tan importante: porque demuestra que la discusión sobre tecnología nunca ha sido sólo sobre innovación, sino también sobre poder. Cuando una empresa puede decidir si puedes arreglar lo que has comprado, no te está vendiendo un producto: te está alquilando una dependencia. Y esa, por mucho que la disfracemos de sofisticación digital, sigue siendo una forma de abuso. </p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is available in English on Medium, «<a href="https://medium.com/enrique-dans/harvesting-profits-the-software-trap-behind-john-deeres-tractors-809eb872d088?sk=8b7b58a04db27628398a45c288d6de1d" data-type="link" data-id="https://medium.com/enrique-dans/harvesting-profits-the-software-trap-behind-john-deeres-tractors-809eb872d088?sk=8b7b58a04db27628398a45c288d6de1d" target="_blank" rel="noreferrer noopener">Harvesting profits: the software trap behind John Deere’s tractors</a>» </em></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/04/la-cosecha-cautiva-como-john-deere-quiso-convertir-el-software-en-un-peaje.html/feed</wfw:commentRss>
			<slash:comments>5</slash:comments>
		
		
			</item>
		<item>
		<title>Mythos, o cuando hackear deja de ser difícil</title>
		<link>https://www.enriquedans.com/2026/04/mythos-o-cuando-hackear-deja-de-ser-dificil.html</link>
					<comments>https://www.enriquedans.com/2026/04/mythos-o-cuando-hackear-deja-de-ser-dificil.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Fri, 10 Apr 2026 08:30:18 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[Anthropic]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[Claude]]></category>
		<category><![CDATA[cybersecurity]]></category>
		<category><![CDATA[hacking]]></category>
		<category><![CDATA[responsibility]]></category>
		<category><![CDATA[security]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57648</guid>

					<description><![CDATA[Durante años, la industria tecnológica ha jugado con una idea cómoda: que la ciberseguridad es un problema complejo, sí, pero contenido. Que los atacantes realmente peligrosos son pocos, que el talento ofensivo avanzado es escaso, y que, con suficientes capas de defensa, auditorías y herramientas, el sistema se mantiene razonablemente estable. Claude Mythos dinamita esa  <a href="https://www.enriquedans.com/2026/04/mythos-o-cuando-hackear-deja-de-ser-dificil.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-large is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/04/Claude-Mythos-Anthropic.jpg"><img decoding="async" width="1024" height="576" src="https://www.enriquedans.com/wp-content/uploads/2026/04/Claude-Mythos-Anthropic-1024x576.jpg" alt="IMAGE: Anthropic's Claude star logo and the text reading &quot;Claude Mythos&quot;  " class="wp-image-57649" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/04/Claude-Mythos-Anthropic-1024x576.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/04/Claude-Mythos-Anthropic-300x169.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/04/Claude-Mythos-Anthropic-768x432.jpg 768w, https://www.enriquedans.com/wp-content/uploads/2026/04/Claude-Mythos-Anthropic.jpg 1280w" sizes="(max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Durante años, la industria tecnológica ha jugado con una idea cómoda: que la ciberseguridad es un problema complejo, sí, pero contenido. Que los atacantes realmente peligrosos son pocos, que el talento ofensivo avanzado es escaso, y que, con suficientes capas de defensa, auditorías y herramientas, el sistema se mantiene razonablemente estable. </p>



<p><a href="https://www-cdn.anthropic.com/08ab9158070959f88f296514c21b7facce6f52bc.pdf" target="_blank" rel="noreferrer noopener">Claude Mythos</a> dinamita esa narrativa. No porque introduzca un riesgo completamente nuevo, sino porque altera de manera radical el coste y la escala de los ataques.</p>



<p>La cuestión no es si Mythos es «tan peligroso como dicen». De hecho, conviene empezar por ahí: como recuerda Gary Marcus en Communications of the ACM, <a href="https://cacm.acm.org/blogcacm/what-should-we-take-from-anthropics-possibly-terrifying-new-report-on-mythos/" target="_blank" rel="noreferrer noopener">estamos en una fase en la que es difícil separar el riesgo real del marketing y del alarmismo interesado</a>, porque los modelos no son públicos, los experimentos no son reproducibles y las condiciones en las que se obtienen los resultados no están del todo claras. Es una advertencia importante: la historia reciente de la inteligencia artificial está llena de exageraciones, y Anthropic no es precisamente un actor neutral en la construcción de su propio relato. </p>



<p>Pero sería un error quedarse ahí y despachar el tema como <em>hype</em>. Incluso el propio Marcus reconoce algo mucho más inquietante: no hace falta que Mythos sea AGI ni que sea perfecto para poder causar daños significativos. Basta con que sea suficientemente bueno en dominios concretos, como el código o la seguridad, para tener efectos sistémicos. Y eso enlaza directamente con lo que ya estamos viendo. </p>



<p>Según el análisis de The Economist, <a href="https://www.economist.com/business/2026/04/08/how-dangerous-is-mythos-anthropics-new-ai-model" target="_blank" rel="noreferrer noopener">hay razones de peso para tomarse en serio las advertencias de Anthropic</a>. No solo por la magnitud de las afirmaciones, con el <a href="https://venturebeat.com/security/mythos-detection-ceiling-security-teams-new-playbook" target="_blank" rel="noreferrer noopener">hallazgo de vulnerabilidades críticas en todos los grandes sistemas operativos y navegadores</a>, incluyendo <a href="https://medium.com/@creativeaininja/project-glasswing-and-claude-mythos-ai-that-finds-bugs-humans-missed-for-27-years-0c964e77f3e4" target="_blank" rel="noreferrer noopener">fallos que llevaban décadas sin detectarse</a>, sino por la reacción de la industria: empresas como Apple, Google o la Linux Foundation se han sumado a <a href="https://www.anthropic.com/glasswing" target="_blank" rel="noreferrer noopener">Project Glasswing</a>, lo que sugiere que la amenaza es, como mínimo, creíble. Cuando competidores directos se alinean en torno a una iniciativa de este tipo, no estamos ante una simple maniobra de marketing. ¿<a href="https://medium.com/@kram254/anthropics-mythos-the-ai-that-forced-its-creators-into-unprecedented-action-0d9b549c756a" target="_blank" rel="noreferrer noopener">Qué es Project Glasswing</a>? La iniciativa de emergencia que Anthropic ha creado con Amazon, Apple, Google, Microsoft, Nvidia y otros gigantes tecnológicos para tratar de anticipar los posibles efectos de poner Mythos en el mercado. </p>



<p>El verdadero problema, sin embargo, no está en Mythos como producto, sino en Mythos como síntoma. Lo que este modelo pone de manifiesto es algo mucho más profundo: que la capacidad de encontrar y explotar vulnerabilidades no depende de una inteligencia «general», sino de algo mucho más simple y más escalable. Capacidad de iteración. Paciencia infinita. Automatización del ensayo y error. </p>



<p>Es exactamente lo que describía hace unos días en «<a href="https://www.enriquedans.com/2026/03/la-maquina-que-empieza-a-redisenarse-sola.html" target="_blank" rel="noreferrer noopener">La máquina que empieza a rediseñarse sola</a>«: no necesitamos máquinas conscientes ni superinteligentes para cambiar el mundo. Nos basta con máquinas infinitamente pacientes que puedan probar millones de combinaciones sin cansarse, aprender de cada intento y persistir allí donde los humanos abandonan. Aplicado a la ciberseguridad, eso tiene implicaciones obvias: el ataque deja de ser un arte artesanal para convertirse en un proceso industrial. Y cuando algo se industrializa, se abarata. Y cuando se abarata, se democratiza. De repente, <a href="https://www.synack.com/blog/mythos-attack-surface-risk-ai-cyberattacks/" target="_blank" rel="noreferrer noopener">todos tus sistemas pasan a ser superficies de ataque</a>. </p>



<p>Aquí es donde el debate deja de ser técnico y pasa a ser estructural. Durante décadas, el equilibrio en ciberseguridad se ha basado en una asimetría manejable: atacar es más fácil que defender, sí, pero <a href="https://medium.com/@marc.bara.iniesta/what-mythos-means-elite-cyberattacks-just-got-much-cheaper-983d736b1a1e" target="_blank" rel="noreferrer noopener">los ataques realmente sofisticados requieren recursos, conocimiento y tiempo</a>. Mythos, y sobre todo, lo que representa, rompe ese equilibrio al reducir drásticamente el coste marginal de encontrar vulnerabilidades. <a href="https://pixicstudio.medium.com/anthropic-claude-mythos-preview-5cae1aa2f5ee">Mythos demuestra que la inteligencia artificial sabe <em>hackear</em></a>&#8230; y hacerlo además <a href="https://medium.com/the-visibility-layer/anthropics-mythos-proved-ai-can-hack-now-what-d17a7c845af9" target="_blank" rel="noreferrer noopener">mejor que los mejores <em>hackers</em> humanos</a>. </p>



<p>Eso no significa que mañana cualquier adolescente vaya a derribar el sistema financiero global desde su habitación. Pero sí significa que el umbral de entrada para ataques avanzados se desplaza peligrosamente hacia abajo. Lo que antes requería equipos altamente cualificados puede empezar a estar al alcance de actores mucho más numerosos y mucho menos sofisticados.</p>



<p>Y, como suele ocurrir, el impacto no será homogéneo. Las grandes tecnológicas, los gobiernos con recursos y las organizaciones más maduras podrán posiblemente adaptarse, reforzar sus sistemas y, en algunos casos, utilizar estas mismas herramientas para defenderse. Pero el resto, desde PYMEs a administraciones públicas, pasando por infraestructuras <em>legacy</em>, sistemas críticos mal mantenidos, etc. se convierten en objetivos mucho más vulnerables. </p>



<p>Hay, además, otra dimensión que tanto The Economist como el propio Marcus apuntan, aunque desde ángulos distintos: la gobernanza. <a href="https://techcrunch.com/2026/04/09/is-anthropic-limiting-the-release-of-mythos-to-protect-the-internet-or-anthropic/" target="_blank" rel="noreferrer noopener">La decisión de Anthropic de no liberar Mythos y canalizarlo a través de Project Glasswing puede interpretarse como responsabilidad</a>. Dar tiempo a parchear antes de exponer capacidades ofensivas tiene sentido. Pero también plantea una pregunta incómoda: ¿<a href="https://medium.com/data-and-beyond/claude-mythos-the-ai-anthropic-built-and-is-too-scared-to-release-9fc43851dfb4" target="_blank" rel="noreferrer noopener">quién decide cuándo una tecnología es demasiado peligrosa para ser pública</a>?</p>



<p>Porque, en ausencia de regulación, la respuesta es simple: los CEOs de las empresas que la desarrollan. Y eso, como señala Marcus, es un problema en sí mismo. La autorregulación llega tarde y es inherentemente insuficiente . Si la capacidad de comprometer sistemas críticos a escala global depende de decisiones corporativas, estamos trasladando una cuestión de seguridad colectiva al ámbito de intereses privados.</p>



<p>La geopolítica tampoco desaparece, al contrario. The Economist introduce un matiz especialmente interesante: iniciativas como Glasswing podrían incluso interferir con estrategias ofensivas estatales, como el almacenamiento de vulnerabilidades <em>«zero-day»</em> para su uso futuro . Es decir, no solo estamos ante una herramienta que puede empoderar a delincuentes, sino también ante algo que puede alterar el equilibrio entre Estados en el terreno cibernético.</p>



<p>Y, por supuesto, todo esto ocurre en un contexto en el que no todos los actores juegan con las mismas reglas. Mientras algunas compañías optan por la cautela, otras, incluidos potencialmente actores en entornos regulatorios más laxos, pueden no hacerlo. La contención, en ese sentido, es siempre temporal.</p>



<p>Por eso, quizás la conclusión más incómoda es también la más evidente: Mythos no es el problema. Es el anticipo. <a href="https://www.theatlantic.com/technology/2026/04/claude-mythos-hacking/686746/" target="_blank" rel="noreferrer noopener">Un anticipo de un mundo en el que encontrar vulnerabilidades será trivial, explotarlas será automatizable y defenderse requerirá un nivel de sofisticación que muchas organizaciones simplemente no tienen</a>. Un mundo en el que la mejor herramienta para proteger sistemas será, al mismo tiempo, la mejor herramienta para atacarlos. <a href="https://medium.com/@ritukampani/claude-mythos-and-cybersecurity-when-ai-capability-becomes-a-double-edged-sword-32f7b4d607f7" target="_blank" rel="noreferrer noopener">Espadas de doble filo</a>. </p>



<p>Y, sobre todo, un mundo en el que seguiremos discutiendo si estamos ante <em>hype</em> o realidad&#8230; mientras la superficie de ataque crece más rápido de lo que somos capaces de comprender. </p>



<p>Porque la pregunta ya no es si una inteligencia artificial puede convertirse en el arma perfecta para penetrar cualquier empresa, banco o gobierno. La evidencia apunta a que estamos muy cerca de que así sea. </p>



<p>La pregunta es otra, mucho más incómoda: cuánto tiempo vamos a seguir actuando como si no lo fuera.</p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is available in English on Medium, «<a href="https://medium.com/enrique-dans/mythos-is-about-to-make-cybersecurity-much-more-difficult-2d4bd3831fc8?sk=21d33b170a03abb19a186df6186d3590" data-type="link" data-id="https://medium.com/enrique-dans/mythos-is-about-to-make-cybersecurity-much-more-difficult-2d4bd3831fc8?sk=21d33b170a03abb19a186df6186d3590" target="_blank" rel="noreferrer noopener">Mythos is about to make cybersecurity much more difficult</a>» </em></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/04/mythos-o-cuando-hackear-deja-de-ser-dificil.html/feed</wfw:commentRss>
			<slash:comments>23</slash:comments>
		
		
			</item>
		<item>
		<title>Google, la inteligencia artificial y el día en que el buscador decidió dejar de ser neutral</title>
		<link>https://www.enriquedans.com/2026/04/google-la-inteligencia-artificial-y-el-dia-en-que-el-buscador-decidio-dejar-de-ser-neutral.html</link>
					<comments>https://www.enriquedans.com/2026/04/google-la-inteligencia-artificial-y-el-dia-en-que-el-buscador-decidio-dejar-de-ser-neutral.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Thu, 09 Apr 2026 08:42:21 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[Clayton Christensen]]></category>
		<category><![CDATA[generative]]></category>
		<category><![CDATA[Google]]></category>
		<category><![CDATA[hallucinations]]></category>
		<category><![CDATA[mistake]]></category>
		<category><![CDATA[search]]></category>
		<category><![CDATA[search engines]]></category>
		<category><![CDATA[trust]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57631</guid>

					<description><![CDATA[Durante años, Google construyó algo extraordinariamente valioso: no solo un producto, sino un hábito cognitivo global. Buscar en Google no era simplemente acceder a información: era confiar en que esa información estaba razonablemente ordenada y filtrada. No era perfecta, de acuerdo, pero sí era suficientemente fiable como para servir de punto de partida. El trabajo  <a href="https://www.enriquedans.com/2026/04/google-la-inteligencia-artificial-y-el-dia-en-que-el-buscador-decidio-dejar-de-ser-neutral.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-full is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/04/Googles-mistakes-Dall·E.jpg"><img decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/04/Googles-mistakes-Dall·E.jpg" alt="IMAGE: An AI robot inside a magnifying glass under Google’s logo, surrounded by warning signs and conflicting information sources " class="wp-image-57633" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/04/Googles-mistakes-Dall·E.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/04/Googles-mistakes-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/04/Googles-mistakes-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/04/Googles-mistakes-Dall·E-768x768.jpg 768w" sizes="(max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Durante años, Google construyó algo extraordinariamente valioso: no solo un producto, sino un hábito cognitivo global. Buscar en Google no era simplemente acceder a información: era confiar en que esa información estaba razonablemente ordenada y filtrada. No era perfecta, de acuerdo, pero sí era suficientemente fiable como para servir de punto de partida. El trabajo de verificación, obviamente, lo tenía que hacer uno mismo (y muchos no lo hacían), pero esa confianza, acumulada durante décadas es el verdadero activo de la compañía. Y ese es precisamente  el activo que hoy está en juego. </p>



<p>La introducción de los <a href="https://en.wikipedia.org/wiki/AI_Overviews" target="_blank" rel="noreferrer noopener">AI Overviews</a> marcó un cambio profundo en la naturaleza del buscador. Sobre todo, porque Google dejaba de ser un intermediario para convertirse, cada vez más, en un narrador. Ya no se limitaba a mostrar enlaces: ahora sintetizaba, interpretaba y respondía directamente, e posición destacada, por encima de los resultados de búsqueda. El paso podía parecer lógico desde el punto de vista tecnológico y competitivo, ni más ni menos que lo que le demandaba el mercado, pero es profundamente problemático desde el punto de vista de la confianza. </p>



<p>Los datos más recientes lo ilustran con claridad. Un <a href="https://www.nytimes.com/2026/04/07/technology/google-ai-overviews-accuracy.html" target="_blank" rel="noreferrer noopener">análisis independiente publicado por el New York Times</a> basado en el <a href="https://arxiv.org/pdf/2509.07968" target="_blank" rel="noreferrer noopener"><em>benchmark</em> SimpleQA</a> sitúa la precisión de estos resúmenes en torno al 91%, que así, a primera vista, podría parecer una cifra razonable. Pero cuando esa cifra se traslada a la gigantesca escala de Google, con sus más de cinco billones de búsquedas anuales, el resultado cambia de naturaleza: <a href="https://arstechnica.com/google/2026/04/analysis-finds-google-ai-overviews-is-wrong-10-percent-of-the-time/" target="_blank" rel="noreferrer noopener">supone decenas de millones de respuestas erróneas cada hora</a>. Eso ya no es un margen de error: es un fenómeno sistémico. </p>



<p>Y el problema no termina ahí. Además, más de la mitad de las respuestas consideradas correctas están mal fundamentadas: enlazan a fuentes que no respaldan la información que presentan. Es decir, que incluso cuando aciertan, lo hacen de forma difícilmente verificable. El usuario, en el estilo que ya todos vamos empezando a conocer de los <em>chatbots</em>, recibe una respuesta con apariencia de autoridad, pero carente de un mecanismo claro para contrastarla. No solo son mentiras: son mentiras disfrazadas y difíciles de comprobar. </p>



<p>Esto no es un <em>bug</em>: es una característica inherente a la tecnología utilizada. Los modelos generativos no conocen la verdad: estiman probabilidades. Funcionan como lo que <a href="https://en.wikipedia.org/wiki/Emily_M._Bender" target="_blank" rel="noreferrer noopener">Emily Bender</a> definió en su día como <em>«<a href="https://en.wikipedia.org/wiki/Stochastic_parrot">stochastic parrots</a>«</em>, loros probabilísticos que producen secuencias plausibles sin comprender realmente su significado. Esa limitación no es necesariamente problemática en contextos experimentales, pero lo es cuando se integra en el corazón del sistema de acceso a la información de cientos de millones de personas que, además, confían ciegamente en que «lo que dice Google» es la verdad. </p>



<p>Google lo sabe. Siempre lo ha sabido. No en vano, la arquitectura que sustenta toda esta revolución, los <em><a href="https://en.wikipedia.org/wiki/Transformer_(deep_learning)" target="_blank" rel="noreferrer noopener">transformers</a></em>, nació en sus propios laboratorios con el célebre <em>paper</em> <em>«<a href="https://arxiv.org/abs/1706.03762" target="_blank" rel="noreferrer noopener">Attention Is All You Need</a>«</em>. Google no es un actor rezagado en la inteligencia artificial generativa: es, en muchos sentidos, su origen. Precisamente por eso, su aparente lentitud inicial no era falta de visión, sino exceso de ella. Entendía mejor que nadie las implicaciones para la compañía (y para todos) de desplegar masivamente una tecnología inherentemente imperfecta. </p>



<p>Ahí encaja perfectamente el marco del <em>«<a href="https://en.wikipedia.org/wiki/The_Innovator's_Dilemma">Innovator’s Dilemma</a>«</em> del gran <a href="https://en.wikipedia.org/wiki/Clayton_Christensen" target="_blank" rel="noreferrer noopener">Clayton Christensen</a>. Google no dudaba porque no pudiera innovar, sino porque esa innovación amenazaba el núcleo de su propuesta de valor. Mientras <em>startups</em> como OpenAI podían permitirse experimentar, equivocarse y corregir sobre la marcha, Google tenía mucho más que perder: su credibilidad. Lo expliqué hace tiempo en artículos como «<a href="https://www.enriquedans.com/2024/05/google-y-el-problema-de-ser-quien-es.html" target="_blank" rel="noreferrer noopener">Google y el problema de ser quien es</a>» o «<a href="https://www.enriquedans.com/2024/05/google-y-el-dilema-del-robot-borracho.html" target="_blank" rel="noreferrer noopener">Google y el dilema del robot borracho</a>«: un <em>chatbot</em> puede alucinar y seguir siendo útil, según lo que le pidas y lo que sepa quien se lo pide. Pero un buscador no puede hacerlo sin erosionar su propia razón de ser. </p>



<p>Sin embargo, la presión competitiva ha terminado imponiéndose: Google optó por desplegar sus AI Overviews a gran escala, e integrándolos en el lugar más visible de su producto. Según la propia compañía, <a href="https://blog.google/products-and-platforms/products/search/generative-ai-google-search-may-2024/" target="_blank" rel="noreferrer noopener">el sistema ha alcanzado ya a más de mil millones de usuarios y sigue expandiéndose rápidamente</a>. Pero el problema es que la escala no corrige los errores: los amplifica. </p>



<p>Innumerables casos concretos ilustran bien la naturaleza del fallo. El sistema puede ofrecer respuestas incorrectas incluso cuando enlaza a fuentes correctas, o construir conclusiones erróneas a partir de datos válidos. Puede añadir contexto adicional que introduce nuevos errores sobre una respuesta inicialmente correcta. O puede apoyarse en fuentes de baja calidad, como publicaciones en redes sociales, con mayor frecuencia cuando se equivoca. Todo ello envuelto en una presentación limpia, directa y con autoridad aparente. El resultado, como no podía ser de otra manera viniendo del buscador en el que todos llevamos décadas confiando, es una ilusión de certeza. </p>



<p>Ese es el verdadero cambio: no solo se producen errores, sino que estos se presentan de forma más convincente que nunca. El usuario ya no ve una lista de enlaces entre los que debe navegar: ve una respuesta única, sintética, colocada en la posición de mayor visibilidad y respaldada implícitamente por la marca Google. La fricción desaparece. Y con ella, también, una parte esencial del pensamiento crítico. </p>



<p>Diversos análisis apuntan además a un efecto colateral significativo: la reducción del tráfico hacia las fuentes originales. Si el usuario obtiene una respuesta directa, la necesidad de hacer clic disminuye. Google deja de ser un intermediario que distribuye atención para convertirse en un destino que la retiene. Y eso, combinado con respuestas potencialmente erróneas, redefine por completo la ecología de la información. </p>



<p>Y lo más interesante del tema es que esta tensión no es exclusiva de Google. Microsoft, uno de los actores más agresivos en la comercialización de la inteligencia artificial generativa, reconoce implícitamente el problema. En sus propios términos de uso, <a href="https://techcrunch.com/2026/04/05/copilot-is-for-entertainment-purposes-only-according-to-microsofts-terms-of-service/" target="_blank" rel="noreferrer noopener">Copilot se define como una herramienta <em>«for entertainment purposes only»</em>, advirtiendo explícitamente que puede cometer errores y que no debe utilizarse para decisiones importantes</a>. Aunque la compañía ha intentado posteriormente matizar ese lenguaje calificándolo como <a href="https://www.pcmag.com/news/copilot-terms-claim-microsofts-ai-is-for-entertainment-purposes-only" target="_blank" rel="noreferrer noopener">un vestigio de versiones anteriores</a>, el mensaje subyacente resulta difícil de ignorar: las mismas empresas que nos invitan a integrar estas herramientas en nuestro trabajo cotidiano se protegen legalmente recordándonos que, en el fondo, no son fiables. La diferencia es que Microsoft puede permitirse ese matiz, porque Copilot no es, al menos todavía, la puerta de entrada al conocimiento global. Google, en cambio, sí lo es. Y ahí es donde el riesgo cambia completamente de escala. </p>



<p>Incluso los sistemas más avanzados siguen lejos de ofrecer garantías sólidas en términos de exactitud: <a href="https://www.enriquedans.com/2025/09/alucinaciones-o-simplemente-errores-inevitables.html" target="_blank" rel="noreferrer noopener">las alucinaciones y las respuestas erróneas no son un problema de funcionamiento, sino de planteamiento</a>. La cuestión, por tanto, no es si Google puede mejorar estos sistemas. Lo hará. La cuestión es si puede permitirse desplegarlos como lo ha hecho antes de que esa mejora sea suficiente. </p>



<p>Porque aquí no estamos hablando de un producto nuevo compitiendo en un mercado emergente. Estamos hablando de una infraestructura central del ecosistema informativo global. Una infraestructura que ahora decide asumir, de forma explícita, las limitaciones de una tecnología que produce errores por diseño. </p>



<p>Durante años, Google evitó ser un oráculo. Se limitó a señalar dónde estaban las respuestas. Hoy, empieza a ofrecértelas directamente. Y cuando el oráculo miente, el problema no es que se equivoque. Es que deja de ser el oráculo. </p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is available in English on Medium, «<a href="https://medium.com/enrique-dans/ai-overviews-and-the-quiet-erosion-of-googles-credibility-5b7979720ac9?sk=b0ecd2769691e2a8c23da195881052e0" target="_blank" rel="noreferrer noopener">AI Overviews and the quiet erosion of Google’s credibility</a>» (yes, I know, Medium has a paywall and all that&#8230; but if you click on this link, I promise there will be no paywall at all!)</em> </p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/04/google-la-inteligencia-artificial-y-el-dia-en-que-el-buscador-decidio-dejar-de-ser-neutral.html/feed</wfw:commentRss>
			<slash:comments>6</slash:comments>
		
		
			</item>
		<item>
		<title>La empleabilidad algorítmica</title>
		<link>https://www.enriquedans.com/2026/04/la-empleabilidad-algoritmica.html</link>
					<comments>https://www.enriquedans.com/2026/04/la-empleabilidad-algoritmica.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Wed, 08 Apr 2026 08:47:31 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[employment]]></category>
		<category><![CDATA[Invertia]]></category>
		<category><![CDATA[SME]]></category>
		<category><![CDATA[Spain]]></category>
		<category><![CDATA[work]]></category>
		<category><![CDATA[workers]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57611</guid>

					<description><![CDATA[Mi columna de esta semana en el diario económico de El Español, Invertia, se titula «La nueva obediencia digital: sin inteligencia artificial, quizá dejes de ser empleable» (pdf), y trata sobre una transformación que me parece mucho más profunda de lo que sugiere la conversación habitual sobre productividad, automatización o «nuevas herramientas». Durante un tiempo,  <a href="https://www.enriquedans.com/2026/04/la-empleabilidad-algoritmica.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-full is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/04/AI-employability-Dall·E.jpg"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/04/AI-employability-Dall·E.jpg" alt="IMAGE: A person stands before an AI figure displaying approval and rejection symbols, suggesting evaluation or judgment." class="wp-image-57638" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/04/AI-employability-Dall·E.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/04/AI-employability-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/04/AI-employability-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/04/AI-employability-Dall·E-768x768.jpg 768w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Mi columna de esta semana en el diario económico de El Español, Invertia, se titula «<a href="https://www.elespanol.com/invertia/opinion/20260408/nueva-obediencia-digital-sin-inteligencia-artificial-dejes-empleable/1003744197120_13.html" target="_blank" rel="noreferrer noopener">La nueva obediencia digital: sin inteligencia artificial, quizá dejes de ser empleable</a>» (<a href="https://www.enriquedans.com/wp-content/uploads/2026/04/IA-y-empleabilidad-Invertia.pdf" target="_blank" rel="noreferrer noopener">pdf</a>), y trata sobre una transformación que me parece mucho más profunda de lo que sugiere la conversación habitual sobre productividad, automatización o «nuevas herramientas». Durante un tiempo, la inteligencia artificial en el trabajo fue presentada como una posibilidad, como un recurso adicional para quien quisiera experimentar y ganar eficiencia. Pero esa fase está terminando muy deprisa. En muchas empresas tecnológicas, <a href="https://www.wsj.com/tech/ai/tech-firms-arent-just-encouraging-their-workers-to-use-ai-theyre-enforcing-it-d43ebf84" target="_blank" rel="noreferrer noopener">el uso de la inteligencia artificial está dejando de ser voluntario para convertirse en un requisito explícito o implícito</a>, incorporado a evaluaciones de desempeño, procesos de selección y expectativas cotidianas de rendimiento. Ya no se trata de que puedas usarla: <a href="https://www.wsj.com/tech/ai/ai-work-use-performance-reviews-1e8975df" target="_blank" rel="noreferrer noopener">se empieza a asumir que debes hacerlo</a>.</p>



<p>Eso cambia completamente la naturaleza del debate. Cuando <a href="https://www.fastcompany.com/91517123/failing-to-use-ai-at-work-could-cost-you-your-job" target="_blank" rel="noreferrer noopener">una herramienta pasa de opcional a obligatoria</a>, deja de ser sólo tecnología y se convierte en una forma de disciplina laboral. La cuestión ya no es si ChatGPT, Copilot o el agente de turno te ayudan a trabajar mejor, sino qué ocurre cuando la empresa decide que tu valor profesional depende de tu disposición a integrarlos en cada tarea. El artículo del Wall Street Journal lo describe con bastante claridad al documentar cómo grandes tecnológicas y compañías de servicios empiezan a medir el uso de inteligencia artificial, a premiarlo y, en algunos casos, a penalizar su ausencia. No estamos ante una moda corporativa, sino ante la construcción de un nuevo estándar de normalidad laboral.</p>



<p>Naturalmente, esa normalidad se vende con el envoltorio más previsible del mundo: «adaptación», «eficiencia», «futuro del trabajo», <em>«upskilling»</em>. Google, por ejemplo, ha lanzado en Europa <a href="https://blog.google/company-news/inside-google/around-the-globe/google-europe/ai-works-for-europe/" target="_blank" rel="noreferrer noopener">toda una narrativa sobre cómo la inteligencia artificial puede impulsar crecimiento, formación y competitividad</a>, mientras Salesforce presume de <a href="https://www.salesforce.com/news/stories/daily-ai-workforce-use-growth/" target="_blank" rel="noreferrer noopener">aumentos muy fuertes en el uso diario de inteligencia artificial entre trabajadores del conocimiento</a> y de <a href="https://www.salesforce.com/news/stories/agentic-ai-impact-on-workforce-research/" target="_blank" rel="noreferrer noopener">una expectativa creciente de rediseño de plantillas y funciones en torno a agentes y automatización</a>. Nada sorprendente: las compañías que han invertido miles de millones en inteligencia artificial necesitan demostrar que su adopción interna es real, irreversible y ejemplarizante. </p>



<p>El problema es que, como ocurre siempre, los costes de esa supuesta modernización no se reparten de forma homogénea. La OCDE lleva tiempo advirtiendo de que <a href="https://www.oecd.org/en/publications/algorithmic-management-in-the-workplace_287c13c4-en.html" target="_blank" rel="noreferrer noopener">la gestión algorítmica del trabajo no solo organiza tareas: también monitoriza, clasifica, recomienda, puntúa y condiciona la autonomía profesional</a>. Y la OIT ha señalado que <a href="https://www.ilo.org/publications/generative-ai-and-jobs-refined-global-index-occupational-exposure" target="_blank" rel="noreferrer noopener">la exposición a la inteligencia artificial generativa se concentra especialmente en tareas administrativas y de oficina</a>, es decir, precisamente en actividades donde la promesa de «asistencia» puede convertirse muy deprisa en una lógica de sustitución parcial, intensificación del control o degradación del margen de decisión. El FMI, además, advierte de que <a href="https://www.imf.org/en/publications/staff-discussion-notes/issues/2024/01/14/gen-ai-artificial-intelligence-and-the-future-of-work-542379" target="_blank" rel="noreferrer noopener">la inteligencia artificial puede aumentar la desigualdad si complementa sobre todo a los trabajadores ya mejor situados en términos de cualificación e ingresos</a>.</p>



<p>Visto desde España, la cuestión adquiere un interés particular, porque aquí la discusión sobre inteligencia artificial suele oscilar entre el entusiasmo vacío y la retórica institucional, pero muy pocas veces aterriza en la estructura real del empleo. <a href="https://digital-strategy.ec.europa.eu/en/factpages/spain-2025-digital-decade-country-report" target="_blank" rel="noreferrer noopener">La Comisión Europea reconoce que España tiene fortalezas en conectividad y en ciertas competencias digitales de base</a>, pero también sigue señalando <a href="https://www.oecd.org/en/publications/generative-ai-and-the-sme-workforce_2d08b99d-en.html" target="_blank" rel="noreferrer noopener">debilidades persistentes en la digitalización empresarial, especialmente en las PYMEs</a>. Y como las PYMEs siguen siendo el núcleo de nuestro tejido productivo, eso significa que la transición hacia la inteligencia artificial obligatoria no va a vivirse igual en todas partes. Las grandes empresas podrán formar, comprar licencias, rediseñar procesos y repartir costes. Las pequeñas, muchas veces, simplemente trasladarán la presión al trabajador. </p>



<p>Ahí está, de hecho, la parte más importante del problema. Si la «empleabilidad» empieza a definirse por la familiaridad práctica con herramientas de inteligencia artificial, pero el acceso a esa familiaridad depende del tipo de empresa en la que trabajas, entonces la inteligencia artificial deja de ser solo una innovación y se convierte en un nuevo mecanismo de segmentación laboral. No entre los que saben mucho y los que saben poco, sino entre los que tienen organizaciones capaces de absorber la curva de aprendizaje y los que tienen que improvisarla en soledad, fuera de horario y sin criterios claros. La propia OCDE, en su trabajo sobre inteligencia artificial generativa y pymes, subraya que estas pueden beneficiarse mucho de la tecnología, sí, pero también que encuentran barreras muy concretas en recursos, capacidades y gobernanza. </p>



<p>Y eso ocurre, además, en un mercado laboral español que sigue arrastrando vulnerabilidades estructurales. La OCDE destaca <a href="https://www.oecd.org/en/publications/oecd-employment-outlook-2025-country-notes_f91531f7-en/spain_ded48eec-en.html" target="_blank" rel="noreferrer noopener">la persistencia de retos en productividad, calidad del empleo y formación continua</a>, mientras Eurostat sigue mostrando <a href="https://ec.europa.eu/eurostat/statistics-explained/index.php" target="_blank" rel="noreferrer noopener">el peso desproporcionado de la temporalidad en determinados segmentos del mercado de trabajo europeo</a>, una realidad que en España tiene una relevancia obvia. <a href="https://www.ft.com/content/ee2b05f2-3cf1-4d45-874d-3552a5f43555" target="_blank" rel="noreferrer noopener">Aunque el empleo haya mejorado y el desempleo haya caído</a>, eso no elimina la fragilidad de muchos itinerarios laborales ni la facilidad con la que un nuevo requisito tecnológico puede convertirse en filtro social.</p>



<p>Por eso me interesa tanto este tema: porque desmonta la ficción de que la adaptación es un asunto puramente individual. Claro que cada trabajador tendrá que aprender, experimentar y encontrar su sitio en entornos cada vez más mediados por inteligencia artificial, pero cuando una empresa exige uso de inteligencia artificial sin dedicar tiempo, recursos, formación y criterios transparentes a esa transición, no está innovando: está externalizando costes. Está diciendo, básicamente, «actualízate tú, asume tú los riesgos, aprende tú por tu cuenta y acepta que tu evaluación dependa de herramientas cuyo funcionamiento, sesgos y límites no controlas». Y eso, más que futuro del trabajo, se parece bastante a una nueva obediencia digital.</p>



<p>La cuestión, en el fondo, no es tecnológica, es política y laboral. Si aceptamos sin más que la inteligencia artificial pase de ser herramienta opcional a condición tácita de empleabilidad, deberíamos al menos discutir quién define ese estándar, con qué garantías, con qué derechos para los trabajadores y con qué apoyo real para las empresas pequeñas. Porque si no lo hacemos, la inteligencia artificial no va a «democratizar» nada: va a funcionar como otro acelerador de desigualdad, otro instrumento de control y otra forma de clasificar quién merece seguir dentro y quién puede ser tratado como perfectamente prescindible. </p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is openly available in English on Medium, «<a href="https://medium.com/enrique-dans/when-ai-stops-being-a-tool-and-becomes-a-job-requirement-db36549099b0?sk=69a2046ffafa7b75a0969203c413fe08" data-type="link" data-id="https://medium.com/enrique-dans/when-ai-stops-being-a-tool-and-becomes-a-job-requirement-db36549099b0?sk=69a2046ffafa7b75a0969203c413fe08" target="_blank" rel="noreferrer noopener">When AI stops being a tool and becomes a job requirement</a>» </em></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/04/la-empleabilidad-algoritmica.html/feed</wfw:commentRss>
			<slash:comments>23</slash:comments>
		
		
			</item>
		<item>
		<title>A la industria de la inteligencia artificial le encanta la inflación de tokens. A tu empresa no debería&#8230;</title>
		<link>https://www.enriquedans.com/2026/04/a-la-industria-de-la-inteligencia-artificial-le-encanta-la-inflacion-de-tokens-a-tu-empresa-no-deberia.html</link>
					<comments>https://www.enriquedans.com/2026/04/a-la-industria-de-la-inteligencia-artificial-le-encanta-la-inflacion-de-tokens-a-tu-empresa-no-deberia.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Tue, 07 Apr 2026 10:27:04 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[agentic]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[Anthropic]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[Claude]]></category>
		<category><![CDATA[context]]></category>
		<category><![CDATA[Fast Company]]></category>
		<category><![CDATA[OpenClaw]]></category>
		<category><![CDATA[tokens]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57621</guid>

					<description><![CDATA[La industria de la inteligencia artificial tiene un problema de adicción silencioso: está enganchada a los tokens. Cada nueva generación de inteligencia artificial agéntica parece asumir que la respuesta a la complejidad es lanzar más contexto al modelo, mantener historiales más largos, generar más llamadas, iterar sobre más herramientas y dejar que el contador de  <a href="https://www.enriquedans.com/2026/04/a-la-industria-de-la-inteligencia-artificial-le-encanta-la-inflacion-de-tokens-a-tu-empresa-no-deberia.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-full is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/04/Token-inflation-Dall·E.jpg"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/04/Token-inflation-Dall·E.jpg" alt="IMAGE: A split scene shows, on one side, a chaotic flood of glowing tokens and industrial AI systems, and on the other, a calm workspace where a person carefully builds a structured stack of relevant information, symbolizing efficient AI use " class="wp-image-57622" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/04/Token-inflation-Dall·E.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/04/Token-inflation-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/04/Token-inflation-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/04/Token-inflation-Dall·E-768x768.jpg 768w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>La industria de la inteligencia artificial tiene un problema de adicción silencioso: está enganchada a los <em>tokens</em>.</p>



<p>Cada nueva generación de inteligencia artificial agéntica parece asumir que la respuesta a la complejidad es lanzar más contexto al modelo, mantener historiales más largos, generar más llamadas, iterar sobre más herramientas y dejar que el contador de <em>tokens</em> se dispare.</p>



<p>El auge de los sistemas agénticos, y ahora de proyectos como <a href="https://docs.openclaw.ai/" target="_blank" rel="noreferrer noopener">OpenClaw</a>, refuerza aún más esa tentación: en cuanto das más autonomía a los modelos, no solo consumen <em>tokens</em> para responder preguntas. Los consumen para planificar, reflexionar, reintentar, resumir, llamar a herramientas, inspeccionar resultados y mantenerse en el camino. OpenClaw se define a sí mismo como una puerta de enlace <em>agent-native</em> con sesiones, memoria, uso de herramientas y enrutamiento multiagente a través de plataformas de mensajería, lo que deja claro hacia dónde vamos: más autonomía, más orquestación y, salvo que alguien lo corrija, mucho más consumo de <em>tokens</em>.</p>



<p>Esa trayectoria entusiasma a casi todos los que venden la infraestructura. Si la facturación se basa en <em>tokens</em>, más consumo significa más crecimiento. Si vendes el cómputo que hay detrás de esos <em>tokens</em>, mejor todavía. Google señaló en sus <a href="https://abc.xyz/investor/events/event-details/2025/2025-Q3-Earnings-Call-2025-4OI4Bac_Q9/default.aspx" target="_blank" rel="noreferrer noopener">resultados de octubre de 2025</a> que estaba procesando <strong>más de 1.3 cuatrillones de <em>tokens</em> mensuales</strong> en sus plataformas, más de veinte veces el volumen de un año antes. NVIDIA, por su parte, está <a href="https://nvidianews.nvidia.com/news/nvidia-announces-financial-results-for-fourth-quarter-and-fiscal-2026" target="_blank" rel="noreferrer noopener">apostando claramente por la economía de la inferencia y la inteligencia artificial agéntica</a>, subrayando tanto el aumento de la demanda como la oportunidad de vender cada vez más infraestructura.</p>



<p>Pero las empresas que compran inteligencia artificial deberían verlo de otra manera. Porque, desde el punto de vista del cliente, el crecimiento explosivo del consumo de <em>tokens</em> no es necesariamente una señal de inteligencia. En muchos casos, es una señal de ineficiencia.</p>



<p></p>



<p><strong>Más <em>tokens</em> no equivalen a más inteligencia</strong></p>



<p>El relato dominante en la industria trata el consumo de <em>tokens</em> como si fuera un indicador de progreso. Ventanas de contexto más grandes, más trazas de razonamiento, más bucles de agentes, más memoria, más recuperación, más interacciones. Todo suena impresionante.</p>



<p>Pero un sistema que necesita ingerir y regenerar enormes cantidades de contexto en cada paso no es necesariamente más inteligente. Puede simplemente estar mal diseñado.</p>



<p>La propia <a href="https://www.anthropic.com/engineering/effective-context-engineering-for-ai-agents" target="_blank" rel="noreferrer noopener">guía de ingeniería de Anthropic</a> lo deja sorprendentemente claro. Su equipo defiende que el contexto debe tratarse como un recurso finito, y que una buena ingeniería de contexto consiste en encontrar «el conjunto más pequeño posible de <em>tokens</em> de alta señal» para cada tarea. No es una optimización marginal. Es una filosofía completamente distinta. Viene a decir que el futuro no pertenece a los sistemas que pueden tragarse más contexto, sino a los que saben qué contexto importa de verdad.</p>



<p>Esa distinción se vuelve crítica a medida que se extienden los flujos de trabajo agénticos. En cuanto permites que un sistema de inteligencia artificial actúe de forma iterativa, utilice herramientas, revise planes y mantenga estado de sesión, el consumo de <em>tokens</em> se multiplica rápidamente. Lo que desde fuera parece una única tarea puede implicar múltiples prompts ocultos, subconsultas, resúmenes y reintentos. <a href="https://www.deloitte.com/us/en/services/consulting/articles/how-to-navigate-economics-of-ai.html" target="_blank" rel="noreferrer noopener">Deloitte ya describe los <em>tokens</em> como la nueva moneda de la economía de la inteligencia artificial</a>, precisamente porque la estructura de los sistemas agénticos altera radicalmente la dinámica de costes.</p>



<p>Y, sin embargo, muchas empresas siguen comportándose como si escalar fuera suficiente para resolver el problema.</p>



<p>No lo es.</p>



<p></p>



<p><strong>El contexto largo no es gratis</strong></p>



<p>Uno de los mitos más persistentes en la inteligencia artificial empresarial es que, si algo de contexto es bueno, más contexto tiene que ser mejor. Esa suposición siempre fue simplista, y la evidencia en su contra es cada vez más sólida.</p>



<p>El paper <em>«<a href="https://aclanthology.org/2024.tacl-1.9.pdf" target="_blank" rel="noreferrer noopener">Lost in the Middle</a>«</em> mostró que los modelos de lenguaje tienen dificultades para utilizar información relevante cuando está enterrada en contextos largos, funcionando mejor cuando la información clave aparece al principio o al final. Más recientemente, la evaluación de contexto largo de Chroma en 18 modelos encontró que <a href="https://www.trychroma.com/research/context-rot" target="_blank" rel="noreferrer noopener">el rendimiento se vuelve cada vez más inestable a medida que crece la longitud de entrada</a>. En otras palabras, llega un punto en el que más <em>tokens</em> dejan de aportar inteligencia y empiezan a aportar sólo ruido.</p>



<p>Es aquí donde el enfoque de fuerza bruta empieza a parecer menos una inevitabilidad tecnológica y más una arquitectura perezosa. Si tu respuesta a cada nueva necesidad es meter más contenido en el prompt, conservar cada interacción para siempre y mantener todos los artefactos intermedios en la ventana activa de contexto, no estás construyendo un mejor sistema de inteligencia artificial. Estás construyendo uno más caro y, probablemente, peor.</p>



<p><strong>La verdadera frontera es la ingeniería de contexto</strong></p>



<p>El futuro interesante no es «más grande y más voraz». Es <strong>más selectivo, más estructurado y más deliberado</strong>. Por eso el concepto emergente más importante en la inteligencia artificial aplicada puede no ser la ingeniería de <em>prompts</em>, sino la <strong>ingeniería de contexto</strong>.</p>



<p>Anthropic define explícitamente la ingeniería de contexto como el siguiente paso tras la ingeniería de prompts. OpenAI ofrece recuperación (<em><a href="https://developers.openai.com/api/docs/guides/retrieval" target="_blank" rel="noreferrer noopener">retrieval</a></em>) y <em><a href="https://developers.openai.com/api/docs/guides/prompt-caching" target="_blank" rel="noreferrer noopener">prompt caching</a></em> para evitar enviar repetidamente grandes volúmenes de información. Google ofrece <em><a href="https://docs.cloud.google.com/vertex-ai/generative-ai/docs/context-cache/context-cache-overview" target="_blank" rel="noreferrer noopener">context caching</a></em> para reutilizar contextos iniciales extensos. Las <a href="https://learn.microsoft.com/en-us/azure/search/retrieval-augmented-generation-overview?tabs=videos" target="_blank" rel="noreferrer noopener">recomendaciones de Microsoft sobre RAG</a> y <em><a href="https://learn.microsoft.com/en-us/azure/architecture/ai-ml/guide/rag/rag-chunking-phase">chunking</a></em> son igual de claras: enviar documentos completos o fragmentos sobredimensionados es caro, puede saturar los límites de <em>tokens</em> y a menudo produce peores resultados que pipelines de recuperación bien diseñados.</p>



<p>Un ejemplo reciente lo ilustra perfectamente: <a href="https://venturebeat.com/technology/anthropic-cuts-off-the-ability-to-use-claude-subscriptions-with-openclaw-and" target="_blank" rel="noreferrer noopener">la decisión de Anthropic de cortar el acceso a Claude desde entornos como OpenClaw cuando se utilizaban suscripciones planas</a>. En cuanto los sistemas agénticos empezaron a ejecutar bucles autónomos —planificando, iterando y llamando herramientas sin fricción— el consumo de <em>tokens</em> dejó de ser marginal y pasó a ser explosivo. Lo que desde fuera parecía «más inteligencia» era, en realidad, una arquitectura que quemaba <em>tokens</em> a una velocidad incompatible con los modelos de <em>pricing</em> existentes. La <a href="https://www.theverge.com/ai-artificial-intelligence/907074/anthropic-openclaw-claude-subscription-ban" target="_blank" rel="noreferrer noopener">rápida reacción del proveedor</a> no es una anomalía: es una señal estructural. Cuando el coste real aflora, los límites aparecen. Y eso debería hacer reflexionar a cualquier empresa: si tu sistema depende de supuestos económicos o contractuales que pueden romperse en cuanto el uso se vuelve intensivo, no tienes una ventaja tecnológica. Tienes una dependencia frágil disfrazada de capacidad.</p>



<p>No son técnicas marginales. Son señales claras de que la era de la fuerza bruta tiene límites.</p>



<p>El patrón es evidente. El <em>stack</em> empresarial del futuro no consistirá en reenviar ciegamente todo lo que una empresa sabe a un modelo en cada interacción. Se basará en mejor arquitectura: capas de recuperación, control de accesos, memoria selectiva, resúmenes jerárquicos, compresión de contexto, caché, enrutamiento y planificación de consultas.</p>



<p>En otras palabras, se basará en ingeniería.</p>



<p></p>



<p><strong>Por qué la economía actual es engañosa</strong></p>



<p>Aquí es donde los incentivos se distorsionan.</p>



<p>Los proveedores de modelos pueden vivir perfectamente en un mundo en el que los clientes creen que el crecimiento de <em>tokens</em> es natural, inevitable e incluso deseable. Más llamadas, más contexto, más bucles, más ingresos. Los fabricantes de GPUs también salen ganando cuando la demanda de inferencia sigue creciendo.</p>



<p>Y, por supuesto, parte de esa demanda es legítima. Hay casos de uso reales que requieren más contexto, más modalidades y una inferencia más sofisticada. Pero sería un error confundir «hay demanda» con «no hay desperdicio».</p>



<p>OpenAI afirma que <a href="https://developers.openai.com/api/docs/guides/prompt-caching" target="_blank" rel="noreferrer noopener">el <em>prompt caching</em> puede reducir la latencia hasta en un 80% y los costes de <em>tokens</em> de entrada hasta en un 90%</a> en contenidos repetidos. Google señala que <a href="https://docs.cloud.google.com/vertex-ai/generative-ai/docs/context-cache/context-cache-overview" target="_blank" rel="noreferrer noopener">el <em>context caching</em> es especialmente útil cuando se reutiliza un contexto inicial amplio</a>. Microsoft afirma que <a href="https://learn.microsoft.com/en-us/azure/architecture/ai-ml/guide/rag/rag-chunking-phase" target="_blank" rel="noreferrer noopener">un buen <em>chunking</em> elimina información irrelevante y mejora tanto el coste como la calidad</a>. Ninguna de estas capacidades sería relevante si el enfoque de fuerza bruta fuera ya eficiente. Su mera existencia demuestra que una arquitectura inteligente supera al uso indiscriminado de <em>tokens</em>.</p>



<p>Por eso las empresas deberían ser muy cautas al adoptar el lenguaje de los proveedores que les venden computación. «Más capaz» y «más caro de ejecutar» no son sinónimos. <strong>La industria de la inteligencia artificial está monetizando la inflación de <em>tokens</em>. Las empresas inteligentes diseñarán sistemas para escapar de ella</strong>.</p>



<p></p>



<p><strong>La ventaja competitiva vendrá de entender tu propio contexto</strong></p>



<p>Aquí es donde este análisis deja de ser una queja sobre costes. Porque la verdadera oportunidad no es solo reducir la factura de <em>tokens</em>. Es construir mejores sistemas.</p>



<p>Una empresa que entiende su propia estructura de conocimiento, sus permisos internos, sus flujos de trabajo, su terminología y su lógica de decisión no debería tener que abordar cada interacción con un sistema de inteligencia artificial como si hablara con un desconocido desde cero. Debería ser capaz de arquitectar el contexto de forma inteligente: recuperar la información adecuada en el momento adecuado, preservar lo relevante, descartar lo superfluo y anclar las respuestas en su propia lógica interna.</p>



<p>No es una mejora menor. Cambia radicalmente la economía de la inteligencia artificial empresarial.</p>



<p>Si la plataforma de la empresa está bien diseñada, el modelo no debería tener que cargar con todo el mundo en su memoria activa constantemente. Debería trabajar con un subconjunto dinámico, curado y de alta señal. La <a href="https://learn.microsoft.com/en-us/azure/search/retrieval-augmented-generation-overview?tabs=videos" target="_blank" rel="noreferrer noopener">arquitectura de recuperación agéntica de Microsoft</a> apunta exactamente en esa dirección: subconsultas enfocadas, respuestas estructuradas, citas, filtrado de seguridad y anclaje en fuentes de conocimiento, en lugar de saturar el contexto indiscriminadamente.</p>



<p>Por eso mismo argumenté en otro artículo que «<a href="https://www.enriquedans.com/2026/03/la-inteligencia-artificial-no-sustituye-a-la-estrategia-la-deja-al-descubierto.html" target="_blank" rel="noreferrer noopener">la inteligencia artificial no sustituye a la estrategia: la dejará al descubierto</a>«. Aquí ocurre lo mismo. La inteligencia artificial no solo revelará si has adoptado el último modelo. Revelará si tu empresa entiende realmente su propia arquitectura de información o si ha estado operando en una niebla de documentos desconectados, permisos inconsistentes y procesos fragmentados.</p>



<p></p>



<p><strong>Qué premiará realmente la próxima fase de la inteligencia artificial</strong></p>



<p>Las empresas que ganen en la próxima fase de la inteligencia artificial no serán las que puedan pagar las mayores facturas de <em>tokens</em>. Serán las que construyan sistemas que no las necesiten.</p>



<p>Tratarán los <em>tokens</em> como los buenos ingenieros tratan el ancho de banda, la batería o la latencia: no como recursos infinitos que se consumen sin pensar, sino como restricciones que premian el diseño inteligente. Guardarán la mayor parte del contexto en modelos del mundo. Usarán modelos grandes cuando tenga sentido. Usarán recuperación cuando sea suficiente. Cachearán el contexto repetido. Enrutarán tareas simples a modelos más baratos. Gestionarán la memoria en lugar de idealizarla. Distinguirán entre contexto disponible y contexto útil.</p>



<p>Y, sobre todo, dejarán de confundir fuerza bruta con sofisticación. Esa es la parte del relato actual de la inteligencia artificial que necesita una corrección urgente. La industria nos empuja a imaginar un futuro en el que el consumo creciente de <em>tokens</em> es simplemente el precio del progreso.</p>



<p>Probablemente no lo sea. Es, al menos en parte, el precio de una arquitectura inmadura. Y la arquitectura madura tiene una forma muy eficaz de destruir malos modelos de negocio.</p>



<p><strong>El futuro de la inteligencia artificial no pertenecerá a las empresas que consuman más <em>tokens</em>. Pertenecerá a las que sepan necesitar menos. </strong></p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>(This article was <a href="https://www.fastcompany.com/91517855/ai-industry-loves-token-inflation-your-company-shouldnt">previously published on Fast Company</a>)</em> </p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/04/a-la-industria-de-la-inteligencia-artificial-le-encanta-la-inflacion-de-tokens-a-tu-empresa-no-deberia.html/feed</wfw:commentRss>
			<slash:comments>10</slash:comments>
		
		
			</item>
		<item>
		<title>Colorado y el fin del frenar solo durante el tramo de radar</title>
		<link>https://www.enriquedans.com/2026/04/colorado-y-el-fin-del-frenar-solo-durante-el-tramo-de-radar.html</link>
					<comments>https://www.enriquedans.com/2026/04/colorado-y-el-fin-del-frenar-solo-durante-el-tramo-de-radar.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Mon, 06 Apr 2026 08:28:33 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[automotive]]></category>
		<category><![CDATA[drivers]]></category>
		<category><![CDATA[driving]]></category>
		<category><![CDATA[fines]]></category>
		<category><![CDATA[radar]]></category>
		<category><![CDATA[speed]]></category>
		<category><![CDATA[speeding ticket]]></category>
		<category><![CDATA[surveillance]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57614</guid>

					<description><![CDATA[Durante años, demasiados conductores han entendido el control de velocidad no como una norma, sino como un pequeño juego de estrategia: correr cuando el asfalto parece libre, mirar el móvil cuando Waze o el detector avisan, levantar el pie justo antes del radar y volver a acelerar unos metros después. No era conducción responsable, sólo  <a href="https://www.enriquedans.com/2026/04/colorado-y-el-fin-del-frenar-solo-durante-el-tramo-de-radar.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-full is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/04/Speed-camera-Dall·E.jpg"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/04/Speed-camera-Dall·E.jpg" alt="IMAGE: A highway scene with multiple cars driving under a network of automated speed cameras, one prominently scanning vehicles and tracking their average speed across the road " class="wp-image-57615" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/04/Speed-camera-Dall·E.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/04/Speed-camera-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/04/Speed-camera-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/04/Speed-camera-Dall·E-768x768.jpg 768w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Durante años, demasiados conductores han entendido el control de velocidad no como una norma, sino como un pequeño juego de estrategia: correr cuando el asfalto parece libre, mirar el móvil cuando Waze o el detector avisan, levantar el pie justo antes del radar y volver a acelerar unos metros después. No era conducción responsable, sólo picaresca automatizada.</p>



<p>Lo que está haciendo ahora Colorado con su <a href="https://www.codot.gov/programs/speedenforcement">Colorado Speed Enforcement Program</a>, sin embargo, cambia por completo esa lógica: como los <a href="https://www.dgt.es/comunicacion/noticias/que-es-un-radar-de-tramo/" target="_blank" rel="noreferrer noopener">radares de tramo</a> en España, ya no mide si ibas demasiado rápido en un punto, sino <a href="https://www.codot.gov/programs/speedenforcement/faq" target="_blank" rel="noreferrer noopener">si has circulado demasiado rápido a lo largo de un tramo</a>. Y eso convierte el viejo truco del frenazo puntual en algo prácticamente inútil. </p>



<p>Este sistema se apoya en cámaras de control de velocidad separadas entre sí, normalmente entre un cuarto y media milla en las zonas de obra. <a href="https://www.motor1.com/news/792050/colorado-automated-speed-limit-cameras/" target="_blank" rel="noreferrer noopener">Cada vez que un vehículo pasa por una de ellas, el sistema registra imagen, matrícula y marca temporal. Después calcula la velocidad media entre dos puntos dividiendo la distancia recorrida por el tiempo empleado</a>. Si esa media supera el límite aplicable, <a href="https://www.codot.gov/news/2026/march-2026-news/speeding-fines-begin-april2-i25-mead-berthoud" target="_blank" rel="noreferrer noopener">llega una multa</a>. No importa tanto lo que hiciste justo delante de la cámara como lo que hiciste durante todo el trayecto vigilado. Eso es lo verdaderamente disruptivo del modelo, y también lo que lo hace mucho más difícil de esquivar con hábitos oportunistas. </p>



<p>En el caso concreto que ha llamado la atención en Colorado, el estado ha activado ocho cámaras en ambos sentidos de la I-25 entre Mead y Berthoud, en una zona de obras, situadas en los hitos 244.3, 245.9, 247.5 y 249.4, según el <a href="https://www.codot.gov/programs/speedenforcement/cameralocations" target="_blank" rel="noreferrer noopener">mapa oficial de ubicaciones activas</a>. El estado anunció <a href="https://www.motor1.com/news/792050/colorado-automated-speed-limit-cameras/" target="_blank" rel="noreferrer noopener">un período de advertencias desde el 1 de marzo y el inicio de las sanciones el 2 de abril</a>, y tras ese período, las multas pasaron a ser de 75 dólares en zonas de obra, y se envían directamente al propietario registrado del vehículo. El propio departamento explica además que la señalización debe colocarse con antelación, y que los avisos públicos son obligatorios antes de activar el sistema. En realidad, poca novedad: <a href="https://motor.elpais.com/actualidad/el-radar-de-tramo-que-se-te-olvida-mientras-conduces-asi-funciona-el-mas-extenso-y-temido-de-espana/" target="_blank" rel="noreferrer noopener">en España hay radares de tramo que abarcan hasta 32,9 kilómetros</a>. </p>



<p>Ese detalle, que la sanción recaiga sobre el propietario registrado y no necesariamente sobre quien conducía, introduce otra capa interesante. No estamos ya ante el viejo agente apostado con radar, que detiene a una persona concreta y la identifica en el acto, sino ante una lógica de responsabilidad administrativa vinculada al vehículo. La página legislativa de la <a href="https://leg.colorado.gov/bills/sb23-200" target="_blank" rel="noreferrer noopener">SB23-200</a> deja claro que el estado abrió la puerta a estos sistemas en 2023, exigiendo además 30 días de anuncio público y otros 30 días iniciales solo con advertencias. Las preguntas frecuentes oficiales de CDOT añaden que estas infracciones no conllevan puntos en el carnet, pero sí un proceso de cobro y apelación con plazos definidos. Es una evolución muy significativa: menos castigo penalizado en puntos, más automatización administrativa, más trazabilidad y menos margen para la improvisación del conductor.</p>



<p>Lo verdaderamente interesante, sin embargo, no es la multa, sino el cambio cultural que implica. El conductor que solo reduce la velocidad al pasar por el radar deja de tener ventaja. Si acelera entre cámara y cámara, la media lo delata. Dicho de otro modo: el sistema no obliga a parecer obediente durante tres segundos, sino a comportarse de manera consistente a lo largo de todo el tramo monitorizado. Esa es precisamente la razón por la que este modelo erosiona el valor tradicional de las alertas puntuales de apps de navegación. Saber dónde está una cámara sirve de poco si lo que se vigila no es un punto, sino una secuencia. La única manera fiable de no ser sancionado deja de ser el frenazo teatral y pasa a ser algo mucho menos glamuroso: respetar el límite durante todo el recorrido controlado. Esa conclusión se desprende directamente del funcionamiento oficial del sistema.</p>



<p>Desde la perspectiva de la seguridad vial, el razonamiento del estado no es caprichoso. <a href="https://www.cpr.org/2024/06/04/speed-cameras-are-coming-to-a-colorado-highway-construction-zone-near-you/" target="_blank" rel="noreferrer noopener">La expansión de estos sistemas se plantea primero en zonas de obras, precisamente porque son entornos peligrosos y difíciles de vigilar con presencia policial convencional</a>. CDOT sostiene ahora que en la I-25, durante el período de advertencias, las velocidades excesivas en el corredor cayeron un 90%, y que en el corredor anterior de la CO119 habían caído en más de un 80%. Son cifras oficiales que habrá que seguir con cuidado, porque proceden de la propia administración interesada en demostrar la eficacia del programa, pero apuntan a algo razonable: cuando el control deja de ser esporádico y se vuelve continuo, la conducta cambia.</p>



<p>Y no se trata solo de una intuición de despacho. La evidencia acumulada sobre radares y cámaras de velocidad es bastante consistente. Un <a href="https://www.cochrane.org/evidence/CD004607_do-speed-cameras-reduce-road-traffic-crashes-injuries-and-deaths" target="_blank" rel="noreferrer noopener">estudio</a> concluyó que las cámaras de velocidad son una intervención útil para reducir lesiones y muertes por tráfico, con reducciones observadas en velocidad media, en proporción de conductores que exceden el límite y en siniestros graves cerca de los puntos controlados. El Insurance Institute for Highway Safety va en la misma dirección y <a href="https://www.iihs.org/media/bfb25e65-6fae-40eb-a8a6-56f112b321d7/SFohNg/Topics/Research%20summaries/IIHS-HLDI%20Safety%20Solution%E2%80%94speed%20safety%20cameras.pdf">ofrece resultados que vinculan estas tecnologías con menos excesos de velocidad y menos accidentes graves</a>. Uno puede discutir cómo se implantan, con qué garantías y con qué límites, pero cada vez resulta más difícil sostener seriamente que no sirven para modificar comportamientos. </p>



<p>La parte incómoda, por supuesto, es otra. Cada vez que una administración implanta un sistema así, aparece la discusión sobre vigilancia, privacidad, recaudación y despersonalización del castigo, y no le falta cierta razón. La FAQ oficial insiste en que las imágenes solo se conservan cuando hay infracción, que los materiales asociados son confidenciales y que se destruyen en un plazo de hasta tres años tras resolverse el caso. Todo eso está muy bien, pero no elimina la cuestión de fondo: estamos normalizando infraestructuras que convierten la carretera en un espacio cada vez más medido, más trazable y más gobernado por sistemas automáticos. El radar deja de ser una excepción visible y se convierte en una capa ambiental del tráfico. </p>



<p>La pregunta, en realidad, no es si Colorado ha encontrado una forma más eficaz de multar. La pregunta es si estamos asistiendo al final de una cultura de conducción basada en la simulación del cumplimiento. Durante décadas muchos conductores no han respetado los límites: han respetado, como mucho, la posibilidad de ser cazados. El sistema de velocidad media ataca exactamente esa hipocresía. Obliga a cumplir de verdad, no únicamente a escenificar el cumplimiento. Y ahí reside toda su fuerza, pero también toda su carga simbólica: no corrige solo una infracción, corrige toda una manera de pensar. </p>



<p>Por eso la novedad de Colorado merece atención. No porque una <em>app</em> vaya a avisar menos, sino porque introduce una idea mucho más profunda y probablemente irreversible: en la carretera del futuro, la trampa del último segundo vale cada vez menos. El conductor que antes jugaba a esconderse del radar tendrá que elegir entre dos opciones mucho menos divertidas: conducir dentro de la norma o financiar, de multa en multa, la pedagogía tecnológica del estado. </p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is openly available in English on Medium, «<a href="https://medium.com/enrique-dans/you-cant-outsmart-this-speed-camera-it-doesn-t-care-where-you-slow-down-285f93f7092d?sk=dc67527917dc224056642f64640b1ee0" data-type="link" data-id="https://medium.com/enrique-dans/you-cant-outsmart-this-speed-camera-it-doesn-t-care-where-you-slow-down-285f93f7092d?sk=dc67527917dc224056642f64640b1ee0" target="_blank" rel="noreferrer noopener">You can’t outsmart this speed camera: it doesn’t care where you slow down</a>» </em></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/04/colorado-y-el-fin-del-frenar-solo-durante-el-tramo-de-radar.html/feed</wfw:commentRss>
			<slash:comments>30</slash:comments>
		
		
			</item>
		<item>
		<title>Pensar cansa: por eso estamos empezando a dejar que la inteligencia artificial lo haga por nosotros</title>
		<link>https://www.enriquedans.com/2026/04/pensar-cansa-por-eso-estamos-empezando-a-dejar-que-la-inteligencia-artificial-lo-haga-por-nosotros.html</link>
					<comments>https://www.enriquedans.com/2026/04/pensar-cansa-por-eso-estamos-empezando-a-dejar-que-la-inteligencia-artificial-lo-haga-por-nosotros.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Sun, 05 Apr 2026 06:16:54 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[chatbots]]></category>
		<category><![CDATA[convergence]]></category>
		<category><![CDATA[critical thinking]]></category>
		<category><![CDATA[Large Language Model]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57606</guid>

					<description><![CDATA[Hay algo profundamente tentador en una respuesta bien escrita, inmediata y aparentemente razonable. Algo que invita a asentir, copiar, pegar… y seguir adelante. Durante años hemos delegado tareas en máquinas sin mayor problema, pero lo que empieza a emerger con la inteligencia artificial generativa no es una simple delegación: es otra cosa mucho más inquietante.  <a href="https://www.enriquedans.com/2026/04/pensar-cansa-por-eso-estamos-empezando-a-dejar-que-la-inteligencia-artificial-lo-haga-por-nosotros.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-full is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/04/Cognitive-surrender-Gemini.jpg"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/04/Cognitive-surrender-Gemini.jpg" alt="IMAGE: A modern illustration showing two people. On the left, a person is zoned out while using a computer; colorful, glowing data threads come from the screen, flowing around their head like an artificial brain process. On the right, another person is actively thinking and critical, with a distinct, glowing, gear-filled thought cloud appearing above their own head " class="wp-image-57608" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/04/Cognitive-surrender-Gemini.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/04/Cognitive-surrender-Gemini-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/04/Cognitive-surrender-Gemini-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/04/Cognitive-surrender-Gemini-768x768.jpg 768w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Hay algo profundamente tentador en una respuesta bien escrita, inmediata y aparentemente razonable. Algo que invita a asentir, copiar, pegar… y seguir adelante. Durante años hemos delegado tareas en máquinas sin mayor problema, pero lo que empieza a emerger con la inteligencia artificial generativa no es una simple delegación: es otra cosa mucho más inquietante. Es lo que algunos investigadores ya llaman <em><a href="https://www.psychologytoday.com/us/blog/harnessing-hybrid-intelligence/202602/are-we-cruising-toward-cognitive-capitulation" target="_blank" rel="noreferrer noopener">cognitive surrender</a></em>, rendición cognitiva. Y el término no es exagerado. </p>



<p>La idea es sencilla, pero incómoda: no estamos usando la IA para pensar mejor, sino cada vez más para no tener que pensar. Y no porque no sepamos hacerlo, sino porque resulta más rápido, más cómodo y, sobre todo, más convincente aceptar lo que la máquina nos devuelve que someterlo al escrutinio que exigiría cualquier respuesta humana.</p>



<p>Un estudio reciente con más de mil participantes, publicado como <em>working paper</em> en SSRN y titulado «<a href="https://papers.ssrn.com/sol3/papers.cfm?abstract_id=6097646" target="_blank" rel="noreferrer noopener"><em>Thinking—fast, slow, and artificial: how AI is reshaping human reasoning and the rise of cognitive surrender</em></a>«, lo deja claro: cuando una inteligencia artificial proporciona respuestas incorrectas, los usuarios siguen aceptándolas en más de un 70% de los casos. No es solo un problema de error, <a href="https://arstechnica.com/ai/2026/04/research-finds-ai-users-scarily-willing-to-surrender-their-cognition-to-llms/" target="_blank" rel="noreferrer noopener">es un problema de sumisión</a>. Lo verdaderamente preocupante es que muchos participantes no solo fallaban, sino que lo hacían con más confianza. Se equivocaban&#8230; pero convencidos de que no lo hacían. </p>



<p>Esto no va de ignorancia, sino de comportamiento: de cómo reaccionamos ante una fuente que parece fiable, articulada y segura de sí misma. La inteligencia artificial no duda, no titubea, no muestra inseguridad. Y en un entorno saturado de incertidumbre, eso la convierte en una especie de oráculo moderno. Uno que no siempre acierta, pero que siempre suena como si lo hiciera. </p>



<p>La psicología lleva décadas estudiando algo parecido bajo otros nombres: automatización, sesgo de autoridad, dependencia cognitiva. Pero hay una diferencia clave. Antes, las máquinas eran torpes, rígidas, claramente artificiales. Ahora, el interfaz conversacional disfraza sus limitaciones bajo una capa de lenguaje natural impecable. Y eso cambia radicalmente nuestra relación con ellas. </p>



<p>Porque no evaluamos una respuesta solo por su contenido, sino por su forma. Y una frase bien construida, fluida, coherente, tiene muchas más probabilidades de ser aceptada que una torpe, incluso aunque ambas sean igual de correctas&#8230; o de incorrectas. Lo anticipé hace ya tiempo <a href="https://www.enriquedans.com/2023/01/cuando-el-algoritmo-piensa-por-ti.html" target="_blank" rel="noreferrer noopener">aquí</a>: el resultado es una externalización progresiva del razonamiento. No sólo buscamos información fuera de nuestra cabeza, algo perfectamente lógico, sino que empezamos a delegar el proceso mismo de pensar: estructurar un argumento, ponderar alternativas, detectar inconsistencias. Es decir, justo aquello que define el pensamiento crítico.</p>



<p>No todos caen igual. Quienes tienen mayor capacidad de razonamiento abstracto, lo que en psicología se denomina <em><a href="https://www.btbpsychology.com/blog/understanding-psychoeducational-testing-terms-fluid-reasoning" target="_blank" rel="noreferrer noopener">fluid reasoning</a></em>, parecen resistir mejor esa tentación. Detectan mejor cuándo algo no encaja y mantienen (o tratan de mantener, según su nivel de conocimineto de la materia) una cierta distancia crítica. Pero el diseño actual de estos sistemas no ayuda precisamente a fomentar ese comportamiento. Al contrario: todo está optimizado para reducir fricción, no para generar duda. </p>



<p>Y ahí aparece otro problema, más sutil pero igual de grave: la inteligencia artificial no solo puede equivocarse, sino que puede reforzar nuestros propios errores. Hay evidencias claras de que <a href="https://news.stanford.edu/stories/2026/03/ai-advice-sycophantic-models-research">algunos modelos tienden a comportarse de forma complaciente, a dar la razón al usuario incluso cuando no debería</a>, un modelo muy preocupante de convergencia con el usuario que algunos, infantilmente, creen que pueden contrarrestar simplemente copiando y pegando un <em>prompt</em> con variaciones de «no me des la razón». No, los LLM no corrigen, no confrontan, no incomodan. Y eso tiene consecuencias. Porque una herramienta que confirma tus sesgos es mucho más peligrosa que una que los cuestiona.</p>



<p>En el ámbito educativo, los síntomas empiezan a ser visibles. Menos esfuerzo cognitivo, sí. Pero también argumentos más superficiales, menos elaborados, menos originales. Investigaciones recientes apuntan precisamente en esa dirección: <a href="https://www.sciencedirect.com/science/article/pii/S0747563224002541" target="_blank" rel="noreferrer noopener">el uso de modelos generativos reduce la carga cognitiva, pero también la calidad del razonamiento</a>.</p>



<p>Pensar es lento, incómodo y, en muchas ocasiones, frustrante. Requiere tiempo, atención y una cierta tolerancia al error. La inteligencia artificial elimina gran parte de ese coste. Pero al hacerlo, también elimina una parte esencial del aprendizaje. Porque no es lo mismo llegar a una conclusión que recibirla. </p>



<p>El problema no es que la inteligencia artificial sea mala. El problema es que es demasiado buena en algo muy concreto: en parecer convincente. Y eso, en un contexto en el que tendemos a premiar la velocidad sobre la profundidad, crea el caldo de cultivo perfecto para la rendición cognitiva. <a href="https://news.mit.edu/2024/reasoning-skills-large-language-models-often-overestimated-0711" target="_blank" rel="noreferrer noopener">Tendemos a sobreestimar la capacidad de razonamiento de estos sistemas</a>, especialmente cuando nos movemos fuera de los contextos que nos son más familiares, y en los que nuestra capacidad de contrastar es más débil. Simplemente, aceptamos lo que nos dicen como verdad absoluta, sin rechistar. </p>



<p>No se trata de dejar de usar estas herramientas. Sería absurdo. Se trata de entender qué hacen con nosotros cuando las usamos mal. Porque la frontera no está en la tecnología, sino en la actitud. Podemos utilizarlas para pensar mejor&#8230; o para dejar de pensar. Y esa elección, aunque no lo parezca, no es técnica. Es profundamente cultural. </p>



<p>La gran paradoja de este momento es que, cuanto más accesible se vuelve la inteligencia, más valor adquiere algo mucho más escaso: el criterio. Y el criterio no se delega. O al menos, no se delega sin pagar un precio. </p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is openly available in English on Medium, «<a href="https://medium.com/enrique-dans/thinking-hurts-so-why-not-surrender-to-ai-68da41119eb2?sk=322870b1c6c067015b05c7fc6c173999" data-type="link" data-id="https://medium.com/enrique-dans/thinking-hurts-so-why-not-surrender-to-ai-68da41119eb2?sk=322870b1c6c067015b05c7fc6c173999" target="_blank" rel="noreferrer noopener">Thinking hurts, so why not surrender to AI</a>?» </em></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/04/pensar-cansa-por-eso-estamos-empezando-a-dejar-que-la-inteligencia-artificial-lo-haga-por-nosotros.html/feed</wfw:commentRss>
			<slash:comments>28</slash:comments>
		
		
			</item>
		<item>
		<title>La soberanía tecnológica era un mito&#8230; hasta que China decidió tomársela en serio</title>
		<link>https://www.enriquedans.com/2026/04/la-soberania-tecnologica-era-un-mito-hasta-que-china-decidio-tomarsela-en-serio.html</link>
					<comments>https://www.enriquedans.com/2026/04/la-soberania-tecnologica-era-un-mito-hasta-que-china-decidio-tomarsela-en-serio.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Sat, 04 Apr 2026 07:44:56 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[China]]></category>
		<category><![CDATA[decarbonization]]></category>
		<category><![CDATA[energy]]></category>
		<category><![CDATA[independence]]></category>
		<category><![CDATA[innovation]]></category>
		<category><![CDATA[manufacturing]]></category>
		<category><![CDATA[renewables]]></category>
		<category><![CDATA[sovereignty]]></category>
		<category><![CDATA[US]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57598</guid>

					<description><![CDATA[Durante años, el discurso dominante en Estados Unidos ha girado en torno a una idea tan repetida como poco examinada: la necesidad de recuperar la soberanía tecnológica, de relocalizar cadenas de suministro, de reducir dependencias estratégicas. La narrativa suena bien, encaja en términos políticos y transmite una sensación de control. El problema es que, cuando  <a href="https://www.enriquedans.com/2026/04/la-soberania-tecnologica-era-un-mito-hasta-que-china-decidio-tomarsela-en-serio.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-full is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/04/US-China-dependencies-Nano-Banana.jpg"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/04/US-China-dependencies-Nano-Banana.jpg" alt="IMAGE: A split illustration shows a blue US side with high-tech AI infrastructure and a broken power grid, connected by red wires to a vibrant orange Chinese side featuring robust electrical manufacturing and engineering " class="wp-image-57599" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/04/US-China-dependencies-Nano-Banana.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/04/US-China-dependencies-Nano-Banana-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/04/US-China-dependencies-Nano-Banana-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/04/US-China-dependencies-Nano-Banana-768x768.jpg 768w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Durante años, el discurso dominante en Estados Unidos ha girado en torno a una idea tan repetida como poco examinada: la necesidad de recuperar la soberanía tecnológica, de relocalizar cadenas de suministro, de reducir dependencias estratégicas. La narrativa suena bien, encaja en términos políticos y transmite una sensación de control. El problema es que, cuando uno baja al terreno de lo tangible, se desmorona con sorprendente facilidad. </p>



<p>Este artículo en Bloomberg, <em>«<a href="https://www.bloomberg.com/news/features/2026-04-01/us-ai-data-center-expansion-relies-on-chinese-electrical-equipment-imports?accessToken=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJzb3VyY2UiOiJTdWJzY3JpYmVyR2lmdGVkQXJ0aWNsZSIsImlhdCI6MTc3NTA1ODk2OSwiZXhwIjoxNzc1NjYzNzY5LCJhcnRpY2xlSWQiOiJUQ1Q3UzRLSUpIUFgwMCIsImJjb25uZWN0SWQiOiIwQzg4NkY0NTI0NzY0RUE0OEY2QTk4RTk1NDc5RTI2NSJ9.6XD-Gdikon48e2mPVqpu8_TR9luCXcmBxKjxYQ9XeBA&amp;leadSource=uverify%20wall">America’s AI build-out hinges on Chinese electrical parts</a>«</em>, que analiza la expansión de los centros de datos en Estados Unidos, es particularmente revelador: el despliegue de infraestructura para inteligencia artificial está chocando con una escasez crítica de equipos eléctricos, desde transformadores y sistemas de distribución a otros componentes clave, cuya producción depende en gran medida de cadenas de suministro globales profundamente entrelazadas con China. No estamos hablando de chips avanzados ni de algoritmos, sino de algo mucho más básico: la infraestructura física sin la cual la inteligencia artificial no existe. Pretender soberanía tecnológica mientras dependes de otro país para electrificar tus centros de datos es, como mínimo, una contradicción difícil de sostener. </p>



<p>Lo verdaderamente interesante es que esta dependencia no es coyuntural, sino completamente estructural. Durante décadas, los Estados Unidos y buena parte de Occidente externalizaron la fabricación bajo la premisa de que el valor estaba en el diseño, en el <em>software</em>, en la propiedad intelectual. China, en cambio, apostó por algo mucho más incómodo y menos glamouroso: construir capacidad industrial. Y lo hizo con una visión a largo plazo y una consistencia estratégica difíciles de igualar, apoyándose además en una producción masiva de talento ingenieril. <a href="https://cset.georgetown.edu/article/the-global-distribution-of-stem-graduates-which-countries-lead-the-way/" target="_blank" rel="noreferrer noopener">China gradúa cada año varios millones de estudiantes en disciplinas STEM, frente a cifras muy inferiores en Estados Unidos</a>, y dado que el talento está uniformemente distribuido, eso implica <a href="https://www.enriquedans.com/2025/03/china-y-las-estrategias-a-largo-plazo-la-educacion.html" target="_blank" rel="noreferrer noopener">un importante <em>surplus</em> de trabajadores altamente cualificados</a>. Cuando un país genera ese volumen de ingenieros de forma sostenida, deja de ser «la fábrica del mundo» para convertirse en algo mucho más relevante: el lugar donde se diseñan, optimizan y escalan los sistemas industriales del futuro. Del simple <em>«Made in China»</em>, al <em>«Engineered in China»</em>. En pocas décadas. </p>



<p>Por eso resulta cada vez más difícil seguir defendiendo la idea de que Estados Unidos mantiene una supremacía clara. ¿En <em>software</em>? Los ingenieros chinos no solo programan, sino que lo hacen a una escala y con una velocidad que cambia las reglas del juego. ¿En educación? Las universidades chinas han alcanzado niveles muy elevados, aunque no atraigan tanto talento internacional, mientras las occidentales siguen apoyándose en su poder de atracción global. ¿En finanzas? El dólar sigue siendo dominante, pero <a href="https://www.enriquedans.com/2021/04/china-el-futuro-del-dinero-y-los-grados-de-libertad.html" target="_blank" rel="noreferrer noopener">China avanza con alternativas como el yuan digital</a>, ampliando progresivamente su alcance en circuitos internacionales. Si la divisa de reserva tradicional está gestionada por un completo imbécil, muchos países empiezan a ver otra, la que sea, como más interesante. </p>



<p>Sin embargo, el verdadero cambio no está en quién gana cada uno de esos ámbitos por separado, sino en cómo se reconfigura el conjunto. China no necesita liderar en todo para convertirse en imprescindible. Le basta con dominar aquello que sostiene materialmente el sistema. Y ahí su ventaja es cada vez más evidente. En tecnologías limpias, por ejemplo, <a href="https://about.bnef.com/insights/clean-energy/china-dominates-clean-technology-manufacturing-investment-as-tariffs-begin-to-reshape-trade-flows-bloombergnef/" target="_blank" rel="noreferrer noopener">BloombergNEF estima que controla más del 70% de la capacidad de fabricación global en muchos segmentos clave</a>. En robótica industrial, los datos de la International Federation of Robotics muestran que <a href="https://ifr.org/ifr-press-releases/news/global-robot-demand-in-factories-doubles-over-10-years" target="_blank" rel="noreferrer noopener">ya representa más de la mitad de las instalaciones mundiales y que sus fabricantes están ganando terreno rápidamente</a>. </p>



<p>Incluso en el ámbito medioambiental, donde China ha sido durante años el gran villano global, el panorama empieza a cambiar. Sigue siendo el mayor emisor absoluto, sí, pero también es el país que más invierte en energías limpias y el que está acelerando con mayor intensidad su transición, lo que le brinda una progresiva ventaja en costes mientras los Estados Unidos se suicidan con la soberana barbaridad del <em>«<a href="https://www.forbes.com/sites/gauravsharma/2025/01/20/drill-baby-drill-donald-trump-declares-us-energy-emergency/" target="_blank" rel="noreferrer noopener">drill, baby, drill</a>«</em>. Según la International Energy Agency y el análisis de Carbon Brief, <a href="https://www.carbonbrief.org/analysis-chinas-co2-emissions-have-now-been-flat-or-falling-for-21-months/" target="_blank" rel="noreferrer noopener">sus emisiones han entrado en una fase de estabilización e incluso descenso</a>, impulsadas por el crecimiento masivo de la solar y la eólica. Obviamente no es aún el país menos contaminante, pero sí el que mejor posicionado está para dominar la industria que hará posible esa transición. </p>



<p>La ironía es difícil de ignorar. Europa no consigue liberarse de la tecnología estadounidense: vive sobre sus plataformas, sus nubes, su <em>software</em>. Estados Unidos, mientras tanto, descubre que tampoco puede liberarse de China, porque la base física de su liderazgo tecnológico depende de una potencia industrial que lleva décadas perfeccionando exactamente aquello que Occidente decidió abandonar. La interdependencia no es simétrica, pero es profunda, y desmonta cualquier relato simplista de desacoplamiento. A lo mejor, es que en un mundo cada vez más interconectado, lo interesante es buscar la cooperación y la conexión entre países, en lugar de la competencia y la autarquía&#8230; </p>



<p>Quizá el error de fondo sea seguir planteando el debate en términos de supremacía, como si el mundo siguiera siendo un tablero donde un único actor puede dominar todas las dimensiones. Lo que estamos viendo se parece mucho más a una interdependencia asimétrica entre dos modelos con fortalezas distintas: Estados Unidos sigue liderando en capas abstractas como finanzas, influencia o ecosistemas digitales, mientras China domina cada vez más las capas físicas como industria, energía, manufactura, o despliegue.</p>



<p>Y en un mundo en el que la tecnología vuelve a anclarse en factores tangibles como la electricidad, las infraestructuras o los materiales, la pregunta relevante ya no es quién lidera hoy, sino qué tipo de poder será más decisivo mañana. Porque si algo empieza a quedar claro es que el liderazgo del siglo XXI no se decidirá únicamente en el código, sino en la capacidad de convertir ese código en realidad. Y en ese terreno, cada vez resulta más difícil sostener que China sea simplemente un actor más del que se puede prescindir. </p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is openly available in English on Medium, «<a href="https://medium.com/enrique-dans/america-says-it-wants-tech-independence-it-cant-even-power-its-data-centers-d3ba602d5015?sk=85acf80fde96b0c16b2a9d6476d3b338" data-type="link" data-id="https://medium.com/enrique-dans/america-says-it-wants-tech-independence-it-cant-even-power-its-data-centers-d3ba602d5015?sk=85acf80fde96b0c16b2a9d6476d3b338" target="_blank" rel="noreferrer noopener">America says it wants tech independence. It can’t even power its data centers</a>» </em></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/04/la-soberania-tecnologica-era-un-mito-hasta-que-china-decidio-tomarsela-en-serio.html/feed</wfw:commentRss>
			<slash:comments>21</slash:comments>
		
		
			</item>
		<item>
		<title>Trump no quiere sólo ganar elecciones: quiere hackear la democracia</title>
		<link>https://www.enriquedans.com/2026/04/trump-no-quiere-solo-ganar-elecciones-quiere-hackear-la-democracia.html</link>
					<comments>https://www.enriquedans.com/2026/04/trump-no-quiere-solo-ganar-elecciones-quiere-hackear-la-democracia.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Fri, 03 Apr 2026 08:34:30 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[activism]]></category>
		<category><![CDATA[democracy]]></category>
		<category><![CDATA[Donald Trump]]></category>
		<category><![CDATA[elections]]></category>
		<category><![CDATA[hacking]]></category>
		<category><![CDATA[manipulation]]></category>
		<category><![CDATA[politics]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57589</guid>

					<description><![CDATA[Trump no se comporta como un político convencional con tentaciones autoritarias. Se comporta como alguien que ha entendido perfectamente cómo funciona el poder en el siglo XXI: no hace falta cerrar periódicos si puedes desacreditarlos algorítmicamente, no hace falta prohibir votar si puedes rediseñar la burocracia para que millones de personas no puedan llegar a  <a href="https://www.enriquedans.com/2026/04/trump-no-quiere-solo-ganar-elecciones-quiere-hackear-la-democracia.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-large is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/04/Trump-hacking-democracy-Dall·E.jpg"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/04/Trump-hacking-democracy-Dall·E-1024x1024.jpg" alt="IMAGE: A stylized image of Donald Trump with glowing eyes towering over a crowd of protesters, surrounded by surveillance cameras and digital networks, symbolizing control and resistance " class="wp-image-57590" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/04/Trump-hacking-democracy-Dall·E-1024x1024.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/04/Trump-hacking-democracy-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/04/Trump-hacking-democracy-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/04/Trump-hacking-democracy-Dall·E-768x768.jpg 768w, https://www.enriquedans.com/wp-content/uploads/2026/04/Trump-hacking-democracy-Dall·E-1536x1536.jpg 1536w, https://www.enriquedans.com/wp-content/uploads/2026/04/Trump-hacking-democracy-Dall·E.jpg 2048w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Trump no se comporta como un político convencional con tentaciones autoritarias. Se comporta como alguien que ha entendido perfectamente cómo funciona el poder en el siglo XXI: no hace falta cerrar periódicos si puedes desacreditarlos algorítmicamente, no hace falta prohibir votar si puedes rediseñar la burocracia para que millones de personas no puedan llegar a la urna, y no hace falta suspender formalmente la democracia si consigues convertirla en una interfaz hostil, opaca y punitiva. Lo que estamos viendo en Estados Unidos no es simplemente una deriva ideológica. Es algo mucho más serio: un intento de hackear la democracia. </p>



<p>La palabra importa. Hackear no significa necesariamente manipular una máquina de votación con una línea de código. Significa explotar vulnerabilidades de un sistema para forzarlo a comportarse de manera distinta a la prevista. Y eso es exactamente lo que está intentando hacer Trump con el sistema democrático estadounidense: identificar sus puntos débiles, desde la fragmentación administrativa hasta la complejidad regulatoria, y convertirlos en vectores de control político. La democracia, al fin y al cabo, también es tecnología. Es un conjunto de protocolos, poderes y contrapoderes, reglas, bases de datos, procedimientos de autenticación, cadenas de custodia, estándares de interoperabilidad y mecanismos de confianza. <a href="https://www.wired.com/story/this-is-how-trump-is-already-threatening-the-midterms/" target="_blank" rel="noreferrer noopener">Y cuando alguien decide reescribir ese <em>stack</em> en beneficio propio, no está reformando nada: está atacando la capa de infraestructura del sistema</a>. </p>



<p>Por eso el debate sobre la <a href="https://www.cnbc.com/2026/03/31/trump-mail-in-voting-executive-order.html" target="_blank" rel="noreferrer noopener">orden ejecutiva de marzo de 2025</a> y sobre la <a href="https://en.wikipedia.org/wiki/Safeguard_American_Voter_Eligibility_Act" target="_blank" rel="noreferrer noopener">SAVE Act</a> es tan importante: presentadas bajo el lenguaje aparentemente higiénico de la «integridad electoral», ambas iniciativas comparten una lógica muy clara: desplazar la carga de la prueba hacia el ciudadano, multiplicar la fricción del registro y ampliar la capacidad del poder federal para cruzar datos, revisar padrones y amenazar con sanciones o retirada de fondos. La propia orden ejecutiva exige prueba documental de ciudadanía para el formulario federal de registro y contempla revisiones coordinadas entre Homeland Security y otras agencias, todo para dificultar el voto a determinados ciudadanos. La SAVE Act, por su parte, exige prueba documental de ciudadanía para registrarse y abre la puerta a purgas continuas y a un entorno legal que castiga a funcionarios electorales por aceptar registros que luego puedan ser cuestionados. Todo ello en nombre de un problema cuya incidencia real, según múltiples análisis, es completamente marginal e insignificante. </p>



<p>Lo peligroso de este tipo de maniobra es que se vende como modernización. El autoritarismo contemporáneo nunca se anuncia como autoritarismo. Se presenta como auditoría, verificación, trazabilidad, seguridad, <em>compliance</em> o integridad del dato. Su estética no es la del uniforme, sino la del formulario. Su violencia no siempre adopta la forma de una porra: muchas veces adopta la forma de una persona que no consigue registrarse porque no tiene un documento a mano, de un funcionario muerto de miedo por una desmesurada amenaza penal, o de una administración local obligada a rehacer procesos enteros en pleno año electoral. La represión, en la era digital, se vuelve procedimental. Y precisamente por eso resulta más difícil de detectar para quien sigue buscando el autoritarismo con categorías del siglo XX. </p>



<p>Ese patrón, además, no es nuevo. <a href="https://en.wikipedia.org/wiki/Viktor_Orb%C3%A1n" target="_blank" rel="noreferrer noopener">Viktor Orbán</a> lleva más de una década perfeccionándolo en Hungría: no destruyó la democracia de un día para otro, sino que la fue reconfigurando desde dentro, alterando leyes electorales, colonizando instituciones, controlando el ecosistema mediático y utilizando el aparato del Estado, incluidas sus capas más técnicas y burocráticas, para consolidar su poder, hasta el punto de que <a href="https://www.europarl.europa.eu/news/en/press-room/20220909IPR40137/meps-hungary-can-no-longer-be-considered-a-full-democracy" target="_blank" rel="noreferrer noopener">organismos como el Parlamento Europeo han llegado a calificar el país como una «autocracia electoral»</a>. Diversos <a href="https://freedomhouse.org/country/hungary/freedom-world/2024" target="_blank" rel="noreferrer noopener">análisis</a> han documentado cómo ese proceso ha implicado una captura sistemática del sistema institucional y mediático. <a href="https://eutoday.net/trump-backs-orban-as-hungary-campaign-is-shaken-by-opposition-sabotage-claims/" target="_blank" rel="noreferrer noopener">Lo que Trump parece estar intentando hacer en Estados Unidos recuerda inquietantemente a ese modelo</a>: no es un golpe abrupto, sino una mutación progresiva del sistema hasta hacerlo prácticamente irreversible. Y sin embargo, incluso en ese contexto, <a href="https://apnews.com/article/hungary-election-youth-voters-orban-58e71836ef9e3a38bc478bdbde9ca0b0" target="_blank" rel="noreferrer noopener">Hungría empieza a mostrar signos de fatiga</a>: las <a href="https://www.reuters.com/world/hungarys-orban-faces-pivotal-battle-against-ally-turned-foe-2026-03-25/" target="_blank" rel="noreferrer noopener">movilizaciones masivas contra Orbán</a>, cada vez más <a href="https://www.france24.com/en/live-news/20250922-tens-of-thousands-rally-against-hungary-pm-orban-s-media-spending" target="_blank" rel="noreferrer noopener">amplias</a> y sostenidas en los últimos meses, apuntan a una <a href="https://apnews.com/article/hungary-orban-opposition-protest-child-abuse-41613fa6cad30006efcb4181e3fc6aba" target="_blank" rel="noreferrer noopener">creciente contestación social</a>. La lección es doble: el autoritarismo contemporáneo se construye con paciencia, pero también <a href="https://www.msn.com/en-us/news/world/how-orban-went-from-invincible-to-underdog-in-hungary/ar-AA1Zy7NI" target="_blank" rel="noreferrer noopener">puede ser contestado si la sociedad entiende a tiempo la naturaleza del ataque</a>. Aún queda esperanza. </p>



<p>En los Estados Unidos, la sociedad civil también se está viendo obligada a aprender el nuevo idioma del poder. Las protestas de <a href="https://www.nokings.org/" target="_blank" rel="noreferrer noopener">No Kings</a> no son solo una explosión espontánea de indignación: son también un ejemplo de movilización distribuida, coordinada y persistente. <a href="https://www.nytimes.com/2026/03/27/us/no-kings-protests-cities.html" target="_blank" rel="noreferrer noopener">Más de 3,000 manifestaciones en ciudades y pueblos de todo el país</a>, con convocatorias que se replican globalmente y que buscan <a href="https://www.theverge.com/policy/687195/no-kings-trump-parade-protests" target="_blank" rel="noreferrer noopener">canalizar un malestar transversal frente a un presidente al que muchos perciben como un aspirante a monarca absoluto</a>. No se trata de una única protesta, sino de una <a href="https://en.wikipedia.org/wiki/June_2025_No_Kings_protests" target="_blank" rel="noreferrer noopener">serie continua</a> de <a href="https://en.wikipedia.org/wiki/October_2025_No_Kings_protests" target="_blank" rel="noreferrer noopener">movilizaciones</a>, la tercera en menos de un año, organizadas por redes como <a href="https://indivisible.org/">Indivisible</a>, <a href="https://front.moveon.org/" target="_blank" rel="noreferrer noopener">MoveOn</a> o <a href="https://www.fiftyfifty.one/" target="_blank" rel="noreferrer noopener">50501</a>, con materiales compartidos, mapas interactivos y formación <em>online</em> en seguridad y desescalada. Exactamente lo que cabría esperar de una respuesta en red frente a un intento de centralización del poder. </p>



<p>Ese detalle es crucial. Porque si el autoritarismo contemporáneo se construye sobre infraestructuras digitales de control, la resistencia democrática también necesita sus propias infraestructuras. Ya no basta con salir a la calle: hay que coordinarse, documentar, proteger comunicaciones, distribuir información, formar activistas y sostener el movimiento en el tiempo. La democracia, en ese sentido, también se ha convertido en un problema de arquitectura tecnológica. </p>



<p>Pero conviene no caer en el tecno-optimismo ingenuo. La misma tecnología que permite coordinar miles de protestas permite también vigilarlas, mapearlas, infiltrar sus canales, identificar a sus participantes y convertir cualquier gesto en dato. El poder autoritario siempre ha necesitado denunciantes: lo novedoso es que ahora puede integrarlos en plataformas, aplicaciones y flujos digitales que convierten la delación en una experiencia de usuario. El dedo acusador se convierte en botón. Y así, poco a poco, la ciudadanía deja de relacionarse con el Estado como sujeto de derechos para hacerlo como nodo dentro de una red de vigilancia. </p>



<p>Por eso la defensa de la democracia estadounidense no puede limitarse a repetir lugares comunes sobre «instituciones fuertes». Las instituciones no se defienden solas cuando alguien consigue colonizar sus capas más técnicas. Hay que defender los estándares, los procedimientos, la gobernanza de los datos, la transparencia algorítmica, la privacidad, la descentralización organizativa y la facilidad efectiva del ejercicio del voto. Hay que entender que hoy un ataque contra la democracia puede adoptar la forma de una base de datos mal cruzada, de una exigencia documental aparentemente razonable, de una <em>app</em> oficial, de una purga automatizada o de una narrativa viral diseñada para convertir la exclusión en un supuesto sentido común. </p>



<p>No, el problema no es solamente que Trump quiera ganar a toda costa las próximas elecciones para evitar recortes en su cuota de poder. El problema es que quiere rediseñar el sistema para que perder deje de ser una posibilidad real. Y cuando un líder empieza a actuar así, la pregunta deja de ser si estamos ante un populista más o menos agresivo. La pregunta correcta es, más bien, cuánto tiempo puede sobrevivir una democracia cuando un aspirante a tirano ya no necesita tanques, porque le basta con controlar formularios, registros, plataformas y miedo. </p>



<p>Y la respuesta, por desgracia, nunca ha sido tranquilizadora. </p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is openly available in English on Medium, «<a href="https://medium.com/enrique-dans/trumps-silent-coup-no-tanks-just-a-system-hack-6205ab4634e9?sk=e5a8f7b9f45cb26a0a5606704925c1a8" target="_blank" rel="noreferrer noopener">Trump’s silent coup: no tanks, just a system hack</a>» </em></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/04/trump-no-quiere-solo-ganar-elecciones-quiere-hackear-la-democracia.html/feed</wfw:commentRss>
			<slash:comments>55</slash:comments>
		
		
			</item>
		<item>
		<title>La primera generación de humanos dotados de externalización cognitiva</title>
		<link>https://www.enriquedans.com/2026/04/la-primera-generacion-de-humanos-dotados-de-externalizacion-cognitiva.html</link>
					<comments>https://www.enriquedans.com/2026/04/la-primera-generacion-de-humanos-dotados-de-externalizacion-cognitiva.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Thu, 02 Apr 2026 08:32:22 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[cognitive]]></category>
		<category><![CDATA[education]]></category>
		<category><![CDATA[Fast Company]]></category>
		<category><![CDATA[offloading]]></category>
		<category><![CDATA[outsourcing]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57593</guid>

					<description><![CDATA[Durante años, hemos ido externalizando partes de nuestra cognición de forma tan gradual que apenas nos hemos dado cuenta. Externalizamos la memoria a los motores de búsqueda después de que el conocido «efecto Google» demostrara que, cuando esperamos que la información siga disponible en internet, es menos probable que la recordemos y más probable que  <a href="https://www.enriquedans.com/2026/04/la-primera-generacion-de-humanos-dotados-de-externalizacion-cognitiva.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-full is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/04/Cognitive-offloading-Dall·E.jpg"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/04/Cognitive-offloading-Dall·E.jpg" alt="IMAGE: A man relaxes while using his smartphone as glowing digital networks connect his brain to icons representing search, navigation, and communication, symbolizing outsourced thinking" class="wp-image-57594" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/04/Cognitive-offloading-Dall·E.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/04/Cognitive-offloading-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/04/Cognitive-offloading-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/04/Cognitive-offloading-Dall·E-768x768.jpg 768w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Durante años, hemos ido externalizando partes de nuestra cognición de forma tan gradual que apenas nos hemos dado cuenta. Externalizamos la memoria a los motores de búsqueda después de que el conocido «<a href="https://www.science.org/doi/10.1126/science.1207745" target="_blank" rel="noreferrer noopener">efecto Google</a>» demostrara que, <a href="https://www.nature.com/articles/d41586-025-00292-z" target="_blank" rel="noreferrer noopener">cuando esperamos que la información siga disponible en internet, es menos probable que la recordemos y más probable que recordemos dónde encontrarla</a>. Externalizamos la navegación al GPS, incluso cuando la investigación empezó a mostrar que <a href="https://www.nature.com/articles/s41598-020-62877-0" target="_blank" rel="noreferrer noopener">su uso intensivo puede debilitar la memoria espacial cuando tenemos que orientarnos por nuestra cuenta</a>. Y hemos externalizado cada vez más la coordinación social a plataformas que deciden qué vemos, cuándo respondemos y cómo nos sincronizamos con los demás. </p>



<p>Ahora empezamos a externalizar algo mucho más relevante: no la memoria, no la orientación, no la agenda, sino el propio pensamiento. O, más exactamente, el trabajo de formarse un juicio antes de expresarlo.</p>



<p>Ese es el verdadero cambio cultural que se esconde detrás del entusiasmo actual por la inteligencia artificial generativa. La tecnología suele presentarse como una capa de productividad, un acelerador de creatividad o un asistente universal. Y sí, en muchos casos lo es. Pero también introduce una tentación peligrosa: confundir la producción sin fricción con la comprensión real, y las respuestas fluidas con el juicio construido. Investigaciones de Microsoft Research han encontrado que <a href="https://www.microsoft.com/en-us/research/publication/the-impact-of-generative-ai-on-critical-thinking-self-reported-reductions-in-cognitive-effort-and-confidence-effects-from-a-survey-of-knowledge-workers/" target="_blank" rel="noreferrer noopener">una mayor confianza en la inteligencia artificial generativa se asocia con menos pensamiento crítico</a>, mientras que un estudio en Acta Psychologica vincula <a href="https://www.sciencedirect.com/science/article/pii/S0001691825010388" target="_blank" rel="noreferrer noopener">una mayor dependencia de la inteligencia artificial con niveles más bajos de pensamiento crítico</a>. Un comentario reciente en Nature Reviews Psychology lo resumía perfectamente: <a href="https://www.nature.com/articles/s44159-025-00467-5" target="_blank" rel="noreferrer noopener">las mejoras en rendimiento que aporta la inteligencia artificial generativa no deben confundirse con aprendizaje</a>.</p>



<p>He defendido antes que <a href="https://www.enriquedans.com/2026/03/la-inteligencia-artificial-no-sustituye-a-la-estrategia-la-deja-al-descubierto.html" target="_blank" rel="noreferrer noopener">la inteligencia artificial no sustituirá a la estrategia sino que la dejará al descubierto</a>, y que <a href="https://www.enriquedans.com/2026/03/por-que-centrarse-en-la-reduccion-de-costes-en-plena-revolucion-de-la-inteligencia-artificial-es-un-error-estrategico.html" target="_blank" rel="noreferrer noopener">centrarse en la reducción de costes durante la revolución de la inteligencia artificial es un error estratégico</a>. Esta es la versión cognitiva del mismo error. Cuando las personas utilizan la inteligencia artificial como sustituto del juicio en lugar de como herramienta para afinarlo, no se vuelven más capaces. Simplemente se vuelven más dependientes.</p>



<p></p>



<h3 class="wp-block-heading"><strong>La era de la externalización cognitiva</strong></h3>



<p>Los psicólogos lo llaman <em><strong>cognitive offloading</strong></em>: trasladar trabajo mental a una ayuda externa. Una lista de la compra es externalización cognitiva. Una calculadora también. Lo mismo que un calendario, un cuaderno o una app de recordatorios. En ese sentido, no hay nada intrínsecamente nuevo ni siniestro en esto. Los seres humanos siempre han construido herramientas para ampliar la mente. Una revisión reciente en Nature Reviews Psychology señala que <a href="https://www.nature.com/articles/s44159-025-00432-2" target="_blank" rel="noreferrer noopener">externalizar puede mejorar el rendimiento en algunas tareas</a>, aunque también tiene sus desventajas. Y una perspectiva más amplia en Nature Human Behaviour<em> </em>sugiere que <a href="https://www.nature.com/articles/s41562-021-01162-0" target="_blank" rel="noreferrer noopener">la tecnología digital puede estar cambiando la cognición sin evidencia clara de un daño generalizado y duradero</a>.</p>



<p>El problema no es externalizar <em>per se</em>. El problema es <strong>qué estamos externalizando</strong>.</p>



<p>Cuando externalizamos el almacenamiento, ahorramos esfuerzo. Cuando externalizamos la navegación, reducimos incertidumbre. Pero cuando externalizamos el juicio, corremos el riesgo de debilitar la facultad que nos permite decidir si la máquina es útil, engañosa, sesgada, superficial, manipuladora o simplemente incorrecta.</p>



<p>Ese riesgo importa más de lo que muchas organizaciones parecen dispuestas a admitir. Porque la inteligencia artificial generativa no solo responde preguntas: crea una ilusión de competencia tan convincente que puede borrar la diferencia entre «entiendo esto» y «puedo producir algo que haga que parezca que lo entiendo». Nature revisó recientemente la evidencia sobre memoria y herramientas digitales y subrayó un punto importante: <a href="https://www.nature.com/articles/d41586-025-00292-z">las afirmaciones más alarmistas sobre el deterioro cognitivo suelen ser exageradas</a>. Pero también señalaba que ciertas capacidades pueden alterarse de forma significativa, incluyendo una confianza inflada y cambios en los patrones de recuerdo. Precisamente por eso este momento merece más seriedad de la que suelen aportarle tanto los optimistas ingenuos como los catastrofistas.</p>



<p></p>



<h3 class="wp-block-heading"><strong>La fluidez no es cognición</strong></h3>



<p>Lo que hace culturalmente desestabilizadora a la inteligencia artificial generativa no es solo que sea útil. Es que es <strong>fluida</strong>.</p>



<p>Una calculadora nunca fingió entender la aritmética. Tu GPS nunca afirmó saber cómo se siente una ciudad. Los motores de búsqueda no hablaban en primera persona ni ofrecían resúmenes seguros en prosa perfecta. La inteligencia artificial generativa sí lo hace. Produce lenguaje con una pulidez y una cercanía al rendimiento retórico humano que hace fácil confundir coherencia lingüística con razonamiento.</p>



<p>Pero una respuesta bien formulada no es lo mismo que una respuesta bien pensada. Los grandes modelos de lenguaje son motores de patrones asombrosos, pero no poseen juicio en el sentido humano del término. Como señalaba recientemente un artículo de Harvard Business School, <a href="https://www.hbs.edu/bigs/artificial-intelligence-human-jugment-drives-innovation" target="_blank" rel="noreferrer noopener">la experiencia y el juicio humanos siguen siendo críticos porque la inteligencia artificial no puede distinguir de forma fiable entre ideas realmente buenas y otras simplemente plausibles, ni puede guiar por sí sola una estrategia a largo plazo</a>. Ese argumento no es anti-inteligencia artificial: es simplemente anti-ingenuidad.</p>



<p>Aquí es donde empieza a aparecer la verdadera división. No entre quienes usan inteligencia artificial y quienes no. Esa distinción ya empieza a ser trivial. La diferencia relevante es entre quienes usan la inteligencia artificial como compañera de pensamiento y quienes la utilizan como sustituto del pensamiento.</p>



<p>Los primeros se ven amplificados por ella. Los segundos se van vaciando poco a poco. </p>



<p></p>



<h3 class="wp-block-heading"><strong>La educación es donde esto se vuelve imposible de ignorar</strong></h3>



<p>Si quieres ver claramente lo que está en juego, mira la educación. La ansiedad en torno a la inteligencia artificial en escuelas y universidades suele plantearse en términos de trampas, plagio o integridad en la evaluación. Son problemas reales, pero no el más profundo.</p>



<p>El problema de fondo es que la inteligencia artificial generativa puede mejorar el rendimiento sin generar aprendizaje.</p>



<p>El <a href="https://www.oecd.org/en/publications/oecd-digital-education-outlook-2026_062a7394-en.html" target="_blank" rel="noreferrer noopener">Digital Education Outlook 2026</a> de la OCDE, que ya he citado en artículos anteriores (es seriamente bueno), es especialmente claro en este punto: cuando los estudiantes externalizan tareas a la inteligencia artificial generativa sin una guía pedagógica adecuada, el rendimiento puede mejorar incluso cuando el aprendizaje real no lo hace. La UNESCO ha planteado un argumento similar en sus <a href="https://www.unesco.org/en/articles/guidance-generative-ai-education-and-research" target="_blank" rel="noreferrer noopener">directrices sobre inteligencia artificial generativa en educación e investigación</a>, advirtiendo de que estos sistemas deben utilizarse dentro de un marco centrado en lo humano y no como atajos que eviten el proceso cognitivo. Y la OCDE lleva años insistiendo en que la <a href="https://www.oecd.org/en/topics/creative-thinking.html" target="_blank" rel="noreferrer noopener">creatividad</a> y el <a href="https://www.oecd.org/en/publications/fostering-students-creativity-and-critical-thinking_62212c37-en.html" target="_blank" rel="noreferrer noopener">pensamiento crítico</a> no son habilidades accesorias, sino objetivos centrales en una sociedad digital.</p>



<p>Por eso gran parte del pánico institucional en torno a la inteligencia artificial pierde el foco. La cuestión no es si los estudiantes usarán inteligencia artificial: por supuesto que lo harán. La cuestión es si seguirán obligados a ejercer juicio mientras la utilizan.</p>



<p>Ya defendí algo similar en «<a href="https://www.enriquedans.com/2026/01/la-inteligencia-artificial-podria-transformar-la-educacion-si-las-universidades-responden-correctamente.html" target="_blank" rel="noreferrer noopener">La inteligencia artificial podría transformar la educación… si las universidades responden correctamente</a>«, porque demasiadas instituciones están <a href="https://www.enriquedans.com/2025/10/evaluar-con-inteligencia-y-no-con-detectores.html" target="_blank" rel="noreferrer noopener">obsesionadas con la vigilancia</a> en lugar de rediseñar el aprendizaje para un mundo en el que la externalización cognitiva es ya la norma. Si los estudiantes pueden generar trabajos aceptables sin enfrentarse a las ideas, lo que realmente se evalúa no es el aprendizaje, sino la obediencia.</p>



<p></p>



<h3 class="wp-block-heading"><strong>La paradoja de la era de la inteligencia artificial</strong></h3>



<p>Aquí está la paradoja que mucha gente aún no ha entendido: las personas que más se beneficiarán de la inteligencia artificial no serán las que la usen para todo.</p>



<p>Serán las que sepan cuándo no usarla.</p>



<p>No es una defensa romántica del pensamiento artesanal. Es un argumento práctico sobre el apalancamiento. Las personas con buen juicio, conocimiento sólido de su dominio y escepticismo disciplinado pueden usar la inteligencia artificial para avanzar más rápido sin renunciar a la autoría. Pueden cuestionar resultados, contrastar supuestos, comparar alternativas y detectar cuándo la máquina está simplificando en exceso o inventando certezas. Quienes no tienen esos hábitos son mucho más propensos a aceptar la primera respuesta plausible y seguir adelante.</p>



<p>La literatura reciente en management empieza a converger en esta idea. Harvard Business Review ha argumentado que <a href="https://hbr.org/2025/10/when-working-with-ai-act-like-a-decision-maker-not-a-tool-user" target="_blank" rel="noreferrer noopener">trabajar bien con inteligencia artificial exige actuar como quien toma decisiones, no como un usuario pasivo de herramientas</a>. Otro artículo reciente advierte de que, si la inteligencia artificial se encarga del trabajo inicial más confuso, precisamente el que ayuda a desarrollar criterio, <a href="https://hbr.org/2026/02/how-do-workers-develop-good-judgment-in-the-ai-era" target="_blank" rel="noreferrer noopener">las organizaciones pueden acabar con personas capaces de producir resultados sin haber construido nunca juicio</a>. Incluso investigaciones sobre creatividad citadas por HBR apuntan en la misma dirección: <a href="https://hbr.org/2026/01/why-ai-boosts-creativity-for-some-employees-but-not-others" target="_blank" rel="noreferrer noopener">la inteligencia artificial tiende a beneficiar más a quienes tienen buena metacognición que a quienes no la tienen</a>.</p>



<p>Por eso este es un problema cultural, no solo tecnológico. No estamos simplemente incorporando una herramienta nueva a hábitos existentes. Estamos renegociando la relación entre esfuerzo y autoría, entre comodidad y competencia, entre expresión y comprensión.</p>



<p></p>



<h3 class="wp-block-heading"><strong>De qué deberíamos preocuparnos realmente</strong></h3>



<p>El error más común en el debate público sobre la inteligencia artificial es oscilar entre dos caricaturas. Una dice que la inteligencia artificial nos volverá estúpidos. La otra que simplemente nos liberará para tareas de mayor nivel. La realidad es más compleja, y más interesante.</p>



<p>Bien utilizada, la inteligencia artificial puede reducir tareas tediosas y abrir espacio para pensar mejor. Mal utilizada, puede erosionar los hábitos que hacen posible pensar mejor.</p>



<p>Por eso la respuesta correcta no es ni la prohibición ni la rendición. Es el diseño. Necesitamos sistemas educativos, normas laborales y decisiones de producto que preserven el juicio humano en lugar de rodearlo. Necesitamos interfaces que fomenten la verificación, la reflexión y la comparación en lugar de empujar a la aceptación pasiva. Necesitamos dejar de considerar cualquier reducción del esfuerzo mental como progreso.</p>



<p>Porque no toda fricción es desperdicio. Parte de esa fricción es precisamente donde nace la comprensión.</p>



<p>Y ese es el error central detrás de gran parte del entusiasmo actual por la inteligencia artificial. Estamos midiendo velocidad, comodidad y volumen mientras ignoramos una pregunta mucho más difícil: ¿<strong>qué tipo de mente nos están ayudando a construir estos sistemas</strong>?</p>



<p>Esa es la pregunta que debería definir esta fase de la era de la inteligencia artificial: no si las máquinas pueden pensar como nosotros, sino si, al apoyarnos en ellas sin cuidado, podemos acabar dejando de pensar como nosotros mismos.</p>



<p><strong>El futuro no pertenecerá a quienes más usen la inteligencia artificial. Pertenecerá a quienes sepan cuándo no usarla</strong>. </p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>(This article was <a href="https://www.fastcompany.com/91513823/ai-is-creating-the-first-generation-of-cognitively-outsourced-humans">previously published on Fast Company</a>)</em></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/04/la-primera-generacion-de-humanos-dotados-de-externalizacion-cognitiva.html/feed</wfw:commentRss>
			<slash:comments>24</slash:comments>
		
		
			</item>
	</channel>
</rss>
