<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Enrique Dans</title>
	<atom:link href="https://www.enriquedans.com/feed" rel="self" type="application/rss+xml" />
	<link>https://www.enriquedans.com</link>
	<description>Investigación y opinión acerca de los Sistemas y Tecnologías de Información</description>
	<lastBuildDate>Sun, 12 Apr 2026 10:14:44 +0000</lastBuildDate>
	<language>es</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>
	<item>
		<title>Cuando el coche autónomo empieza a gestionar la ciudad</title>
		<link>https://www.enriquedans.com/2026/04/cuando-el-coche-autonomo-empieza-a-gestionar-la-ciudad.html</link>
					<comments>https://www.enriquedans.com/2026/04/cuando-el-coche-autonomo-empieza-a-gestionar-la-ciudad.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Sun, 12 Apr 2026 07:28:46 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[API]]></category>
		<category><![CDATA[autonomous car]]></category>
		<category><![CDATA[cities]]></category>
		<category><![CDATA[driving]]></category>
		<category><![CDATA[self-driving car]]></category>
		<category><![CDATA[smart cities]]></category>
		<category><![CDATA[Tesla]]></category>
		<category><![CDATA[Waymo]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57651</guid>

					<description><![CDATA[Durante años, la conversación sobre conducción autónoma estuvo contaminada por un error de enfoque: se hablaba del coche como si fuese un gadget. Como si bastase con fabricar un vehículo «más listo» y soltarlo en la calle para que, de repente, todo funcionase. Pero no, no es así. La conducción autónoma nunca fue solo un  <a href="https://www.enriquedans.com/2026/04/cuando-el-coche-autonomo-empieza-a-gestionar-la-ciudad.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-full is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/04/Autonomous-vehicles-as-sensors-Dall·E.jpg"><img fetchpriority="high" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/04/Autonomous-vehicles-as-sensors-Dall·E.jpg" alt="IMAGE: A white autonomous car navigating a modern city street while detecting a pothole being repaired, surrounded by visual indicators of sensors, connectivity, and urban infrastructure " class="wp-image-57652" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/04/Autonomous-vehicles-as-sensors-Dall·E.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/04/Autonomous-vehicles-as-sensors-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/04/Autonomous-vehicles-as-sensors-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/04/Autonomous-vehicles-as-sensors-Dall·E-768x768.jpg 768w" sizes="(max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Durante años, la conversación sobre conducción autónoma estuvo contaminada por un error de enfoque: se hablaba del coche como si fuese un <em>gadget</em>. Como si bastase con fabricar un vehículo «más listo» y soltarlo en la calle para que, de repente, todo funcionase. </p>



<p>Pero no, no es así. La conducción autónoma nunca fue solo un coche, y de hecho, no es «un coche», sino más bien «<a href="https://waymo.com/waymo-driver/" target="_blank" rel="noreferrer noopener">un conductor</a>«. Es una capa tecnológica que necesita sensores, <em>software</em>, aprendizaje, regulación, integración urbana y, sobre todo, una relación completamente distinta con la ciudad. Precisamente por eso resulta tan revelador que Waymo haya dado un paso que va mucho más allá del robotaxi: <a href="https://waymo.com/blog/2026/04/partnering-with-waze-to-help-cities-patch-their-potholes/" target="_blank" rel="noreferrer noopener">utilizar su flota para detectar baches y compartir esa información con ayuntamientos y departamentos de transporte a través de Waze for Cities</a>. No estamos viendo simplemente coches que se conducen solos. Estamos viendo infraestructura urbana móvil capaz de producir inteligencia operativa sobre la ciudad. </p>



<p>Eso es exactamente lo importante. El robotaxi es casi lo de menos. Lo verdaderamente significativo es que el despliegue de vehículos autónomos obliga a resolver una cuestión que muchos habían preferido ignorar: la autonomía real no se apoya solo en el coche, sino también en una microcartografía detalladísima del entorno, en sistemas capaces de interpretar cambios temporales y en una interlocución continua con las autoridades públicas. Waymo lo explica sin rodeos: antes de operar en una nueva zona, cartografía con enorme detalle carriles, señales, bordillos, pasos de peatones e intersecciones, y combina esos mapas de alta precisión con datos en tiempo real procedentes de sensores y algoritmos de inteligencia artificial. Esa idea de que el coche «simplemente ve y decide» suena muy bien en una <em>keynote</em>, pero la realidad industrial es otra bastante más compleja. La propia compañía lo describe así: primero se mapea el territorio, después se opera sobre él.</p>



<p>En ese contexto, Tesla representa una anomalía interesante y profundamente ideológica dentro del sector: mientras compañías como Waymo apuestan por la redundancia sensorial (cámaras, radar y lidar) y por una microcartografía extremadamente precisa del entorno, <a href="https://en.wikipedia.org/wiki/Tesla_Autopilot" target="_blank" rel="noreferrer noopener">Tesla</a> ha decidido <a href="https://www.notateslaapp.com/news/3077/why-tesla-walked-away-from-radar-and-lidar-to-go-all-in-on-vision" target="_blank" rel="noreferrer noopener">prescindir deliberadamente de todo eso</a> y <a href="https://opentools.ai/news/teslas-fsd-revolutionizes-autonomous-driving-with-vision-only-3d-worlds" target="_blank" rel="noreferrer noopener">basar su aproximación casi exclusivamente en visión artificial y aprendizaje automático a partir de cámaras</a>. La premisa es sencilla: si los humanos conducen utilizando básicamente los ojos, una red neuronal suficientemente entrenada debería poder hacer lo mismo. Su sistema Full Self-Driving transforma las imágenes captadas por múltiples cámaras en una representación tridimensional del entorno en tiempo real, sin necesidad de mapas de alta definición preconstruidos . Esta estrategia elimina la dependencia de infraestructuras cartográficas externas y reduce costes, pero traslada toda la complejidad al <em>software</em> y a la capacidad de aprendizaje de la inteligencia artificial, en un enfoque que muchos consideran más escalable&#8230; y otros, significativamente más arriesgado, al carecer de la redundancia que aportan sensores como el LiDAR o el radar. </p>



<p>Y cuando esa infraestructura existe, empieza a generar externalidades muy interesantes. Los baches son solo un ejemplo, pero uno especialmente simbólico. Un vehículo autónomo necesita detectar irregularidades del firme para proteger el coche, suavizar la marcha y preservar la seguridad del pasajero. Esa capacidad, que nace como requisito puramente operativo, se convierte ahora en una herramienta de mantenimiento urbano: <a href="https://www.theverge.com/transportation/908886/waymo-potholes-cities-data-waze-robotaxi" target="_blank" rel="noreferrer noopener">cámaras, radar, acelerómetros y sistemas de <em>feedback</em> físico detectan el deterioro del asfalto, lo geolocalizan y lo vuelcan a plataformas municipales</a> para facilitar reparaciones más rápidas. Es, básicamente, <a href="https://www.enriquedans.com/2017/01/las-ciudades-son-datos.html" target="_blank" rel="noreferrer noopener">mi vieja idea de la API municipal</a>: si quieres ofrecer servicios en la ciudad, conéctate a ella y ofrece información de manera transparente. </p>



<p>En ciudades donde Waymo ya opera, como San Francisco, Los Ángeles, Phoenix, Austin o Atlanta, esa información empieza a formar parte de la conversación pública sobre cómo gestionar mejor las calles. Es una evolución lógica: cuando una flota recorre la ciudad de forma constante y sensorizada, termina sabiendo mucho más del estado real de la vía que muchos sistemas administrativos tradicionales basados en avisos esporádicos y formularios burocraticos.</p>



<p>Conviene entender lo que esto implica políticamente. La conducción autónoma deja de presentarse como una extravagancia futurista o una amenaza abstracta y pasa a negociarse como un servicio urbano con contrapartidas concretas. La pregunta ya no es solo si el coche puede circular solo, sino qué obtiene la ciudad a cambio de permitir, regular y facilitar su despliegue. Datos sobre baches hoy; mañana, información sobre señalización defectuosa, incidencias temporales, obras mal balizadas o zonas donde la siniestralidad aumenta. La empresa ya no llega únicamente a «pedir permiso para circular»: llega a ofrecer una capa adicional de observación y optimización del espacio urbano. Y eso cambia completamente la relación de poder entre plataforma y ayuntamiento.</p>



<p>Además, a estas alturas seguir discutiendo si la conducción autónoma «es real o no» empieza a resultar casi pintoresco. Waymo afirma estar ofreciendo ya más de 500,000 trayectos autónomos eléctricos a la semana, y en febrero anunció la apertura pública de su servicio totalmente autónomo en Dallas, Houston, San Antonio y Orlando, elevando a diez sus áreas metropolitanas comerciales y anticipando más de un millón de viajes semanales antes de final de año. No estamos hablando de un piloto de laboratorio ni de un vídeo de demostración cuidadosamente editado. Estamos hablando de escala operativa, de uso cotidiano y de expansión territorial. Waymo también sostiene que <a href="https://waymo.com/blog/shorts/waymo-safety-impact-update-170m/" target="_blank" rel="noreferrer noopener">su análisis sobre más de 170 millones de millas totalmente autónomas muestra un 92% menos de siniestros con lesiones graves o mortales que los conductores humanos en condiciones comparables</a>. Se podrá discutir la metodología, y se debe hacer, pero ya no se puede sostener seriamente que esto no existe o no funciona fuera de una demo.</p>



<p>Por supuesto, realidad no significa perfección. La propia trayectoria de Waymo demuestra que la autonomía avanzada sigue teniendo límites, errores, adaptación local y un escrutinio regulatorio intenso. <a href="https://static.nhtsa.gov/odi/inv/2025/INOA-PE25013-23069.pdf">La NHTSA abrió en 2025 una evaluación preliminar tras un incidente en Atlanta en el que un vehículo de Waymo rodeó un autobús escolar detenido</a>: el documento indica además que entonces la compañía ya había superado los cien millones de millas y estaba acumulando alrededor de dos millones semanales. Es decir, incluso en un contexto de escala real y de mejora evidente, siguen apareciendo casos complejos que obligan a investigar, corregir y refinar. La conclusión sensata no es que «la autonomía ha fracasado», sino justamente la contraria: ha entrado en la fase adulta, esa en la que deja de evaluarse como promesa y empieza a evaluarse como sistema crítico.</p>



<p>También por eso las ciudades importan tanto. Boston, por ejemplo, está sirviendo como recordatorio de que no basta con que la tecnología exista: tiene que encajar en tejidos urbanos complicados, ganar legitimidad pública y atravesar debates regulatorios y laborales nada triviales. Allí, <a href="https://www.wbur.org/news/2025/07/28/waymo-boston-city-council-self-driving-regulations-newsletter" target="_blank" rel="noreferrer noopener">Waymo ha estado cartografiando la ciudad con vehículos equipados con lidar y cámaras, pero el salto a operaciones comerciales exigiría tanto el visto bueno político como un marco normativo estatal</a>. Y en las objeciones aparecen exactamente los temas que deberían aparecer: calles estrechas, nieve, complejidad urbana, convivencia con peatones y bicicletas, y el impacto potencial sobre el empleo. Esa es la discusión correcta. No «si algún día llegará», sino bajo qué condiciones, con qué reglas y con qué reparto de costes y beneficios.</p>



<p>En paralelo, el fenómeno ya no es exclusivamente norteamericano. En el golfo pérsico, por ejemplo, <a href="https://investor.uber.com/news-events/news/press-release-details/2026/Baidu-and-Uber-Partner-to-Bring-Apollo-Go-Autonomous-Ride-hailing-to-Dubai-in-Collaboration-with-Dubais-Roads-and-Transport-Authority/default.aspx" target="_blank" rel="noreferrer noopener">Uber y Baidu anunciaron en febrero el despliegue del servicio autónomo Apollo Go en Dubai</a>, con vehículos totalmente autónomos disponibles a través de la app y con el objetivo de expandirse por la ciudad conforme lo permitan el aprendizaje operativo y la regulación. La nota de Uber añade que Apollo Go ya había superado los 17 millones de viajes acumulados a octubre de 2025 y que su recuento semanal había rebasado los 250,000. Esa dimensión internacional, que se añade a la de cada vez más ciudades chinas, importa porque desmonta otra idea muy repetida: que la autonomía era una rareza localizada. No, está empezando a convertirse en una industria global que se adapta a marcos regulatorios distintos y que busca operar como red, no como curiosidad.</p>



<p>Lo interesante, en realidad, es hacia dónde debería llevarnos todo esto. El mejor futuro imaginable no es el de millones de propietarios adinerados comprándose su coche autónomo privado para mandarlo vacío a recoger la ropa a la tintorería, a buscar a los niños al colegio, a dar vueltas a la manzana mientras hacen un recado o a volver solo a casa mientras ellos están reunidos. Ese escenario sería un disparate urbano: más congestión, más kilómetros en vacío, más ocupación inútil del espacio público y la consolidación de la ciudad como aparcamiento y circuito de recados automatizados. El futuro razonable es otro: flotas autónomas compartidas, eléctricas, sensorizadas, integradas con transporte público y gestionadas con criterios de eficiencia colectiva. De hecho, <a href="https://waymo.com/sustainability/" target="_blank" rel="noreferrer noopener">Waymo subraya</a> que <a href="https://techcrunch.com/2024/10/17/waymo-offers-3-credit-for-san-francisco-riders-going-to-public-transit-stations/" target="_blank" rel="noreferrer noopener">un 36% de sus usuarios en San Francisco ha utilizado el servicio para conectar con sistemas de transporte público como BART, Muni o Caltrain</a>. Esa es la pista buena: no el coche autónomo como juguete de lujo, sino como pieza de una movilidad urbana mejor orquestada. </p>



<p>Por eso, cada vez que alguien sigue planteando la conducción autónoma como si fuese una fantasía lejana, conviene recordar algo muy simple: ya hay cientos de miles de trayectos semanales, decenas de millones de millas acumuladas, despliegues comerciales en múltiples ciudades y un ecosistema de acuerdos públicos y privados que va mucho más allá del vehículo. La verdadera prueba de madurez no es que el coche conduzca solo, sino que empieza a asumir parte del trabajo invisible de la ciudad: leerla, cartografiarla, anticipar sus anomalías y devolver información útil para gestionarla mejor. Ahí es donde la discusión deja de ser futurista y se vuelve estructural. Lo demás, como tantas veces, es dinero, regulación y voluntad política.</p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is available in English on Medium, «<a href="https://medium.com/enrique-dans/autonomous-cars-arent-vehicles-they-re-urban-infrastructure-c1b85436e2d5?sk=fdd5a90749966b7d4e61ddfe9871d4da" data-type="link" data-id="https://medium.com/enrique-dans/autonomous-cars-arent-vehicles-they-re-urban-infrastructure-c1b85436e2d5?sk=fdd5a90749966b7d4e61ddfe9871d4da" target="_blank" rel="noreferrer noopener">Autonomous cars aren’t vehicles, they’re urban infrastructure</a>» </em></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/04/cuando-el-coche-autonomo-empieza-a-gestionar-la-ciudad.html/feed</wfw:commentRss>
			<slash:comments>2</slash:comments>
		
		
			</item>
		<item>
		<title>La cosecha cautiva: cómo John Deere quiso convertir el software en un peaje</title>
		<link>https://www.enriquedans.com/2026/04/la-cosecha-cautiva-como-john-deere-quiso-convertir-el-software-en-un-peaje.html</link>
					<comments>https://www.enriquedans.com/2026/04/la-cosecha-cautiva-como-john-deere-quiso-convertir-el-software-en-un-peaje.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Sat, 11 Apr 2026 06:54:24 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[agriculture]]></category>
		<category><![CDATA[antitrust]]></category>
		<category><![CDATA[hacking]]></category>
		<category><![CDATA[jailbreaking]]></category>
		<category><![CDATA[John Deere]]></category>
		<category><![CDATA[lawsuit]]></category>
		<category><![CDATA[monopolistic]]></category>
		<category><![CDATA[right to repair]]></category>
		<category><![CDATA[software]]></category>
		<category><![CDATA[tractor]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57641</guid>

					<description><![CDATA[Hubo un tiempo en que comprar un tractor significaba comprar una máquina. Hoy, en demasiados casos, significaba alquilar obediencia. El caso de John Deere lo ilustra con una claridad casi didáctica: la empresa fue transformando sus equipos agrícolas en sistemas digitalmente cerrados, de manera que el agricultor ya no adquiría una herramienta plenamente utilizable, sino  <a href="https://www.enriquedans.com/2026/04/la-cosecha-cautiva-como-john-deere-quiso-convertir-el-software-en-un-peaje.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-full is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/04/John-Deere-Dall·E.jpg"><img decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/04/John-Deere-Dall·E.jpg" alt="IMAGE: A large green tractor in a wheat field under a dramatic sky, highlighting its scale and power " class="wp-image-57642" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/04/John-Deere-Dall·E.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/04/John-Deere-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/04/John-Deere-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/04/John-Deere-Dall·E-768x768.jpg 768w" sizes="(max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Hubo un tiempo en que comprar un tractor significaba comprar una máquina. Hoy, en demasiados casos, significaba alquilar obediencia. El <a href="https://en.wikipedia.org/wiki/John_Deere#Non-serviceability_by_owners_or_third_parties" target="_blank" rel="noreferrer noopener">caso de John Deere</a> lo ilustra con una claridad casi didáctica: la empresa fue transformando sus equipos agrícolas en sistemas digitalmente cerrados, de manera que el agricultor ya no adquiría una herramienta plenamente utilizable, sino un producto condicionado por llaves de <em>software</em>, herramientas de diagnóstico restringidas y una arquitectura diseñada para canalizar obligatoriamente las reparaciones hacia su red oficial. La reciente <a href="https://www.agri-pulse.com/ext/resources/pdfs/gov.uscourts.ilnd.415798.333.1.pdf" target="_blank" rel="noreferrer noopener">propuesta de acuerdo</a> por <a href="https://www.thedrive.com/news/john-deere-to-pay-99-million-in-monumental-right-to-repair-settlement" target="_blank" rel="noreferrer noopener">99 millones de dólares</a> no solo revela <a href="https://apnews.com/article/john-deere-repair-lawsuit-settlement-595d4b089689cd94418991326275b68d" target="_blank" rel="noreferrer noopener">la magnitud del problema</a>, sino también algo más inquietante: hasta qué punto una compañía puede utilizar la tecnología no para mejorar el producto, sino para construir un peaje permanente alrededor de él. </p>



<p>Lo importante aquí no es solamente el dinero. En el propio documento judicial puede leerse que el objetivo del litigio era desmontar el <em>«anticompetitive moat»</em> levantado por John Deere, ese foso anticompetitivo que impedía a agricultores y talleres independientes acceder a las herramientas necesarias para mantener, diagnosticar y reparar la maquinaria sin verse obligados a pasar por los concesionarios autorizados. El acuerdo obliga a la compañía, durante diez años, a poner a disposición de propietarios, arrendatarios y reparadores independientes los recursos de reparación, incluidas capacidades de diagnóstico y soluciones técnicas que hasta ahora estaban reservadas <em>de facto</em> a su red oficial. Y, además, el documento estima daños por sobreprecio de entre los 190 y los 387.3 millones de dólares, de los que el fondo de compensación cubriría aproximadamente entre un 26% y un 53%, una proporción muy superior a la habitual en acuerdos <em>antitrust</em>. No es una anécdota: es la constatación de que el abuso era sistémico. </p>



<p>La clave del modelo de Deere fue convertir una reparación mecánica en un privilegio computacional. Según la FTC, <a href="https://www.ftc.gov/news-events/news/press-releases/2025/01/ftc-states-sue-deere-company-protect-farmers-unfair-corporate-tactics-high-repair-costs" target="_blank" rel="noreferrer noopener">la única herramienta de <em>software</em> plenamente funcional para realizar todas las reparaciones era Service ADVISOR, y John Deere reservaba su uso exclusivamente a sus distribuidores autorizados</a>. A los clientes y a terceros les dejaba una versión inferior, incapaz de cubrir todas las necesidades. Eso no solo permitía cobrar más por la reparación; permitía también decidir quién podía reparar, cuándo y en qué condiciones. Y en el campo, el tiempo no es una variable decorativa. Un retraso en plena siembra, pulverización o cosecha no es una molestia: puede convertirse en menores rendimientos, en pérdidas económicas severas y en un encadenamiento de costes que se puede arrastrar durante toda una campaña. La propia FTC subraya que estas restricciones privaban a los agricultores de su propio trabajo de reparación, les impedían recurrir a proveedores locales más rápidos y fiables (o a reparaciones efectuadas por ellos mismos), y les forzaban a pagar más por piezas y servicios. </p>



<p>Lo más llamativo del tema es que la compañía llevaba años intentando presentar ese control como si fuese simple modernidad. En una entrevista de hace algunos años, <a href="https://www.theverge.com/22533735/john-deere-cto-hindman-decoder-interview-right-to-repair-tractors" target="_blank" rel="noreferrer noopener">su CTO defendía que la mayoría de las reparaciones seguían siendo posibles</a>, pero la propia conversación dejaba ver <a href="https://arstechnica.com/tech-policy/2023/01/john-deere-relents-says-farmers-can-fix-their-own-tractors-after-all/" target="_blank" rel="noreferrer noopener">el corazón del problema</a>: cuando una máquina entra en <em>«<a href="https://mechanicbase.com/engine/limp-mode/" target="_blank" rel="noreferrer noopener">limp mode</a>«</em>, cuando un sensor dispara una limitación, o cuando una función crítica depende de <em>software</em>, el poder ya no está en la llave inglesa, sino en el acceso digital. Ese es el verdadero desplazamiento de poder que tantas empresas tecnológicas persiguen: no venderte una máquina mejor, sino redefinir la propiedad para que, incluso después de pagarla, sigas dependiendo de ellas. El tractor deja de ser enteramente tuyo y pasa a ser una plataforma bajo supervisión corporativa. </p>



<p>Por eso este caso trasciende la agricultura: John Deere no estaba defendiendo la seguridad, ni la calidad, ni la integridad técnica en sentido estricto. Estaba defendiendo un modelo de extracción de rentas basado en la asimetría informacional y en el control del <em>software</em>. Y cuando ese control se vuelve excesivo, aparecen fenómenos reveladores: agricultores que prefieren maquinaria más antigua porque es reparable, mercados secundarios que premian lo analógico, y hasta <em>hackers</em> que buscan liberar aquello que el fabricante ha encerrado. <a href="https://gizmodo.com/john-deere-hacking-right-to-repair-1849412256" target="_blank" rel="noreferrer noopener">El <em>jailbreak</em> presentado hace años en Def Con</a> es significativo no porque glorifique el <em>hackeo</em>, sino porque muestra la consecuencia natural del abuso: cuando la empresa convierte la reparación legítima en una actividad cautiva, algunos usuarios empiezan a tratar la restricción como un muro que debe ser sorteado. Eso es exactamente lo que ocurre cuando una estrategia comercial se diseña contra los intereses básicos del propietario.</p>



<p>John Deere intentó amortiguar la presión con el <a href="https://www.fb.org/files/AFBF_John_Deere_MOU.pdf" target="_blank" rel="noreferrer noopener">memorándum de entendimiento firmado en 2023 con la American Farm Bureau Federation</a>, presentado en su momento como una apertura razonable. Pero aquel texto ya anticipaba sus límites: hablaba de acceso «en términos justos y razonables», preservaba amplias salvaguardas en torno a propiedad intelectual, seguridad y emisiones, y además incluía una cláusula por la que la organización agraria se comprometía a no impulsar legislación adicional más exigente mientras el acuerdo estuviera vigente. Era, en la práctica, una desactivación política parcial del conflicto, no su resolución. <a href="https://www.reuters.com/legal/government/deere-must-face-ftcs-antitrust-lawsuit-over-repair-costs-us-judge-rules-2025-06-10/" target="_blank" rel="noreferrer noopener">El litigio posterior y la demanda de la FTC</a> evidencian con claridad que aquella salida voluntaria no fue suficiente. Si una empresa necesita ser demandada para ofrecer de forma efectiva los recursos de reparación, es que nunca tuvo verdadera intención de abrir el sistema. </p>



<p>La dimensión <em>antitrust</em> del caso es, además, fundamental. No estamos ante una simple discusión de consumo ni ante la eterna retórica del «<a href="https://en.wikipedia.org/wiki/Right_to_repair" target="_blank" rel="noreferrer noopener">derecho a reparar</a>» como causa simpática. Estamos ante una empresa que, según la FTC, <a href="https://www.tradingkey.com/news/commodities/250775184-reuters" target="_blank" rel="noreferrer noopener">utilizó su posición dominante en grandes equipos agrícolas y el control exclusivo de una herramienta esencial para sostener un 100% de cuota en ciertas reparaciones que requerían el <em>software</em> completo</a>. Y en junio de 2025 un juez federal permitió que esa demanda <em>antitrust</em> siguiera adelante, rechazando el intento de Deere de tumbarla en una fase preliminar. Eso importa porque sitúa la discusión donde debe estar: no solo en la comodidad del usuario, sino en la estructura de mercado, en la competencia y en los incentivos perversos que nacen cuando el fabricante controla tanto la máquina como la única llave digital para mantenerla operativa. </p>



<p>Lo que John Deere hizo fue ensayar, en un entorno rural y aparentemente alejado del debate tecnológico cotidiano, una idea que las Big Tech conocen muy bien: usar el <em>software</em> para degradar la propiedad y convertir la postventa en una mina cautiva. Cobrar más por el mantenimiento, excluir a terceros, imponer piezas y canales, y hacer que el cliente soporte también el coste del tiempo perdido. En una cosechadora parada a mitad de una cosecha, esa lógica se vuelve completamente obscena. Y precisamente por eso el caso es tan importante: porque demuestra que la discusión sobre tecnología nunca ha sido sólo sobre innovación, sino también sobre poder. Cuando una empresa puede decidir si puedes arreglar lo que has comprado, no te está vendiendo un producto: te está alquilando una dependencia. Y esa, por mucho que la disfracemos de sofisticación digital, sigue siendo una forma de abuso. </p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is available in English on Medium, «<a href="https://medium.com/enrique-dans/harvesting-profits-the-software-trap-behind-john-deeres-tractors-809eb872d088?sk=8b7b58a04db27628398a45c288d6de1d" data-type="link" data-id="https://medium.com/enrique-dans/harvesting-profits-the-software-trap-behind-john-deeres-tractors-809eb872d088?sk=8b7b58a04db27628398a45c288d6de1d" target="_blank" rel="noreferrer noopener">Harvesting profits: the software trap behind John Deere’s tractors</a>» </em></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/04/la-cosecha-cautiva-como-john-deere-quiso-convertir-el-software-en-un-peaje.html/feed</wfw:commentRss>
			<slash:comments>13</slash:comments>
		
		
			</item>
		<item>
		<title>Mythos, o cuando hackear deja de ser difícil</title>
		<link>https://www.enriquedans.com/2026/04/mythos-o-cuando-hackear-deja-de-ser-dificil.html</link>
					<comments>https://www.enriquedans.com/2026/04/mythos-o-cuando-hackear-deja-de-ser-dificil.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Fri, 10 Apr 2026 08:30:18 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[Anthropic]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[Claude]]></category>
		<category><![CDATA[cybersecurity]]></category>
		<category><![CDATA[hacking]]></category>
		<category><![CDATA[responsibility]]></category>
		<category><![CDATA[security]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57648</guid>

					<description><![CDATA[Durante años, la industria tecnológica ha jugado con una idea cómoda: que la ciberseguridad es un problema complejo, sí, pero contenido. Que los atacantes realmente peligrosos son pocos, que el talento ofensivo avanzado es escaso, y que, con suficientes capas de defensa, auditorías y herramientas, el sistema se mantiene razonablemente estable. Claude Mythos dinamita esa  <a href="https://www.enriquedans.com/2026/04/mythos-o-cuando-hackear-deja-de-ser-dificil.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-large is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/04/Claude-Mythos-Anthropic.jpg"><img decoding="async" width="1024" height="576" src="https://www.enriquedans.com/wp-content/uploads/2026/04/Claude-Mythos-Anthropic-1024x576.jpg" alt="IMAGE: Anthropic's Claude star logo and the text reading &quot;Claude Mythos&quot;  " class="wp-image-57649" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/04/Claude-Mythos-Anthropic-1024x576.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/04/Claude-Mythos-Anthropic-300x169.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/04/Claude-Mythos-Anthropic-768x432.jpg 768w, https://www.enriquedans.com/wp-content/uploads/2026/04/Claude-Mythos-Anthropic.jpg 1280w" sizes="(max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Durante años, la industria tecnológica ha jugado con una idea cómoda: que la ciberseguridad es un problema complejo, sí, pero contenido. Que los atacantes realmente peligrosos son pocos, que el talento ofensivo avanzado es escaso, y que, con suficientes capas de defensa, auditorías y herramientas, el sistema se mantiene razonablemente estable. </p>



<p><a href="https://www-cdn.anthropic.com/08ab9158070959f88f296514c21b7facce6f52bc.pdf" target="_blank" rel="noreferrer noopener">Claude Mythos</a> dinamita esa narrativa. No porque introduzca un riesgo completamente nuevo, sino porque altera de manera radical el coste y la escala de los ataques.</p>



<p>La cuestión no es si Mythos es «tan peligroso como dicen». De hecho, conviene empezar por ahí: como recuerda Gary Marcus en Communications of the ACM, <a href="https://cacm.acm.org/blogcacm/what-should-we-take-from-anthropics-possibly-terrifying-new-report-on-mythos/" target="_blank" rel="noreferrer noopener">estamos en una fase en la que es difícil separar el riesgo real del marketing y del alarmismo interesado</a>, porque los modelos no son públicos, los experimentos no son reproducibles y las condiciones en las que se obtienen los resultados no están del todo claras. Es una advertencia importante: la historia reciente de la inteligencia artificial está llena de exageraciones, y Anthropic no es precisamente un actor neutral en la construcción de su propio relato. </p>



<p>Pero sería un error quedarse ahí y despachar el tema como <em>hype</em>. Incluso el propio Marcus reconoce algo mucho más inquietante: no hace falta que Mythos sea AGI ni que sea perfecto para poder causar daños significativos. Basta con que sea suficientemente bueno en dominios concretos, como el código o la seguridad, para tener efectos sistémicos. Y eso enlaza directamente con lo que ya estamos viendo. </p>



<p>Según el análisis de The Economist, <a href="https://www.economist.com/business/2026/04/08/how-dangerous-is-mythos-anthropics-new-ai-model" target="_blank" rel="noreferrer noopener">hay razones de peso para tomarse en serio las advertencias de Anthropic</a>. No solo por la magnitud de las afirmaciones, con el <a href="https://venturebeat.com/security/mythos-detection-ceiling-security-teams-new-playbook" target="_blank" rel="noreferrer noopener">hallazgo de vulnerabilidades críticas en todos los grandes sistemas operativos y navegadores</a>, incluyendo <a href="https://medium.com/@creativeaininja/project-glasswing-and-claude-mythos-ai-that-finds-bugs-humans-missed-for-27-years-0c964e77f3e4" target="_blank" rel="noreferrer noopener">fallos que llevaban décadas sin detectarse</a>, sino por la reacción de la industria: empresas como Apple, Google o la Linux Foundation se han sumado a <a href="https://www.anthropic.com/glasswing" target="_blank" rel="noreferrer noopener">Project Glasswing</a>, lo que sugiere que la amenaza es, como mínimo, creíble. Cuando competidores directos se alinean en torno a una iniciativa de este tipo, no estamos ante una simple maniobra de marketing. ¿<a href="https://medium.com/@kram254/anthropics-mythos-the-ai-that-forced-its-creators-into-unprecedented-action-0d9b549c756a" target="_blank" rel="noreferrer noopener">Qué es Project Glasswing</a>? La iniciativa de emergencia que Anthropic ha creado con Amazon, Apple, Google, Microsoft, Nvidia y otros gigantes tecnológicos para tratar de anticipar los posibles efectos de poner Mythos en el mercado. </p>



<p>El verdadero problema, sin embargo, no está en Mythos como producto, sino en Mythos como síntoma. Lo que este modelo pone de manifiesto es algo mucho más profundo: que la capacidad de encontrar y explotar vulnerabilidades no depende de una inteligencia «general», sino de algo mucho más simple y más escalable. Capacidad de iteración. Paciencia infinita. Automatización del ensayo y error. </p>



<p>Es exactamente lo que describía hace unos días en «<a href="https://www.enriquedans.com/2026/03/la-maquina-que-empieza-a-redisenarse-sola.html" target="_blank" rel="noreferrer noopener">La máquina que empieza a rediseñarse sola</a>«: no necesitamos máquinas conscientes ni superinteligentes para cambiar el mundo. Nos basta con máquinas infinitamente pacientes que puedan probar millones de combinaciones sin cansarse, aprender de cada intento y persistir allí donde los humanos abandonan. Aplicado a la ciberseguridad, eso tiene implicaciones obvias: el ataque deja de ser un arte artesanal para convertirse en un proceso industrial. Y cuando algo se industrializa, se abarata. Y cuando se abarata, se democratiza. De repente, <a href="https://www.synack.com/blog/mythos-attack-surface-risk-ai-cyberattacks/" target="_blank" rel="noreferrer noopener">todos tus sistemas pasan a ser superficies de ataque</a>. </p>



<p>Aquí es donde el debate deja de ser técnico y pasa a ser estructural. Durante décadas, el equilibrio en ciberseguridad se ha basado en una asimetría manejable: atacar es más fácil que defender, sí, pero <a href="https://medium.com/@marc.bara.iniesta/what-mythos-means-elite-cyberattacks-just-got-much-cheaper-983d736b1a1e" target="_blank" rel="noreferrer noopener">los ataques realmente sofisticados requieren recursos, conocimiento y tiempo</a>. Mythos, y sobre todo, lo que representa, rompe ese equilibrio al reducir drásticamente el coste marginal de encontrar vulnerabilidades. <a href="https://pixicstudio.medium.com/anthropic-claude-mythos-preview-5cae1aa2f5ee">Mythos demuestra que la inteligencia artificial sabe <em>hackear</em></a>&#8230; y hacerlo además <a href="https://medium.com/the-visibility-layer/anthropics-mythos-proved-ai-can-hack-now-what-d17a7c845af9" target="_blank" rel="noreferrer noopener">mejor que los mejores <em>hackers</em> humanos</a>. </p>



<p>Eso no significa que mañana cualquier adolescente vaya a derribar el sistema financiero global desde su habitación. Pero sí significa que el umbral de entrada para ataques avanzados se desplaza peligrosamente hacia abajo. Lo que antes requería equipos altamente cualificados puede empezar a estar al alcance de actores mucho más numerosos y mucho menos sofisticados.</p>



<p>Y, como suele ocurrir, el impacto no será homogéneo. Las grandes tecnológicas, los gobiernos con recursos y las organizaciones más maduras podrán posiblemente adaptarse, reforzar sus sistemas y, en algunos casos, utilizar estas mismas herramientas para defenderse. Pero el resto, desde PYMEs a administraciones públicas, pasando por infraestructuras <em>legacy</em>, sistemas críticos mal mantenidos, etc. se convierten en objetivos mucho más vulnerables. </p>



<p>Hay, además, otra dimensión que tanto The Economist como el propio Marcus apuntan, aunque desde ángulos distintos: la gobernanza. <a href="https://techcrunch.com/2026/04/09/is-anthropic-limiting-the-release-of-mythos-to-protect-the-internet-or-anthropic/" target="_blank" rel="noreferrer noopener">La decisión de Anthropic de no liberar Mythos y canalizarlo a través de Project Glasswing puede interpretarse como responsabilidad</a>. Dar tiempo a parchear antes de exponer capacidades ofensivas tiene sentido. Pero también plantea una pregunta incómoda: ¿<a href="https://medium.com/data-and-beyond/claude-mythos-the-ai-anthropic-built-and-is-too-scared-to-release-9fc43851dfb4" target="_blank" rel="noreferrer noopener">quién decide cuándo una tecnología es demasiado peligrosa para ser pública</a>?</p>



<p>Porque, en ausencia de regulación, la respuesta es simple: los CEOs de las empresas que la desarrollan. Y eso, como señala Marcus, es un problema en sí mismo. La autorregulación llega tarde y es inherentemente insuficiente . Si la capacidad de comprometer sistemas críticos a escala global depende de decisiones corporativas, estamos trasladando una cuestión de seguridad colectiva al ámbito de intereses privados.</p>



<p>La geopolítica tampoco desaparece, al contrario. The Economist introduce un matiz especialmente interesante: iniciativas como Glasswing podrían incluso interferir con estrategias ofensivas estatales, como el almacenamiento de vulnerabilidades <em>«zero-day»</em> para su uso futuro . Es decir, no solo estamos ante una herramienta que puede empoderar a delincuentes, sino también ante algo que puede alterar el equilibrio entre Estados en el terreno cibernético.</p>



<p>Y, por supuesto, todo esto ocurre en un contexto en el que no todos los actores juegan con las mismas reglas. Mientras algunas compañías optan por la cautela, otras, incluidos potencialmente actores en entornos regulatorios más laxos, pueden no hacerlo. La contención, en ese sentido, es siempre temporal.</p>



<p>Por eso, quizás la conclusión más incómoda es también la más evidente: Mythos no es el problema. Es el anticipo. <a href="https://www.theatlantic.com/technology/2026/04/claude-mythos-hacking/686746/" target="_blank" rel="noreferrer noopener">Un anticipo de un mundo en el que encontrar vulnerabilidades será trivial, explotarlas será automatizable y defenderse requerirá un nivel de sofisticación que muchas organizaciones simplemente no tienen</a>. Un mundo en el que la mejor herramienta para proteger sistemas será, al mismo tiempo, la mejor herramienta para atacarlos. <a href="https://medium.com/@ritukampani/claude-mythos-and-cybersecurity-when-ai-capability-becomes-a-double-edged-sword-32f7b4d607f7" target="_blank" rel="noreferrer noopener">Espadas de doble filo</a>. </p>



<p>Y, sobre todo, un mundo en el que seguiremos discutiendo si estamos ante <em>hype</em> o realidad&#8230; mientras la superficie de ataque crece más rápido de lo que somos capaces de comprender. </p>



<p>Porque la pregunta ya no es si una inteligencia artificial puede convertirse en el arma perfecta para penetrar cualquier empresa, banco o gobierno. La evidencia apunta a que estamos muy cerca de que así sea. </p>



<p>La pregunta es otra, mucho más incómoda: cuánto tiempo vamos a seguir actuando como si no lo fuera.</p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is available in English on Medium, «<a href="https://medium.com/enrique-dans/mythos-is-about-to-make-cybersecurity-much-more-difficult-2d4bd3831fc8?sk=21d33b170a03abb19a186df6186d3590" data-type="link" data-id="https://medium.com/enrique-dans/mythos-is-about-to-make-cybersecurity-much-more-difficult-2d4bd3831fc8?sk=21d33b170a03abb19a186df6186d3590" target="_blank" rel="noreferrer noopener">Mythos is about to make cybersecurity much more difficult</a>» </em></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/04/mythos-o-cuando-hackear-deja-de-ser-dificil.html/feed</wfw:commentRss>
			<slash:comments>26</slash:comments>
		
		
			</item>
		<item>
		<title>Google, la inteligencia artificial y el día en que el buscador decidió dejar de ser neutral</title>
		<link>https://www.enriquedans.com/2026/04/google-la-inteligencia-artificial-y-el-dia-en-que-el-buscador-decidio-dejar-de-ser-neutral.html</link>
					<comments>https://www.enriquedans.com/2026/04/google-la-inteligencia-artificial-y-el-dia-en-que-el-buscador-decidio-dejar-de-ser-neutral.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Thu, 09 Apr 2026 08:42:21 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[Clayton Christensen]]></category>
		<category><![CDATA[generative]]></category>
		<category><![CDATA[Google]]></category>
		<category><![CDATA[hallucinations]]></category>
		<category><![CDATA[mistake]]></category>
		<category><![CDATA[search]]></category>
		<category><![CDATA[search engines]]></category>
		<category><![CDATA[trust]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57631</guid>

					<description><![CDATA[Durante años, Google construyó algo extraordinariamente valioso: no solo un producto, sino un hábito cognitivo global. Buscar en Google no era simplemente acceder a información: era confiar en que esa información estaba razonablemente ordenada y filtrada. No era perfecta, de acuerdo, pero sí era suficientemente fiable como para servir de punto de partida. El trabajo  <a href="https://www.enriquedans.com/2026/04/google-la-inteligencia-artificial-y-el-dia-en-que-el-buscador-decidio-dejar-de-ser-neutral.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-full is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/04/Googles-mistakes-Dall·E.jpg"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/04/Googles-mistakes-Dall·E.jpg" alt="IMAGE: An AI robot inside a magnifying glass under Google’s logo, surrounded by warning signs and conflicting information sources " class="wp-image-57633" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/04/Googles-mistakes-Dall·E.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/04/Googles-mistakes-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/04/Googles-mistakes-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/04/Googles-mistakes-Dall·E-768x768.jpg 768w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Durante años, Google construyó algo extraordinariamente valioso: no solo un producto, sino un hábito cognitivo global. Buscar en Google no era simplemente acceder a información: era confiar en que esa información estaba razonablemente ordenada y filtrada. No era perfecta, de acuerdo, pero sí era suficientemente fiable como para servir de punto de partida. El trabajo de verificación, obviamente, lo tenía que hacer uno mismo (y muchos no lo hacían), pero esa confianza, acumulada durante décadas es el verdadero activo de la compañía. Y ese es precisamente  el activo que hoy está en juego. </p>



<p>La introducción de los <a href="https://en.wikipedia.org/wiki/AI_Overviews" target="_blank" rel="noreferrer noopener">AI Overviews</a> marcó un cambio profundo en la naturaleza del buscador. Sobre todo, porque Google dejaba de ser un intermediario para convertirse, cada vez más, en un narrador. Ya no se limitaba a mostrar enlaces: ahora sintetizaba, interpretaba y respondía directamente, e posición destacada, por encima de los resultados de búsqueda. El paso podía parecer lógico desde el punto de vista tecnológico y competitivo, ni más ni menos que lo que le demandaba el mercado, pero es profundamente problemático desde el punto de vista de la confianza. </p>



<p>Los datos más recientes lo ilustran con claridad. Un <a href="https://www.nytimes.com/2026/04/07/technology/google-ai-overviews-accuracy.html" target="_blank" rel="noreferrer noopener">análisis independiente publicado por el New York Times</a> basado en el <a href="https://arxiv.org/pdf/2509.07968" target="_blank" rel="noreferrer noopener"><em>benchmark</em> SimpleQA</a> sitúa la precisión de estos resúmenes en torno al 91%, que así, a primera vista, podría parecer una cifra razonable. Pero cuando esa cifra se traslada a la gigantesca escala de Google, con sus más de cinco billones de búsquedas anuales, el resultado cambia de naturaleza: <a href="https://arstechnica.com/google/2026/04/analysis-finds-google-ai-overviews-is-wrong-10-percent-of-the-time/" target="_blank" rel="noreferrer noopener">supone decenas de millones de respuestas erróneas cada hora</a>. Eso ya no es un margen de error: es un fenómeno sistémico. </p>



<p>Y el problema no termina ahí. Además, más de la mitad de las respuestas consideradas correctas están mal fundamentadas: enlazan a fuentes que no respaldan la información que presentan. Es decir, que incluso cuando aciertan, lo hacen de forma difícilmente verificable. El usuario, en el estilo que ya todos vamos empezando a conocer de los <em>chatbots</em>, recibe una respuesta con apariencia de autoridad, pero carente de un mecanismo claro para contrastarla. No solo son mentiras: son mentiras disfrazadas y difíciles de comprobar. </p>



<p>Esto no es un <em>bug</em>: es una característica inherente a la tecnología utilizada. Los modelos generativos no conocen la verdad: estiman probabilidades. Funcionan como lo que <a href="https://en.wikipedia.org/wiki/Emily_M._Bender" target="_blank" rel="noreferrer noopener">Emily Bender</a> definió en su día como <em>«<a href="https://en.wikipedia.org/wiki/Stochastic_parrot">stochastic parrots</a>«</em>, loros probabilísticos que producen secuencias plausibles sin comprender realmente su significado. Esa limitación no es necesariamente problemática en contextos experimentales, pero lo es cuando se integra en el corazón del sistema de acceso a la información de cientos de millones de personas que, además, confían ciegamente en que «lo que dice Google» es la verdad. </p>



<p>Google lo sabe. Siempre lo ha sabido. No en vano, la arquitectura que sustenta toda esta revolución, los <em><a href="https://en.wikipedia.org/wiki/Transformer_(deep_learning)" target="_blank" rel="noreferrer noopener">transformers</a></em>, nació en sus propios laboratorios con el célebre <em>paper</em> <em>«<a href="https://arxiv.org/abs/1706.03762" target="_blank" rel="noreferrer noopener">Attention Is All You Need</a>«</em>. Google no es un actor rezagado en la inteligencia artificial generativa: es, en muchos sentidos, su origen. Precisamente por eso, su aparente lentitud inicial no era falta de visión, sino exceso de ella. Entendía mejor que nadie las implicaciones para la compañía (y para todos) de desplegar masivamente una tecnología inherentemente imperfecta. </p>



<p>Ahí encaja perfectamente el marco del <em>«<a href="https://en.wikipedia.org/wiki/The_Innovator's_Dilemma">Innovator’s Dilemma</a>«</em> del gran <a href="https://en.wikipedia.org/wiki/Clayton_Christensen" target="_blank" rel="noreferrer noopener">Clayton Christensen</a>. Google no dudaba porque no pudiera innovar, sino porque esa innovación amenazaba el núcleo de su propuesta de valor. Mientras <em>startups</em> como OpenAI podían permitirse experimentar, equivocarse y corregir sobre la marcha, Google tenía mucho más que perder: su credibilidad. Lo expliqué hace tiempo en artículos como «<a href="https://www.enriquedans.com/2024/05/google-y-el-problema-de-ser-quien-es.html" target="_blank" rel="noreferrer noopener">Google y el problema de ser quien es</a>» o «<a href="https://www.enriquedans.com/2024/05/google-y-el-dilema-del-robot-borracho.html" target="_blank" rel="noreferrer noopener">Google y el dilema del robot borracho</a>«: un <em>chatbot</em> puede alucinar y seguir siendo útil, según lo que le pidas y lo que sepa quien se lo pide. Pero un buscador no puede hacerlo sin erosionar su propia razón de ser. </p>



<p>Sin embargo, la presión competitiva ha terminado imponiéndose: Google optó por desplegar sus AI Overviews a gran escala, e integrándolos en el lugar más visible de su producto. Según la propia compañía, <a href="https://blog.google/products-and-platforms/products/search/generative-ai-google-search-may-2024/" target="_blank" rel="noreferrer noopener">el sistema ha alcanzado ya a más de mil millones de usuarios y sigue expandiéndose rápidamente</a>. Pero el problema es que la escala no corrige los errores: los amplifica. </p>



<p>Innumerables casos concretos ilustran bien la naturaleza del fallo. El sistema puede ofrecer respuestas incorrectas incluso cuando enlaza a fuentes correctas, o construir conclusiones erróneas a partir de datos válidos. Puede añadir contexto adicional que introduce nuevos errores sobre una respuesta inicialmente correcta. O puede apoyarse en fuentes de baja calidad, como publicaciones en redes sociales, con mayor frecuencia cuando se equivoca. Todo ello envuelto en una presentación limpia, directa y con autoridad aparente. El resultado, como no podía ser de otra manera viniendo del buscador en el que todos llevamos décadas confiando, es una ilusión de certeza. </p>



<p>Ese es el verdadero cambio: no solo se producen errores, sino que estos se presentan de forma más convincente que nunca. El usuario ya no ve una lista de enlaces entre los que debe navegar: ve una respuesta única, sintética, colocada en la posición de mayor visibilidad y respaldada implícitamente por la marca Google. La fricción desaparece. Y con ella, también, una parte esencial del pensamiento crítico. </p>



<p>Diversos análisis apuntan además a un efecto colateral significativo: la reducción del tráfico hacia las fuentes originales. Si el usuario obtiene una respuesta directa, la necesidad de hacer clic disminuye. Google deja de ser un intermediario que distribuye atención para convertirse en un destino que la retiene. Y eso, combinado con respuestas potencialmente erróneas, redefine por completo la ecología de la información. </p>



<p>Y lo más interesante del tema es que esta tensión no es exclusiva de Google. Microsoft, uno de los actores más agresivos en la comercialización de la inteligencia artificial generativa, reconoce implícitamente el problema. En sus propios términos de uso, <a href="https://techcrunch.com/2026/04/05/copilot-is-for-entertainment-purposes-only-according-to-microsofts-terms-of-service/" target="_blank" rel="noreferrer noopener">Copilot se define como una herramienta <em>«for entertainment purposes only»</em>, advirtiendo explícitamente que puede cometer errores y que no debe utilizarse para decisiones importantes</a>. Aunque la compañía ha intentado posteriormente matizar ese lenguaje calificándolo como <a href="https://www.pcmag.com/news/copilot-terms-claim-microsofts-ai-is-for-entertainment-purposes-only" target="_blank" rel="noreferrer noopener">un vestigio de versiones anteriores</a>, el mensaje subyacente resulta difícil de ignorar: las mismas empresas que nos invitan a integrar estas herramientas en nuestro trabajo cotidiano se protegen legalmente recordándonos que, en el fondo, no son fiables. La diferencia es que Microsoft puede permitirse ese matiz, porque Copilot no es, al menos todavía, la puerta de entrada al conocimiento global. Google, en cambio, sí lo es. Y ahí es donde el riesgo cambia completamente de escala. </p>



<p>Incluso los sistemas más avanzados siguen lejos de ofrecer garantías sólidas en términos de exactitud: <a href="https://www.enriquedans.com/2025/09/alucinaciones-o-simplemente-errores-inevitables.html" target="_blank" rel="noreferrer noopener">las alucinaciones y las respuestas erróneas no son un problema de funcionamiento, sino de planteamiento</a>. La cuestión, por tanto, no es si Google puede mejorar estos sistemas. Lo hará. La cuestión es si puede permitirse desplegarlos como lo ha hecho antes de que esa mejora sea suficiente. </p>



<p>Porque aquí no estamos hablando de un producto nuevo compitiendo en un mercado emergente. Estamos hablando de una infraestructura central del ecosistema informativo global. Una infraestructura que ahora decide asumir, de forma explícita, las limitaciones de una tecnología que produce errores por diseño. </p>



<p>Durante años, Google evitó ser un oráculo. Se limitó a señalar dónde estaban las respuestas. Hoy, empieza a ofrecértelas directamente. Y cuando el oráculo miente, el problema no es que se equivoque. Es que deja de ser el oráculo. </p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is available in English on Medium, «<a href="https://medium.com/enrique-dans/ai-overviews-and-the-quiet-erosion-of-googles-credibility-5b7979720ac9?sk=b0ecd2769691e2a8c23da195881052e0" target="_blank" rel="noreferrer noopener">AI Overviews and the quiet erosion of Google’s credibility</a>» (yes, I know, Medium has a paywall and all that&#8230; but if you click on this link, I promise there will be no paywall at all!)</em> </p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/04/google-la-inteligencia-artificial-y-el-dia-en-que-el-buscador-decidio-dejar-de-ser-neutral.html/feed</wfw:commentRss>
			<slash:comments>6</slash:comments>
		
		
			</item>
		<item>
		<title>La empleabilidad algorítmica</title>
		<link>https://www.enriquedans.com/2026/04/la-empleabilidad-algoritmica.html</link>
					<comments>https://www.enriquedans.com/2026/04/la-empleabilidad-algoritmica.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Wed, 08 Apr 2026 08:47:31 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[employment]]></category>
		<category><![CDATA[Invertia]]></category>
		<category><![CDATA[SME]]></category>
		<category><![CDATA[Spain]]></category>
		<category><![CDATA[work]]></category>
		<category><![CDATA[workers]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57611</guid>

					<description><![CDATA[Mi columna de esta semana en el diario económico de El Español, Invertia, se titula «La nueva obediencia digital: sin inteligencia artificial, quizá dejes de ser empleable» (pdf), y trata sobre una transformación que me parece mucho más profunda de lo que sugiere la conversación habitual sobre productividad, automatización o «nuevas herramientas». Durante un tiempo,  <a href="https://www.enriquedans.com/2026/04/la-empleabilidad-algoritmica.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-full is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/04/AI-employability-Dall·E.jpg"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/04/AI-employability-Dall·E.jpg" alt="IMAGE: A person stands before an AI figure displaying approval and rejection symbols, suggesting evaluation or judgment." class="wp-image-57638" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/04/AI-employability-Dall·E.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/04/AI-employability-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/04/AI-employability-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/04/AI-employability-Dall·E-768x768.jpg 768w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Mi columna de esta semana en el diario económico de El Español, Invertia, se titula «<a href="https://www.elespanol.com/invertia/opinion/20260408/nueva-obediencia-digital-sin-inteligencia-artificial-dejes-empleable/1003744197120_13.html" target="_blank" rel="noreferrer noopener">La nueva obediencia digital: sin inteligencia artificial, quizá dejes de ser empleable</a>» (<a href="https://www.enriquedans.com/wp-content/uploads/2026/04/IA-y-empleabilidad-Invertia.pdf" target="_blank" rel="noreferrer noopener">pdf</a>), y trata sobre una transformación que me parece mucho más profunda de lo que sugiere la conversación habitual sobre productividad, automatización o «nuevas herramientas». Durante un tiempo, la inteligencia artificial en el trabajo fue presentada como una posibilidad, como un recurso adicional para quien quisiera experimentar y ganar eficiencia. Pero esa fase está terminando muy deprisa. En muchas empresas tecnológicas, <a href="https://www.wsj.com/tech/ai/tech-firms-arent-just-encouraging-their-workers-to-use-ai-theyre-enforcing-it-d43ebf84" target="_blank" rel="noreferrer noopener">el uso de la inteligencia artificial está dejando de ser voluntario para convertirse en un requisito explícito o implícito</a>, incorporado a evaluaciones de desempeño, procesos de selección y expectativas cotidianas de rendimiento. Ya no se trata de que puedas usarla: <a href="https://www.wsj.com/tech/ai/ai-work-use-performance-reviews-1e8975df" target="_blank" rel="noreferrer noopener">se empieza a asumir que debes hacerlo</a>.</p>



<p>Eso cambia completamente la naturaleza del debate. Cuando <a href="https://www.fastcompany.com/91517123/failing-to-use-ai-at-work-could-cost-you-your-job" target="_blank" rel="noreferrer noopener">una herramienta pasa de opcional a obligatoria</a>, deja de ser sólo tecnología y se convierte en una forma de disciplina laboral. La cuestión ya no es si ChatGPT, Copilot o el agente de turno te ayudan a trabajar mejor, sino qué ocurre cuando la empresa decide que tu valor profesional depende de tu disposición a integrarlos en cada tarea. El artículo del Wall Street Journal lo describe con bastante claridad al documentar cómo grandes tecnológicas y compañías de servicios empiezan a medir el uso de inteligencia artificial, a premiarlo y, en algunos casos, a penalizar su ausencia. No estamos ante una moda corporativa, sino ante la construcción de un nuevo estándar de normalidad laboral.</p>



<p>Naturalmente, esa normalidad se vende con el envoltorio más previsible del mundo: «adaptación», «eficiencia», «futuro del trabajo», <em>«upskilling»</em>. Google, por ejemplo, ha lanzado en Europa <a href="https://blog.google/company-news/inside-google/around-the-globe/google-europe/ai-works-for-europe/" target="_blank" rel="noreferrer noopener">toda una narrativa sobre cómo la inteligencia artificial puede impulsar crecimiento, formación y competitividad</a>, mientras Salesforce presume de <a href="https://www.salesforce.com/news/stories/daily-ai-workforce-use-growth/" target="_blank" rel="noreferrer noopener">aumentos muy fuertes en el uso diario de inteligencia artificial entre trabajadores del conocimiento</a> y de <a href="https://www.salesforce.com/news/stories/agentic-ai-impact-on-workforce-research/" target="_blank" rel="noreferrer noopener">una expectativa creciente de rediseño de plantillas y funciones en torno a agentes y automatización</a>. Nada sorprendente: las compañías que han invertido miles de millones en inteligencia artificial necesitan demostrar que su adopción interna es real, irreversible y ejemplarizante. </p>



<p>El problema es que, como ocurre siempre, los costes de esa supuesta modernización no se reparten de forma homogénea. La OCDE lleva tiempo advirtiendo de que <a href="https://www.oecd.org/en/publications/algorithmic-management-in-the-workplace_287c13c4-en.html" target="_blank" rel="noreferrer noopener">la gestión algorítmica del trabajo no solo organiza tareas: también monitoriza, clasifica, recomienda, puntúa y condiciona la autonomía profesional</a>. Y la OIT ha señalado que <a href="https://www.ilo.org/publications/generative-ai-and-jobs-refined-global-index-occupational-exposure" target="_blank" rel="noreferrer noopener">la exposición a la inteligencia artificial generativa se concentra especialmente en tareas administrativas y de oficina</a>, es decir, precisamente en actividades donde la promesa de «asistencia» puede convertirse muy deprisa en una lógica de sustitución parcial, intensificación del control o degradación del margen de decisión. El FMI, además, advierte de que <a href="https://www.imf.org/en/publications/staff-discussion-notes/issues/2024/01/14/gen-ai-artificial-intelligence-and-the-future-of-work-542379" target="_blank" rel="noreferrer noopener">la inteligencia artificial puede aumentar la desigualdad si complementa sobre todo a los trabajadores ya mejor situados en términos de cualificación e ingresos</a>.</p>



<p>Visto desde España, la cuestión adquiere un interés particular, porque aquí la discusión sobre inteligencia artificial suele oscilar entre el entusiasmo vacío y la retórica institucional, pero muy pocas veces aterriza en la estructura real del empleo. <a href="https://digital-strategy.ec.europa.eu/en/factpages/spain-2025-digital-decade-country-report" target="_blank" rel="noreferrer noopener">La Comisión Europea reconoce que España tiene fortalezas en conectividad y en ciertas competencias digitales de base</a>, pero también sigue señalando <a href="https://www.oecd.org/en/publications/generative-ai-and-the-sme-workforce_2d08b99d-en.html" target="_blank" rel="noreferrer noopener">debilidades persistentes en la digitalización empresarial, especialmente en las PYMEs</a>. Y como las PYMEs siguen siendo el núcleo de nuestro tejido productivo, eso significa que la transición hacia la inteligencia artificial obligatoria no va a vivirse igual en todas partes. Las grandes empresas podrán formar, comprar licencias, rediseñar procesos y repartir costes. Las pequeñas, muchas veces, simplemente trasladarán la presión al trabajador. </p>



<p>Ahí está, de hecho, la parte más importante del problema. Si la «empleabilidad» empieza a definirse por la familiaridad práctica con herramientas de inteligencia artificial, pero el acceso a esa familiaridad depende del tipo de empresa en la que trabajas, entonces la inteligencia artificial deja de ser solo una innovación y se convierte en un nuevo mecanismo de segmentación laboral. No entre los que saben mucho y los que saben poco, sino entre los que tienen organizaciones capaces de absorber la curva de aprendizaje y los que tienen que improvisarla en soledad, fuera de horario y sin criterios claros. La propia OCDE, en su trabajo sobre inteligencia artificial generativa y pymes, subraya que estas pueden beneficiarse mucho de la tecnología, sí, pero también que encuentran barreras muy concretas en recursos, capacidades y gobernanza. </p>



<p>Y eso ocurre, además, en un mercado laboral español que sigue arrastrando vulnerabilidades estructurales. La OCDE destaca <a href="https://www.oecd.org/en/publications/oecd-employment-outlook-2025-country-notes_f91531f7-en/spain_ded48eec-en.html" target="_blank" rel="noreferrer noopener">la persistencia de retos en productividad, calidad del empleo y formación continua</a>, mientras Eurostat sigue mostrando <a href="https://ec.europa.eu/eurostat/statistics-explained/index.php" target="_blank" rel="noreferrer noopener">el peso desproporcionado de la temporalidad en determinados segmentos del mercado de trabajo europeo</a>, una realidad que en España tiene una relevancia obvia. <a href="https://www.ft.com/content/ee2b05f2-3cf1-4d45-874d-3552a5f43555" target="_blank" rel="noreferrer noopener">Aunque el empleo haya mejorado y el desempleo haya caído</a>, eso no elimina la fragilidad de muchos itinerarios laborales ni la facilidad con la que un nuevo requisito tecnológico puede convertirse en filtro social.</p>



<p>Por eso me interesa tanto este tema: porque desmonta la ficción de que la adaptación es un asunto puramente individual. Claro que cada trabajador tendrá que aprender, experimentar y encontrar su sitio en entornos cada vez más mediados por inteligencia artificial, pero cuando una empresa exige uso de inteligencia artificial sin dedicar tiempo, recursos, formación y criterios transparentes a esa transición, no está innovando: está externalizando costes. Está diciendo, básicamente, «actualízate tú, asume tú los riesgos, aprende tú por tu cuenta y acepta que tu evaluación dependa de herramientas cuyo funcionamiento, sesgos y límites no controlas». Y eso, más que futuro del trabajo, se parece bastante a una nueva obediencia digital.</p>



<p>La cuestión, en el fondo, no es tecnológica, es política y laboral. Si aceptamos sin más que la inteligencia artificial pase de ser herramienta opcional a condición tácita de empleabilidad, deberíamos al menos discutir quién define ese estándar, con qué garantías, con qué derechos para los trabajadores y con qué apoyo real para las empresas pequeñas. Porque si no lo hacemos, la inteligencia artificial no va a «democratizar» nada: va a funcionar como otro acelerador de desigualdad, otro instrumento de control y otra forma de clasificar quién merece seguir dentro y quién puede ser tratado como perfectamente prescindible. </p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is openly available in English on Medium, «<a href="https://medium.com/enrique-dans/when-ai-stops-being-a-tool-and-becomes-a-job-requirement-db36549099b0?sk=69a2046ffafa7b75a0969203c413fe08" data-type="link" data-id="https://medium.com/enrique-dans/when-ai-stops-being-a-tool-and-becomes-a-job-requirement-db36549099b0?sk=69a2046ffafa7b75a0969203c413fe08" target="_blank" rel="noreferrer noopener">When AI stops being a tool and becomes a job requirement</a>» </em></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/04/la-empleabilidad-algoritmica.html/feed</wfw:commentRss>
			<slash:comments>23</slash:comments>
		
		
			</item>
		<item>
		<title>A la industria de la inteligencia artificial le encanta la inflación de tokens. A tu empresa no debería&#8230;</title>
		<link>https://www.enriquedans.com/2026/04/a-la-industria-de-la-inteligencia-artificial-le-encanta-la-inflacion-de-tokens-a-tu-empresa-no-deberia.html</link>
					<comments>https://www.enriquedans.com/2026/04/a-la-industria-de-la-inteligencia-artificial-le-encanta-la-inflacion-de-tokens-a-tu-empresa-no-deberia.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Tue, 07 Apr 2026 10:27:04 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[agentic]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[Anthropic]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[Claude]]></category>
		<category><![CDATA[context]]></category>
		<category><![CDATA[Fast Company]]></category>
		<category><![CDATA[OpenClaw]]></category>
		<category><![CDATA[tokens]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57621</guid>

					<description><![CDATA[La industria de la inteligencia artificial tiene un problema de adicción silencioso: está enganchada a los tokens. Cada nueva generación de inteligencia artificial agéntica parece asumir que la respuesta a la complejidad es lanzar más contexto al modelo, mantener historiales más largos, generar más llamadas, iterar sobre más herramientas y dejar que el contador de  <a href="https://www.enriquedans.com/2026/04/a-la-industria-de-la-inteligencia-artificial-le-encanta-la-inflacion-de-tokens-a-tu-empresa-no-deberia.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-full is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/04/Token-inflation-Dall·E.jpg"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/04/Token-inflation-Dall·E.jpg" alt="IMAGE: A split scene shows, on one side, a chaotic flood of glowing tokens and industrial AI systems, and on the other, a calm workspace where a person carefully builds a structured stack of relevant information, symbolizing efficient AI use " class="wp-image-57622" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/04/Token-inflation-Dall·E.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/04/Token-inflation-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/04/Token-inflation-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/04/Token-inflation-Dall·E-768x768.jpg 768w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>La industria de la inteligencia artificial tiene un problema de adicción silencioso: está enganchada a los <em>tokens</em>.</p>



<p>Cada nueva generación de inteligencia artificial agéntica parece asumir que la respuesta a la complejidad es lanzar más contexto al modelo, mantener historiales más largos, generar más llamadas, iterar sobre más herramientas y dejar que el contador de <em>tokens</em> se dispare.</p>



<p>El auge de los sistemas agénticos, y ahora de proyectos como <a href="https://docs.openclaw.ai/" target="_blank" rel="noreferrer noopener">OpenClaw</a>, refuerza aún más esa tentación: en cuanto das más autonomía a los modelos, no solo consumen <em>tokens</em> para responder preguntas. Los consumen para planificar, reflexionar, reintentar, resumir, llamar a herramientas, inspeccionar resultados y mantenerse en el camino. OpenClaw se define a sí mismo como una puerta de enlace <em>agent-native</em> con sesiones, memoria, uso de herramientas y enrutamiento multiagente a través de plataformas de mensajería, lo que deja claro hacia dónde vamos: más autonomía, más orquestación y, salvo que alguien lo corrija, mucho más consumo de <em>tokens</em>.</p>



<p>Esa trayectoria entusiasma a casi todos los que venden la infraestructura. Si la facturación se basa en <em>tokens</em>, más consumo significa más crecimiento. Si vendes el cómputo que hay detrás de esos <em>tokens</em>, mejor todavía. Google señaló en sus <a href="https://abc.xyz/investor/events/event-details/2025/2025-Q3-Earnings-Call-2025-4OI4Bac_Q9/default.aspx" target="_blank" rel="noreferrer noopener">resultados de octubre de 2025</a> que estaba procesando <strong>más de 1.3 cuatrillones de <em>tokens</em> mensuales</strong> en sus plataformas, más de veinte veces el volumen de un año antes. NVIDIA, por su parte, está <a href="https://nvidianews.nvidia.com/news/nvidia-announces-financial-results-for-fourth-quarter-and-fiscal-2026" target="_blank" rel="noreferrer noopener">apostando claramente por la economía de la inferencia y la inteligencia artificial agéntica</a>, subrayando tanto el aumento de la demanda como la oportunidad de vender cada vez más infraestructura.</p>



<p>Pero las empresas que compran inteligencia artificial deberían verlo de otra manera. Porque, desde el punto de vista del cliente, el crecimiento explosivo del consumo de <em>tokens</em> no es necesariamente una señal de inteligencia. En muchos casos, es una señal de ineficiencia.</p>



<p></p>



<p><strong>Más <em>tokens</em> no equivalen a más inteligencia</strong></p>



<p>El relato dominante en la industria trata el consumo de <em>tokens</em> como si fuera un indicador de progreso. Ventanas de contexto más grandes, más trazas de razonamiento, más bucles de agentes, más memoria, más recuperación, más interacciones. Todo suena impresionante.</p>



<p>Pero un sistema que necesita ingerir y regenerar enormes cantidades de contexto en cada paso no es necesariamente más inteligente. Puede simplemente estar mal diseñado.</p>



<p>La propia <a href="https://www.anthropic.com/engineering/effective-context-engineering-for-ai-agents" target="_blank" rel="noreferrer noopener">guía de ingeniería de Anthropic</a> lo deja sorprendentemente claro. Su equipo defiende que el contexto debe tratarse como un recurso finito, y que una buena ingeniería de contexto consiste en encontrar «el conjunto más pequeño posible de <em>tokens</em> de alta señal» para cada tarea. No es una optimización marginal. Es una filosofía completamente distinta. Viene a decir que el futuro no pertenece a los sistemas que pueden tragarse más contexto, sino a los que saben qué contexto importa de verdad.</p>



<p>Esa distinción se vuelve crítica a medida que se extienden los flujos de trabajo agénticos. En cuanto permites que un sistema de inteligencia artificial actúe de forma iterativa, utilice herramientas, revise planes y mantenga estado de sesión, el consumo de <em>tokens</em> se multiplica rápidamente. Lo que desde fuera parece una única tarea puede implicar múltiples prompts ocultos, subconsultas, resúmenes y reintentos. <a href="https://www.deloitte.com/us/en/services/consulting/articles/how-to-navigate-economics-of-ai.html" target="_blank" rel="noreferrer noopener">Deloitte ya describe los <em>tokens</em> como la nueva moneda de la economía de la inteligencia artificial</a>, precisamente porque la estructura de los sistemas agénticos altera radicalmente la dinámica de costes.</p>



<p>Y, sin embargo, muchas empresas siguen comportándose como si escalar fuera suficiente para resolver el problema.</p>



<p>No lo es.</p>



<p></p>



<p><strong>El contexto largo no es gratis</strong></p>



<p>Uno de los mitos más persistentes en la inteligencia artificial empresarial es que, si algo de contexto es bueno, más contexto tiene que ser mejor. Esa suposición siempre fue simplista, y la evidencia en su contra es cada vez más sólida.</p>



<p>El paper <em>«<a href="https://aclanthology.org/2024.tacl-1.9.pdf" target="_blank" rel="noreferrer noopener">Lost in the Middle</a>«</em> mostró que los modelos de lenguaje tienen dificultades para utilizar información relevante cuando está enterrada en contextos largos, funcionando mejor cuando la información clave aparece al principio o al final. Más recientemente, la evaluación de contexto largo de Chroma en 18 modelos encontró que <a href="https://www.trychroma.com/research/context-rot" target="_blank" rel="noreferrer noopener">el rendimiento se vuelve cada vez más inestable a medida que crece la longitud de entrada</a>. En otras palabras, llega un punto en el que más <em>tokens</em> dejan de aportar inteligencia y empiezan a aportar sólo ruido.</p>



<p>Es aquí donde el enfoque de fuerza bruta empieza a parecer menos una inevitabilidad tecnológica y más una arquitectura perezosa. Si tu respuesta a cada nueva necesidad es meter más contenido en el prompt, conservar cada interacción para siempre y mantener todos los artefactos intermedios en la ventana activa de contexto, no estás construyendo un mejor sistema de inteligencia artificial. Estás construyendo uno más caro y, probablemente, peor.</p>



<p><strong>La verdadera frontera es la ingeniería de contexto</strong></p>



<p>El futuro interesante no es «más grande y más voraz». Es <strong>más selectivo, más estructurado y más deliberado</strong>. Por eso el concepto emergente más importante en la inteligencia artificial aplicada puede no ser la ingeniería de <em>prompts</em>, sino la <strong>ingeniería de contexto</strong>.</p>



<p>Anthropic define explícitamente la ingeniería de contexto como el siguiente paso tras la ingeniería de prompts. OpenAI ofrece recuperación (<em><a href="https://developers.openai.com/api/docs/guides/retrieval" target="_blank" rel="noreferrer noopener">retrieval</a></em>) y <em><a href="https://developers.openai.com/api/docs/guides/prompt-caching" target="_blank" rel="noreferrer noopener">prompt caching</a></em> para evitar enviar repetidamente grandes volúmenes de información. Google ofrece <em><a href="https://docs.cloud.google.com/vertex-ai/generative-ai/docs/context-cache/context-cache-overview" target="_blank" rel="noreferrer noopener">context caching</a></em> para reutilizar contextos iniciales extensos. Las <a href="https://learn.microsoft.com/en-us/azure/search/retrieval-augmented-generation-overview?tabs=videos" target="_blank" rel="noreferrer noopener">recomendaciones de Microsoft sobre RAG</a> y <em><a href="https://learn.microsoft.com/en-us/azure/architecture/ai-ml/guide/rag/rag-chunking-phase">chunking</a></em> son igual de claras: enviar documentos completos o fragmentos sobredimensionados es caro, puede saturar los límites de <em>tokens</em> y a menudo produce peores resultados que pipelines de recuperación bien diseñados.</p>



<p>Un ejemplo reciente lo ilustra perfectamente: <a href="https://venturebeat.com/technology/anthropic-cuts-off-the-ability-to-use-claude-subscriptions-with-openclaw-and" target="_blank" rel="noreferrer noopener">la decisión de Anthropic de cortar el acceso a Claude desde entornos como OpenClaw cuando se utilizaban suscripciones planas</a>. En cuanto los sistemas agénticos empezaron a ejecutar bucles autónomos —planificando, iterando y llamando herramientas sin fricción— el consumo de <em>tokens</em> dejó de ser marginal y pasó a ser explosivo. Lo que desde fuera parecía «más inteligencia» era, en realidad, una arquitectura que quemaba <em>tokens</em> a una velocidad incompatible con los modelos de <em>pricing</em> existentes. La <a href="https://www.theverge.com/ai-artificial-intelligence/907074/anthropic-openclaw-claude-subscription-ban" target="_blank" rel="noreferrer noopener">rápida reacción del proveedor</a> no es una anomalía: es una señal estructural. Cuando el coste real aflora, los límites aparecen. Y eso debería hacer reflexionar a cualquier empresa: si tu sistema depende de supuestos económicos o contractuales que pueden romperse en cuanto el uso se vuelve intensivo, no tienes una ventaja tecnológica. Tienes una dependencia frágil disfrazada de capacidad.</p>



<p>No son técnicas marginales. Son señales claras de que la era de la fuerza bruta tiene límites.</p>



<p>El patrón es evidente. El <em>stack</em> empresarial del futuro no consistirá en reenviar ciegamente todo lo que una empresa sabe a un modelo en cada interacción. Se basará en mejor arquitectura: capas de recuperación, control de accesos, memoria selectiva, resúmenes jerárquicos, compresión de contexto, caché, enrutamiento y planificación de consultas.</p>



<p>En otras palabras, se basará en ingeniería.</p>



<p></p>



<p><strong>Por qué la economía actual es engañosa</strong></p>



<p>Aquí es donde los incentivos se distorsionan.</p>



<p>Los proveedores de modelos pueden vivir perfectamente en un mundo en el que los clientes creen que el crecimiento de <em>tokens</em> es natural, inevitable e incluso deseable. Más llamadas, más contexto, más bucles, más ingresos. Los fabricantes de GPUs también salen ganando cuando la demanda de inferencia sigue creciendo.</p>



<p>Y, por supuesto, parte de esa demanda es legítima. Hay casos de uso reales que requieren más contexto, más modalidades y una inferencia más sofisticada. Pero sería un error confundir «hay demanda» con «no hay desperdicio».</p>



<p>OpenAI afirma que <a href="https://developers.openai.com/api/docs/guides/prompt-caching" target="_blank" rel="noreferrer noopener">el <em>prompt caching</em> puede reducir la latencia hasta en un 80% y los costes de <em>tokens</em> de entrada hasta en un 90%</a> en contenidos repetidos. Google señala que <a href="https://docs.cloud.google.com/vertex-ai/generative-ai/docs/context-cache/context-cache-overview" target="_blank" rel="noreferrer noopener">el <em>context caching</em> es especialmente útil cuando se reutiliza un contexto inicial amplio</a>. Microsoft afirma que <a href="https://learn.microsoft.com/en-us/azure/architecture/ai-ml/guide/rag/rag-chunking-phase" target="_blank" rel="noreferrer noopener">un buen <em>chunking</em> elimina información irrelevante y mejora tanto el coste como la calidad</a>. Ninguna de estas capacidades sería relevante si el enfoque de fuerza bruta fuera ya eficiente. Su mera existencia demuestra que una arquitectura inteligente supera al uso indiscriminado de <em>tokens</em>.</p>



<p>Por eso las empresas deberían ser muy cautas al adoptar el lenguaje de los proveedores que les venden computación. «Más capaz» y «más caro de ejecutar» no son sinónimos. <strong>La industria de la inteligencia artificial está monetizando la inflación de <em>tokens</em>. Las empresas inteligentes diseñarán sistemas para escapar de ella</strong>.</p>



<p></p>



<p><strong>La ventaja competitiva vendrá de entender tu propio contexto</strong></p>



<p>Aquí es donde este análisis deja de ser una queja sobre costes. Porque la verdadera oportunidad no es solo reducir la factura de <em>tokens</em>. Es construir mejores sistemas.</p>



<p>Una empresa que entiende su propia estructura de conocimiento, sus permisos internos, sus flujos de trabajo, su terminología y su lógica de decisión no debería tener que abordar cada interacción con un sistema de inteligencia artificial como si hablara con un desconocido desde cero. Debería ser capaz de arquitectar el contexto de forma inteligente: recuperar la información adecuada en el momento adecuado, preservar lo relevante, descartar lo superfluo y anclar las respuestas en su propia lógica interna.</p>



<p>No es una mejora menor. Cambia radicalmente la economía de la inteligencia artificial empresarial.</p>



<p>Si la plataforma de la empresa está bien diseñada, el modelo no debería tener que cargar con todo el mundo en su memoria activa constantemente. Debería trabajar con un subconjunto dinámico, curado y de alta señal. La <a href="https://learn.microsoft.com/en-us/azure/search/retrieval-augmented-generation-overview?tabs=videos" target="_blank" rel="noreferrer noopener">arquitectura de recuperación agéntica de Microsoft</a> apunta exactamente en esa dirección: subconsultas enfocadas, respuestas estructuradas, citas, filtrado de seguridad y anclaje en fuentes de conocimiento, en lugar de saturar el contexto indiscriminadamente.</p>



<p>Por eso mismo argumenté en otro artículo que «<a href="https://www.enriquedans.com/2026/03/la-inteligencia-artificial-no-sustituye-a-la-estrategia-la-deja-al-descubierto.html" target="_blank" rel="noreferrer noopener">la inteligencia artificial no sustituye a la estrategia: la dejará al descubierto</a>«. Aquí ocurre lo mismo. La inteligencia artificial no solo revelará si has adoptado el último modelo. Revelará si tu empresa entiende realmente su propia arquitectura de información o si ha estado operando en una niebla de documentos desconectados, permisos inconsistentes y procesos fragmentados.</p>



<p></p>



<p><strong>Qué premiará realmente la próxima fase de la inteligencia artificial</strong></p>



<p>Las empresas que ganen en la próxima fase de la inteligencia artificial no serán las que puedan pagar las mayores facturas de <em>tokens</em>. Serán las que construyan sistemas que no las necesiten.</p>



<p>Tratarán los <em>tokens</em> como los buenos ingenieros tratan el ancho de banda, la batería o la latencia: no como recursos infinitos que se consumen sin pensar, sino como restricciones que premian el diseño inteligente. Guardarán la mayor parte del contexto en modelos del mundo. Usarán modelos grandes cuando tenga sentido. Usarán recuperación cuando sea suficiente. Cachearán el contexto repetido. Enrutarán tareas simples a modelos más baratos. Gestionarán la memoria en lugar de idealizarla. Distinguirán entre contexto disponible y contexto útil.</p>



<p>Y, sobre todo, dejarán de confundir fuerza bruta con sofisticación. Esa es la parte del relato actual de la inteligencia artificial que necesita una corrección urgente. La industria nos empuja a imaginar un futuro en el que el consumo creciente de <em>tokens</em> es simplemente el precio del progreso.</p>



<p>Probablemente no lo sea. Es, al menos en parte, el precio de una arquitectura inmadura. Y la arquitectura madura tiene una forma muy eficaz de destruir malos modelos de negocio.</p>



<p><strong>El futuro de la inteligencia artificial no pertenecerá a las empresas que consuman más <em>tokens</em>. Pertenecerá a las que sepan necesitar menos. </strong></p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>(This article was <a href="https://www.fastcompany.com/91517855/ai-industry-loves-token-inflation-your-company-shouldnt">previously published on Fast Company</a>)</em> </p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/04/a-la-industria-de-la-inteligencia-artificial-le-encanta-la-inflacion-de-tokens-a-tu-empresa-no-deberia.html/feed</wfw:commentRss>
			<slash:comments>10</slash:comments>
		
		
			</item>
		<item>
		<title>Colorado y el fin del frenar solo durante el tramo de radar</title>
		<link>https://www.enriquedans.com/2026/04/colorado-y-el-fin-del-frenar-solo-durante-el-tramo-de-radar.html</link>
					<comments>https://www.enriquedans.com/2026/04/colorado-y-el-fin-del-frenar-solo-durante-el-tramo-de-radar.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Mon, 06 Apr 2026 08:28:33 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[automotive]]></category>
		<category><![CDATA[drivers]]></category>
		<category><![CDATA[driving]]></category>
		<category><![CDATA[fines]]></category>
		<category><![CDATA[radar]]></category>
		<category><![CDATA[speed]]></category>
		<category><![CDATA[speeding ticket]]></category>
		<category><![CDATA[surveillance]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57614</guid>

					<description><![CDATA[Durante años, demasiados conductores han entendido el control de velocidad no como una norma, sino como un pequeño juego de estrategia: correr cuando el asfalto parece libre, mirar el móvil cuando Waze o el detector avisan, levantar el pie justo antes del radar y volver a acelerar unos metros después. No era conducción responsable, sólo  <a href="https://www.enriquedans.com/2026/04/colorado-y-el-fin-del-frenar-solo-durante-el-tramo-de-radar.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-full is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/04/Speed-camera-Dall·E.jpg"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/04/Speed-camera-Dall·E.jpg" alt="IMAGE: A highway scene with multiple cars driving under a network of automated speed cameras, one prominently scanning vehicles and tracking their average speed across the road " class="wp-image-57615" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/04/Speed-camera-Dall·E.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/04/Speed-camera-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/04/Speed-camera-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/04/Speed-camera-Dall·E-768x768.jpg 768w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Durante años, demasiados conductores han entendido el control de velocidad no como una norma, sino como un pequeño juego de estrategia: correr cuando el asfalto parece libre, mirar el móvil cuando Waze o el detector avisan, levantar el pie justo antes del radar y volver a acelerar unos metros después. No era conducción responsable, sólo picaresca automatizada.</p>



<p>Lo que está haciendo ahora Colorado con su <a href="https://www.codot.gov/programs/speedenforcement">Colorado Speed Enforcement Program</a>, sin embargo, cambia por completo esa lógica: como los <a href="https://www.dgt.es/comunicacion/noticias/que-es-un-radar-de-tramo/" target="_blank" rel="noreferrer noopener">radares de tramo</a> en España, ya no mide si ibas demasiado rápido en un punto, sino <a href="https://www.codot.gov/programs/speedenforcement/faq" target="_blank" rel="noreferrer noopener">si has circulado demasiado rápido a lo largo de un tramo</a>. Y eso convierte el viejo truco del frenazo puntual en algo prácticamente inútil. </p>



<p>Este sistema se apoya en cámaras de control de velocidad separadas entre sí, normalmente entre un cuarto y media milla en las zonas de obra. <a href="https://www.motor1.com/news/792050/colorado-automated-speed-limit-cameras/" target="_blank" rel="noreferrer noopener">Cada vez que un vehículo pasa por una de ellas, el sistema registra imagen, matrícula y marca temporal. Después calcula la velocidad media entre dos puntos dividiendo la distancia recorrida por el tiempo empleado</a>. Si esa media supera el límite aplicable, <a href="https://www.codot.gov/news/2026/march-2026-news/speeding-fines-begin-april2-i25-mead-berthoud" target="_blank" rel="noreferrer noopener">llega una multa</a>. No importa tanto lo que hiciste justo delante de la cámara como lo que hiciste durante todo el trayecto vigilado. Eso es lo verdaderamente disruptivo del modelo, y también lo que lo hace mucho más difícil de esquivar con hábitos oportunistas. </p>



<p>En el caso concreto que ha llamado la atención en Colorado, el estado ha activado ocho cámaras en ambos sentidos de la I-25 entre Mead y Berthoud, en una zona de obras, situadas en los hitos 244.3, 245.9, 247.5 y 249.4, según el <a href="https://www.codot.gov/programs/speedenforcement/cameralocations" target="_blank" rel="noreferrer noopener">mapa oficial de ubicaciones activas</a>. El estado anunció <a href="https://www.motor1.com/news/792050/colorado-automated-speed-limit-cameras/" target="_blank" rel="noreferrer noopener">un período de advertencias desde el 1 de marzo y el inicio de las sanciones el 2 de abril</a>, y tras ese período, las multas pasaron a ser de 75 dólares en zonas de obra, y se envían directamente al propietario registrado del vehículo. El propio departamento explica además que la señalización debe colocarse con antelación, y que los avisos públicos son obligatorios antes de activar el sistema. En realidad, poca novedad: <a href="https://motor.elpais.com/actualidad/el-radar-de-tramo-que-se-te-olvida-mientras-conduces-asi-funciona-el-mas-extenso-y-temido-de-espana/" target="_blank" rel="noreferrer noopener">en España hay radares de tramo que abarcan hasta 32,9 kilómetros</a>. </p>



<p>Ese detalle, que la sanción recaiga sobre el propietario registrado y no necesariamente sobre quien conducía, introduce otra capa interesante. No estamos ya ante el viejo agente apostado con radar, que detiene a una persona concreta y la identifica en el acto, sino ante una lógica de responsabilidad administrativa vinculada al vehículo. La página legislativa de la <a href="https://leg.colorado.gov/bills/sb23-200" target="_blank" rel="noreferrer noopener">SB23-200</a> deja claro que el estado abrió la puerta a estos sistemas en 2023, exigiendo además 30 días de anuncio público y otros 30 días iniciales solo con advertencias. Las preguntas frecuentes oficiales de CDOT añaden que estas infracciones no conllevan puntos en el carnet, pero sí un proceso de cobro y apelación con plazos definidos. Es una evolución muy significativa: menos castigo penalizado en puntos, más automatización administrativa, más trazabilidad y menos margen para la improvisación del conductor.</p>



<p>Lo verdaderamente interesante, sin embargo, no es la multa, sino el cambio cultural que implica. El conductor que solo reduce la velocidad al pasar por el radar deja de tener ventaja. Si acelera entre cámara y cámara, la media lo delata. Dicho de otro modo: el sistema no obliga a parecer obediente durante tres segundos, sino a comportarse de manera consistente a lo largo de todo el tramo monitorizado. Esa es precisamente la razón por la que este modelo erosiona el valor tradicional de las alertas puntuales de apps de navegación. Saber dónde está una cámara sirve de poco si lo que se vigila no es un punto, sino una secuencia. La única manera fiable de no ser sancionado deja de ser el frenazo teatral y pasa a ser algo mucho menos glamuroso: respetar el límite durante todo el recorrido controlado. Esa conclusión se desprende directamente del funcionamiento oficial del sistema.</p>



<p>Desde la perspectiva de la seguridad vial, el razonamiento del estado no es caprichoso. <a href="https://www.cpr.org/2024/06/04/speed-cameras-are-coming-to-a-colorado-highway-construction-zone-near-you/" target="_blank" rel="noreferrer noopener">La expansión de estos sistemas se plantea primero en zonas de obras, precisamente porque son entornos peligrosos y difíciles de vigilar con presencia policial convencional</a>. CDOT sostiene ahora que en la I-25, durante el período de advertencias, las velocidades excesivas en el corredor cayeron un 90%, y que en el corredor anterior de la CO119 habían caído en más de un 80%. Son cifras oficiales que habrá que seguir con cuidado, porque proceden de la propia administración interesada en demostrar la eficacia del programa, pero apuntan a algo razonable: cuando el control deja de ser esporádico y se vuelve continuo, la conducta cambia.</p>



<p>Y no se trata solo de una intuición de despacho. La evidencia acumulada sobre radares y cámaras de velocidad es bastante consistente. Un <a href="https://www.cochrane.org/evidence/CD004607_do-speed-cameras-reduce-road-traffic-crashes-injuries-and-deaths" target="_blank" rel="noreferrer noopener">estudio</a> concluyó que las cámaras de velocidad son una intervención útil para reducir lesiones y muertes por tráfico, con reducciones observadas en velocidad media, en proporción de conductores que exceden el límite y en siniestros graves cerca de los puntos controlados. El Insurance Institute for Highway Safety va en la misma dirección y <a href="https://www.iihs.org/media/bfb25e65-6fae-40eb-a8a6-56f112b321d7/SFohNg/Topics/Research%20summaries/IIHS-HLDI%20Safety%20Solution%E2%80%94speed%20safety%20cameras.pdf">ofrece resultados que vinculan estas tecnologías con menos excesos de velocidad y menos accidentes graves</a>. Uno puede discutir cómo se implantan, con qué garantías y con qué límites, pero cada vez resulta más difícil sostener seriamente que no sirven para modificar comportamientos. </p>



<p>La parte incómoda, por supuesto, es otra. Cada vez que una administración implanta un sistema así, aparece la discusión sobre vigilancia, privacidad, recaudación y despersonalización del castigo, y no le falta cierta razón. La FAQ oficial insiste en que las imágenes solo se conservan cuando hay infracción, que los materiales asociados son confidenciales y que se destruyen en un plazo de hasta tres años tras resolverse el caso. Todo eso está muy bien, pero no elimina la cuestión de fondo: estamos normalizando infraestructuras que convierten la carretera en un espacio cada vez más medido, más trazable y más gobernado por sistemas automáticos. El radar deja de ser una excepción visible y se convierte en una capa ambiental del tráfico. </p>



<p>La pregunta, en realidad, no es si Colorado ha encontrado una forma más eficaz de multar. La pregunta es si estamos asistiendo al final de una cultura de conducción basada en la simulación del cumplimiento. Durante décadas muchos conductores no han respetado los límites: han respetado, como mucho, la posibilidad de ser cazados. El sistema de velocidad media ataca exactamente esa hipocresía. Obliga a cumplir de verdad, no únicamente a escenificar el cumplimiento. Y ahí reside toda su fuerza, pero también toda su carga simbólica: no corrige solo una infracción, corrige toda una manera de pensar. </p>



<p>Por eso la novedad de Colorado merece atención. No porque una <em>app</em> vaya a avisar menos, sino porque introduce una idea mucho más profunda y probablemente irreversible: en la carretera del futuro, la trampa del último segundo vale cada vez menos. El conductor que antes jugaba a esconderse del radar tendrá que elegir entre dos opciones mucho menos divertidas: conducir dentro de la norma o financiar, de multa en multa, la pedagogía tecnológica del estado. </p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is openly available in English on Medium, «<a href="https://medium.com/enrique-dans/you-cant-outsmart-this-speed-camera-it-doesn-t-care-where-you-slow-down-285f93f7092d?sk=dc67527917dc224056642f64640b1ee0" data-type="link" data-id="https://medium.com/enrique-dans/you-cant-outsmart-this-speed-camera-it-doesn-t-care-where-you-slow-down-285f93f7092d?sk=dc67527917dc224056642f64640b1ee0" target="_blank" rel="noreferrer noopener">You can’t outsmart this speed camera: it doesn’t care where you slow down</a>» </em></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/04/colorado-y-el-fin-del-frenar-solo-durante-el-tramo-de-radar.html/feed</wfw:commentRss>
			<slash:comments>30</slash:comments>
		
		
			</item>
		<item>
		<title>Pensar cansa: por eso estamos empezando a dejar que la inteligencia artificial lo haga por nosotros</title>
		<link>https://www.enriquedans.com/2026/04/pensar-cansa-por-eso-estamos-empezando-a-dejar-que-la-inteligencia-artificial-lo-haga-por-nosotros.html</link>
					<comments>https://www.enriquedans.com/2026/04/pensar-cansa-por-eso-estamos-empezando-a-dejar-que-la-inteligencia-artificial-lo-haga-por-nosotros.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Sun, 05 Apr 2026 06:16:54 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[chatbots]]></category>
		<category><![CDATA[convergence]]></category>
		<category><![CDATA[critical thinking]]></category>
		<category><![CDATA[Large Language Model]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57606</guid>

					<description><![CDATA[Hay algo profundamente tentador en una respuesta bien escrita, inmediata y aparentemente razonable. Algo que invita a asentir, copiar, pegar… y seguir adelante. Durante años hemos delegado tareas en máquinas sin mayor problema, pero lo que empieza a emerger con la inteligencia artificial generativa no es una simple delegación: es otra cosa mucho más inquietante.  <a href="https://www.enriquedans.com/2026/04/pensar-cansa-por-eso-estamos-empezando-a-dejar-que-la-inteligencia-artificial-lo-haga-por-nosotros.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-full is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/04/Cognitive-surrender-Gemini.jpg"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/04/Cognitive-surrender-Gemini.jpg" alt="IMAGE: A modern illustration showing two people. On the left, a person is zoned out while using a computer; colorful, glowing data threads come from the screen, flowing around their head like an artificial brain process. On the right, another person is actively thinking and critical, with a distinct, glowing, gear-filled thought cloud appearing above their own head " class="wp-image-57608" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/04/Cognitive-surrender-Gemini.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/04/Cognitive-surrender-Gemini-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/04/Cognitive-surrender-Gemini-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/04/Cognitive-surrender-Gemini-768x768.jpg 768w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Hay algo profundamente tentador en una respuesta bien escrita, inmediata y aparentemente razonable. Algo que invita a asentir, copiar, pegar… y seguir adelante. Durante años hemos delegado tareas en máquinas sin mayor problema, pero lo que empieza a emerger con la inteligencia artificial generativa no es una simple delegación: es otra cosa mucho más inquietante. Es lo que algunos investigadores ya llaman <em><a href="https://www.psychologytoday.com/us/blog/harnessing-hybrid-intelligence/202602/are-we-cruising-toward-cognitive-capitulation" target="_blank" rel="noreferrer noopener">cognitive surrender</a></em>, rendición cognitiva. Y el término no es exagerado. </p>



<p>La idea es sencilla, pero incómoda: no estamos usando la IA para pensar mejor, sino cada vez más para no tener que pensar. Y no porque no sepamos hacerlo, sino porque resulta más rápido, más cómodo y, sobre todo, más convincente aceptar lo que la máquina nos devuelve que someterlo al escrutinio que exigiría cualquier respuesta humana.</p>



<p>Un estudio reciente con más de mil participantes, publicado como <em>working paper</em> en SSRN y titulado «<a href="https://papers.ssrn.com/sol3/papers.cfm?abstract_id=6097646" target="_blank" rel="noreferrer noopener"><em>Thinking—fast, slow, and artificial: how AI is reshaping human reasoning and the rise of cognitive surrender</em></a>«, lo deja claro: cuando una inteligencia artificial proporciona respuestas incorrectas, los usuarios siguen aceptándolas en más de un 70% de los casos. No es solo un problema de error, <a href="https://arstechnica.com/ai/2026/04/research-finds-ai-users-scarily-willing-to-surrender-their-cognition-to-llms/" target="_blank" rel="noreferrer noopener">es un problema de sumisión</a>. Lo verdaderamente preocupante es que muchos participantes no solo fallaban, sino que lo hacían con más confianza. Se equivocaban&#8230; pero convencidos de que no lo hacían. </p>



<p>Esto no va de ignorancia, sino de comportamiento: de cómo reaccionamos ante una fuente que parece fiable, articulada y segura de sí misma. La inteligencia artificial no duda, no titubea, no muestra inseguridad. Y en un entorno saturado de incertidumbre, eso la convierte en una especie de oráculo moderno. Uno que no siempre acierta, pero que siempre suena como si lo hiciera. </p>



<p>La psicología lleva décadas estudiando algo parecido bajo otros nombres: automatización, sesgo de autoridad, dependencia cognitiva. Pero hay una diferencia clave. Antes, las máquinas eran torpes, rígidas, claramente artificiales. Ahora, el interfaz conversacional disfraza sus limitaciones bajo una capa de lenguaje natural impecable. Y eso cambia radicalmente nuestra relación con ellas. </p>



<p>Porque no evaluamos una respuesta solo por su contenido, sino por su forma. Y una frase bien construida, fluida, coherente, tiene muchas más probabilidades de ser aceptada que una torpe, incluso aunque ambas sean igual de correctas&#8230; o de incorrectas. Lo anticipé hace ya tiempo <a href="https://www.enriquedans.com/2023/01/cuando-el-algoritmo-piensa-por-ti.html" target="_blank" rel="noreferrer noopener">aquí</a>: el resultado es una externalización progresiva del razonamiento. No sólo buscamos información fuera de nuestra cabeza, algo perfectamente lógico, sino que empezamos a delegar el proceso mismo de pensar: estructurar un argumento, ponderar alternativas, detectar inconsistencias. Es decir, justo aquello que define el pensamiento crítico.</p>



<p>No todos caen igual. Quienes tienen mayor capacidad de razonamiento abstracto, lo que en psicología se denomina <em><a href="https://www.btbpsychology.com/blog/understanding-psychoeducational-testing-terms-fluid-reasoning" target="_blank" rel="noreferrer noopener">fluid reasoning</a></em>, parecen resistir mejor esa tentación. Detectan mejor cuándo algo no encaja y mantienen (o tratan de mantener, según su nivel de conocimineto de la materia) una cierta distancia crítica. Pero el diseño actual de estos sistemas no ayuda precisamente a fomentar ese comportamiento. Al contrario: todo está optimizado para reducir fricción, no para generar duda. </p>



<p>Y ahí aparece otro problema, más sutil pero igual de grave: la inteligencia artificial no solo puede equivocarse, sino que puede reforzar nuestros propios errores. Hay evidencias claras de que <a href="https://news.stanford.edu/stories/2026/03/ai-advice-sycophantic-models-research">algunos modelos tienden a comportarse de forma complaciente, a dar la razón al usuario incluso cuando no debería</a>, un modelo muy preocupante de convergencia con el usuario que algunos, infantilmente, creen que pueden contrarrestar simplemente copiando y pegando un <em>prompt</em> con variaciones de «no me des la razón». No, los LLM no corrigen, no confrontan, no incomodan. Y eso tiene consecuencias. Porque una herramienta que confirma tus sesgos es mucho más peligrosa que una que los cuestiona.</p>



<p>En el ámbito educativo, los síntomas empiezan a ser visibles. Menos esfuerzo cognitivo, sí. Pero también argumentos más superficiales, menos elaborados, menos originales. Investigaciones recientes apuntan precisamente en esa dirección: <a href="https://www.sciencedirect.com/science/article/pii/S0747563224002541" target="_blank" rel="noreferrer noopener">el uso de modelos generativos reduce la carga cognitiva, pero también la calidad del razonamiento</a>.</p>



<p>Pensar es lento, incómodo y, en muchas ocasiones, frustrante. Requiere tiempo, atención y una cierta tolerancia al error. La inteligencia artificial elimina gran parte de ese coste. Pero al hacerlo, también elimina una parte esencial del aprendizaje. Porque no es lo mismo llegar a una conclusión que recibirla. </p>



<p>El problema no es que la inteligencia artificial sea mala. El problema es que es demasiado buena en algo muy concreto: en parecer convincente. Y eso, en un contexto en el que tendemos a premiar la velocidad sobre la profundidad, crea el caldo de cultivo perfecto para la rendición cognitiva. <a href="https://news.mit.edu/2024/reasoning-skills-large-language-models-often-overestimated-0711" target="_blank" rel="noreferrer noopener">Tendemos a sobreestimar la capacidad de razonamiento de estos sistemas</a>, especialmente cuando nos movemos fuera de los contextos que nos son más familiares, y en los que nuestra capacidad de contrastar es más débil. Simplemente, aceptamos lo que nos dicen como verdad absoluta, sin rechistar. </p>



<p>No se trata de dejar de usar estas herramientas. Sería absurdo. Se trata de entender qué hacen con nosotros cuando las usamos mal. Porque la frontera no está en la tecnología, sino en la actitud. Podemos utilizarlas para pensar mejor&#8230; o para dejar de pensar. Y esa elección, aunque no lo parezca, no es técnica. Es profundamente cultural. </p>



<p>La gran paradoja de este momento es que, cuanto más accesible se vuelve la inteligencia, más valor adquiere algo mucho más escaso: el criterio. Y el criterio no se delega. O al menos, no se delega sin pagar un precio. </p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is openly available in English on Medium, «<a href="https://medium.com/enrique-dans/thinking-hurts-so-why-not-surrender-to-ai-68da41119eb2?sk=322870b1c6c067015b05c7fc6c173999" data-type="link" data-id="https://medium.com/enrique-dans/thinking-hurts-so-why-not-surrender-to-ai-68da41119eb2?sk=322870b1c6c067015b05c7fc6c173999" target="_blank" rel="noreferrer noopener">Thinking hurts, so why not surrender to AI</a>?» </em></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/04/pensar-cansa-por-eso-estamos-empezando-a-dejar-que-la-inteligencia-artificial-lo-haga-por-nosotros.html/feed</wfw:commentRss>
			<slash:comments>28</slash:comments>
		
		
			</item>
		<item>
		<title>La soberanía tecnológica era un mito&#8230; hasta que China decidió tomársela en serio</title>
		<link>https://www.enriquedans.com/2026/04/la-soberania-tecnologica-era-un-mito-hasta-que-china-decidio-tomarsela-en-serio.html</link>
					<comments>https://www.enriquedans.com/2026/04/la-soberania-tecnologica-era-un-mito-hasta-que-china-decidio-tomarsela-en-serio.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Sat, 04 Apr 2026 07:44:56 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[China]]></category>
		<category><![CDATA[decarbonization]]></category>
		<category><![CDATA[energy]]></category>
		<category><![CDATA[independence]]></category>
		<category><![CDATA[innovation]]></category>
		<category><![CDATA[manufacturing]]></category>
		<category><![CDATA[renewables]]></category>
		<category><![CDATA[sovereignty]]></category>
		<category><![CDATA[US]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57598</guid>

					<description><![CDATA[Durante años, el discurso dominante en Estados Unidos ha girado en torno a una idea tan repetida como poco examinada: la necesidad de recuperar la soberanía tecnológica, de relocalizar cadenas de suministro, de reducir dependencias estratégicas. La narrativa suena bien, encaja en términos políticos y transmite una sensación de control. El problema es que, cuando  <a href="https://www.enriquedans.com/2026/04/la-soberania-tecnologica-era-un-mito-hasta-que-china-decidio-tomarsela-en-serio.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-full is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/04/US-China-dependencies-Nano-Banana.jpg"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/04/US-China-dependencies-Nano-Banana.jpg" alt="IMAGE: A split illustration shows a blue US side with high-tech AI infrastructure and a broken power grid, connected by red wires to a vibrant orange Chinese side featuring robust electrical manufacturing and engineering " class="wp-image-57599" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/04/US-China-dependencies-Nano-Banana.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/04/US-China-dependencies-Nano-Banana-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/04/US-China-dependencies-Nano-Banana-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/04/US-China-dependencies-Nano-Banana-768x768.jpg 768w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Durante años, el discurso dominante en Estados Unidos ha girado en torno a una idea tan repetida como poco examinada: la necesidad de recuperar la soberanía tecnológica, de relocalizar cadenas de suministro, de reducir dependencias estratégicas. La narrativa suena bien, encaja en términos políticos y transmite una sensación de control. El problema es que, cuando uno baja al terreno de lo tangible, se desmorona con sorprendente facilidad. </p>



<p>Este artículo en Bloomberg, <em>«<a href="https://www.bloomberg.com/news/features/2026-04-01/us-ai-data-center-expansion-relies-on-chinese-electrical-equipment-imports?accessToken=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJzb3VyY2UiOiJTdWJzY3JpYmVyR2lmdGVkQXJ0aWNsZSIsImlhdCI6MTc3NTA1ODk2OSwiZXhwIjoxNzc1NjYzNzY5LCJhcnRpY2xlSWQiOiJUQ1Q3UzRLSUpIUFgwMCIsImJjb25uZWN0SWQiOiIwQzg4NkY0NTI0NzY0RUE0OEY2QTk4RTk1NDc5RTI2NSJ9.6XD-Gdikon48e2mPVqpu8_TR9luCXcmBxKjxYQ9XeBA&amp;leadSource=uverify%20wall">America’s AI build-out hinges on Chinese electrical parts</a>«</em>, que analiza la expansión de los centros de datos en Estados Unidos, es particularmente revelador: el despliegue de infraestructura para inteligencia artificial está chocando con una escasez crítica de equipos eléctricos, desde transformadores y sistemas de distribución a otros componentes clave, cuya producción depende en gran medida de cadenas de suministro globales profundamente entrelazadas con China. No estamos hablando de chips avanzados ni de algoritmos, sino de algo mucho más básico: la infraestructura física sin la cual la inteligencia artificial no existe. Pretender soberanía tecnológica mientras dependes de otro país para electrificar tus centros de datos es, como mínimo, una contradicción difícil de sostener. </p>



<p>Lo verdaderamente interesante es que esta dependencia no es coyuntural, sino completamente estructural. Durante décadas, los Estados Unidos y buena parte de Occidente externalizaron la fabricación bajo la premisa de que el valor estaba en el diseño, en el <em>software</em>, en la propiedad intelectual. China, en cambio, apostó por algo mucho más incómodo y menos glamouroso: construir capacidad industrial. Y lo hizo con una visión a largo plazo y una consistencia estratégica difíciles de igualar, apoyándose además en una producción masiva de talento ingenieril. <a href="https://cset.georgetown.edu/article/the-global-distribution-of-stem-graduates-which-countries-lead-the-way/" target="_blank" rel="noreferrer noopener">China gradúa cada año varios millones de estudiantes en disciplinas STEM, frente a cifras muy inferiores en Estados Unidos</a>, y dado que el talento está uniformemente distribuido, eso implica <a href="https://www.enriquedans.com/2025/03/china-y-las-estrategias-a-largo-plazo-la-educacion.html" target="_blank" rel="noreferrer noopener">un importante <em>surplus</em> de trabajadores altamente cualificados</a>. Cuando un país genera ese volumen de ingenieros de forma sostenida, deja de ser «la fábrica del mundo» para convertirse en algo mucho más relevante: el lugar donde se diseñan, optimizan y escalan los sistemas industriales del futuro. Del simple <em>«Made in China»</em>, al <em>«Engineered in China»</em>. En pocas décadas. </p>



<p>Por eso resulta cada vez más difícil seguir defendiendo la idea de que Estados Unidos mantiene una supremacía clara. ¿En <em>software</em>? Los ingenieros chinos no solo programan, sino que lo hacen a una escala y con una velocidad que cambia las reglas del juego. ¿En educación? Las universidades chinas han alcanzado niveles muy elevados, aunque no atraigan tanto talento internacional, mientras las occidentales siguen apoyándose en su poder de atracción global. ¿En finanzas? El dólar sigue siendo dominante, pero <a href="https://www.enriquedans.com/2021/04/china-el-futuro-del-dinero-y-los-grados-de-libertad.html" target="_blank" rel="noreferrer noopener">China avanza con alternativas como el yuan digital</a>, ampliando progresivamente su alcance en circuitos internacionales. Si la divisa de reserva tradicional está gestionada por un completo imbécil, muchos países empiezan a ver otra, la que sea, como más interesante. </p>



<p>Sin embargo, el verdadero cambio no está en quién gana cada uno de esos ámbitos por separado, sino en cómo se reconfigura el conjunto. China no necesita liderar en todo para convertirse en imprescindible. Le basta con dominar aquello que sostiene materialmente el sistema. Y ahí su ventaja es cada vez más evidente. En tecnologías limpias, por ejemplo, <a href="https://about.bnef.com/insights/clean-energy/china-dominates-clean-technology-manufacturing-investment-as-tariffs-begin-to-reshape-trade-flows-bloombergnef/" target="_blank" rel="noreferrer noopener">BloombergNEF estima que controla más del 70% de la capacidad de fabricación global en muchos segmentos clave</a>. En robótica industrial, los datos de la International Federation of Robotics muestran que <a href="https://ifr.org/ifr-press-releases/news/global-robot-demand-in-factories-doubles-over-10-years" target="_blank" rel="noreferrer noopener">ya representa más de la mitad de las instalaciones mundiales y que sus fabricantes están ganando terreno rápidamente</a>. </p>



<p>Incluso en el ámbito medioambiental, donde China ha sido durante años el gran villano global, el panorama empieza a cambiar. Sigue siendo el mayor emisor absoluto, sí, pero también es el país que más invierte en energías limpias y el que está acelerando con mayor intensidad su transición, lo que le brinda una progresiva ventaja en costes mientras los Estados Unidos se suicidan con la soberana barbaridad del <em>«<a href="https://www.forbes.com/sites/gauravsharma/2025/01/20/drill-baby-drill-donald-trump-declares-us-energy-emergency/" target="_blank" rel="noreferrer noopener">drill, baby, drill</a>«</em>. Según la International Energy Agency y el análisis de Carbon Brief, <a href="https://www.carbonbrief.org/analysis-chinas-co2-emissions-have-now-been-flat-or-falling-for-21-months/" target="_blank" rel="noreferrer noopener">sus emisiones han entrado en una fase de estabilización e incluso descenso</a>, impulsadas por el crecimiento masivo de la solar y la eólica. Obviamente no es aún el país menos contaminante, pero sí el que mejor posicionado está para dominar la industria que hará posible esa transición. </p>



<p>La ironía es difícil de ignorar. Europa no consigue liberarse de la tecnología estadounidense: vive sobre sus plataformas, sus nubes, su <em>software</em>. Estados Unidos, mientras tanto, descubre que tampoco puede liberarse de China, porque la base física de su liderazgo tecnológico depende de una potencia industrial que lleva décadas perfeccionando exactamente aquello que Occidente decidió abandonar. La interdependencia no es simétrica, pero es profunda, y desmonta cualquier relato simplista de desacoplamiento. A lo mejor, es que en un mundo cada vez más interconectado, lo interesante es buscar la cooperación y la conexión entre países, en lugar de la competencia y la autarquía&#8230; </p>



<p>Quizá el error de fondo sea seguir planteando el debate en términos de supremacía, como si el mundo siguiera siendo un tablero donde un único actor puede dominar todas las dimensiones. Lo que estamos viendo se parece mucho más a una interdependencia asimétrica entre dos modelos con fortalezas distintas: Estados Unidos sigue liderando en capas abstractas como finanzas, influencia o ecosistemas digitales, mientras China domina cada vez más las capas físicas como industria, energía, manufactura, o despliegue.</p>



<p>Y en un mundo en el que la tecnología vuelve a anclarse en factores tangibles como la electricidad, las infraestructuras o los materiales, la pregunta relevante ya no es quién lidera hoy, sino qué tipo de poder será más decisivo mañana. Porque si algo empieza a quedar claro es que el liderazgo del siglo XXI no se decidirá únicamente en el código, sino en la capacidad de convertir ese código en realidad. Y en ese terreno, cada vez resulta más difícil sostener que China sea simplemente un actor más del que se puede prescindir. </p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is openly available in English on Medium, «<a href="https://medium.com/enrique-dans/america-says-it-wants-tech-independence-it-cant-even-power-its-data-centers-d3ba602d5015?sk=85acf80fde96b0c16b2a9d6476d3b338" data-type="link" data-id="https://medium.com/enrique-dans/america-says-it-wants-tech-independence-it-cant-even-power-its-data-centers-d3ba602d5015?sk=85acf80fde96b0c16b2a9d6476d3b338" target="_blank" rel="noreferrer noopener">America says it wants tech independence. It can’t even power its data centers</a>» </em></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/04/la-soberania-tecnologica-era-un-mito-hasta-que-china-decidio-tomarsela-en-serio.html/feed</wfw:commentRss>
			<slash:comments>21</slash:comments>
		
		
			</item>
		<item>
		<title>Trump no quiere sólo ganar elecciones: quiere hackear la democracia</title>
		<link>https://www.enriquedans.com/2026/04/trump-no-quiere-solo-ganar-elecciones-quiere-hackear-la-democracia.html</link>
					<comments>https://www.enriquedans.com/2026/04/trump-no-quiere-solo-ganar-elecciones-quiere-hackear-la-democracia.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Fri, 03 Apr 2026 08:34:30 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[activism]]></category>
		<category><![CDATA[democracy]]></category>
		<category><![CDATA[Donald Trump]]></category>
		<category><![CDATA[elections]]></category>
		<category><![CDATA[hacking]]></category>
		<category><![CDATA[manipulation]]></category>
		<category><![CDATA[politics]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57589</guid>

					<description><![CDATA[Trump no se comporta como un político convencional con tentaciones autoritarias. Se comporta como alguien que ha entendido perfectamente cómo funciona el poder en el siglo XXI: no hace falta cerrar periódicos si puedes desacreditarlos algorítmicamente, no hace falta prohibir votar si puedes rediseñar la burocracia para que millones de personas no puedan llegar a  <a href="https://www.enriquedans.com/2026/04/trump-no-quiere-solo-ganar-elecciones-quiere-hackear-la-democracia.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-large is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/04/Trump-hacking-democracy-Dall·E.jpg"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/04/Trump-hacking-democracy-Dall·E-1024x1024.jpg" alt="IMAGE: A stylized image of Donald Trump with glowing eyes towering over a crowd of protesters, surrounded by surveillance cameras and digital networks, symbolizing control and resistance " class="wp-image-57590" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/04/Trump-hacking-democracy-Dall·E-1024x1024.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/04/Trump-hacking-democracy-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/04/Trump-hacking-democracy-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/04/Trump-hacking-democracy-Dall·E-768x768.jpg 768w, https://www.enriquedans.com/wp-content/uploads/2026/04/Trump-hacking-democracy-Dall·E-1536x1536.jpg 1536w, https://www.enriquedans.com/wp-content/uploads/2026/04/Trump-hacking-democracy-Dall·E.jpg 2048w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Trump no se comporta como un político convencional con tentaciones autoritarias. Se comporta como alguien que ha entendido perfectamente cómo funciona el poder en el siglo XXI: no hace falta cerrar periódicos si puedes desacreditarlos algorítmicamente, no hace falta prohibir votar si puedes rediseñar la burocracia para que millones de personas no puedan llegar a la urna, y no hace falta suspender formalmente la democracia si consigues convertirla en una interfaz hostil, opaca y punitiva. Lo que estamos viendo en Estados Unidos no es simplemente una deriva ideológica. Es algo mucho más serio: un intento de hackear la democracia. </p>



<p>La palabra importa. Hackear no significa necesariamente manipular una máquina de votación con una línea de código. Significa explotar vulnerabilidades de un sistema para forzarlo a comportarse de manera distinta a la prevista. Y eso es exactamente lo que está intentando hacer Trump con el sistema democrático estadounidense: identificar sus puntos débiles, desde la fragmentación administrativa hasta la complejidad regulatoria, y convertirlos en vectores de control político. La democracia, al fin y al cabo, también es tecnología. Es un conjunto de protocolos, poderes y contrapoderes, reglas, bases de datos, procedimientos de autenticación, cadenas de custodia, estándares de interoperabilidad y mecanismos de confianza. <a href="https://www.wired.com/story/this-is-how-trump-is-already-threatening-the-midterms/" target="_blank" rel="noreferrer noopener">Y cuando alguien decide reescribir ese <em>stack</em> en beneficio propio, no está reformando nada: está atacando la capa de infraestructura del sistema</a>. </p>



<p>Por eso el debate sobre la <a href="https://www.cnbc.com/2026/03/31/trump-mail-in-voting-executive-order.html" target="_blank" rel="noreferrer noopener">orden ejecutiva de marzo de 2025</a> y sobre la <a href="https://en.wikipedia.org/wiki/Safeguard_American_Voter_Eligibility_Act" target="_blank" rel="noreferrer noopener">SAVE Act</a> es tan importante: presentadas bajo el lenguaje aparentemente higiénico de la «integridad electoral», ambas iniciativas comparten una lógica muy clara: desplazar la carga de la prueba hacia el ciudadano, multiplicar la fricción del registro y ampliar la capacidad del poder federal para cruzar datos, revisar padrones y amenazar con sanciones o retirada de fondos. La propia orden ejecutiva exige prueba documental de ciudadanía para el formulario federal de registro y contempla revisiones coordinadas entre Homeland Security y otras agencias, todo para dificultar el voto a determinados ciudadanos. La SAVE Act, por su parte, exige prueba documental de ciudadanía para registrarse y abre la puerta a purgas continuas y a un entorno legal que castiga a funcionarios electorales por aceptar registros que luego puedan ser cuestionados. Todo ello en nombre de un problema cuya incidencia real, según múltiples análisis, es completamente marginal e insignificante. </p>



<p>Lo peligroso de este tipo de maniobra es que se vende como modernización. El autoritarismo contemporáneo nunca se anuncia como autoritarismo. Se presenta como auditoría, verificación, trazabilidad, seguridad, <em>compliance</em> o integridad del dato. Su estética no es la del uniforme, sino la del formulario. Su violencia no siempre adopta la forma de una porra: muchas veces adopta la forma de una persona que no consigue registrarse porque no tiene un documento a mano, de un funcionario muerto de miedo por una desmesurada amenaza penal, o de una administración local obligada a rehacer procesos enteros en pleno año electoral. La represión, en la era digital, se vuelve procedimental. Y precisamente por eso resulta más difícil de detectar para quien sigue buscando el autoritarismo con categorías del siglo XX. </p>



<p>Ese patrón, además, no es nuevo. <a href="https://en.wikipedia.org/wiki/Viktor_Orb%C3%A1n" target="_blank" rel="noreferrer noopener">Viktor Orbán</a> lleva más de una década perfeccionándolo en Hungría: no destruyó la democracia de un día para otro, sino que la fue reconfigurando desde dentro, alterando leyes electorales, colonizando instituciones, controlando el ecosistema mediático y utilizando el aparato del Estado, incluidas sus capas más técnicas y burocráticas, para consolidar su poder, hasta el punto de que <a href="https://www.europarl.europa.eu/news/en/press-room/20220909IPR40137/meps-hungary-can-no-longer-be-considered-a-full-democracy" target="_blank" rel="noreferrer noopener">organismos como el Parlamento Europeo han llegado a calificar el país como una «autocracia electoral»</a>. Diversos <a href="https://freedomhouse.org/country/hungary/freedom-world/2024" target="_blank" rel="noreferrer noopener">análisis</a> han documentado cómo ese proceso ha implicado una captura sistemática del sistema institucional y mediático. <a href="https://eutoday.net/trump-backs-orban-as-hungary-campaign-is-shaken-by-opposition-sabotage-claims/" target="_blank" rel="noreferrer noopener">Lo que Trump parece estar intentando hacer en Estados Unidos recuerda inquietantemente a ese modelo</a>: no es un golpe abrupto, sino una mutación progresiva del sistema hasta hacerlo prácticamente irreversible. Y sin embargo, incluso en ese contexto, <a href="https://apnews.com/article/hungary-election-youth-voters-orban-58e71836ef9e3a38bc478bdbde9ca0b0" target="_blank" rel="noreferrer noopener">Hungría empieza a mostrar signos de fatiga</a>: las <a href="https://www.reuters.com/world/hungarys-orban-faces-pivotal-battle-against-ally-turned-foe-2026-03-25/" target="_blank" rel="noreferrer noopener">movilizaciones masivas contra Orbán</a>, cada vez más <a href="https://www.france24.com/en/live-news/20250922-tens-of-thousands-rally-against-hungary-pm-orban-s-media-spending" target="_blank" rel="noreferrer noopener">amplias</a> y sostenidas en los últimos meses, apuntan a una <a href="https://apnews.com/article/hungary-orban-opposition-protest-child-abuse-41613fa6cad30006efcb4181e3fc6aba" target="_blank" rel="noreferrer noopener">creciente contestación social</a>. La lección es doble: el autoritarismo contemporáneo se construye con paciencia, pero también <a href="https://www.msn.com/en-us/news/world/how-orban-went-from-invincible-to-underdog-in-hungary/ar-AA1Zy7NI" target="_blank" rel="noreferrer noopener">puede ser contestado si la sociedad entiende a tiempo la naturaleza del ataque</a>. Aún queda esperanza. </p>



<p>En los Estados Unidos, la sociedad civil también se está viendo obligada a aprender el nuevo idioma del poder. Las protestas de <a href="https://www.nokings.org/" target="_blank" rel="noreferrer noopener">No Kings</a> no son solo una explosión espontánea de indignación: son también un ejemplo de movilización distribuida, coordinada y persistente. <a href="https://www.nytimes.com/2026/03/27/us/no-kings-protests-cities.html" target="_blank" rel="noreferrer noopener">Más de 3,000 manifestaciones en ciudades y pueblos de todo el país</a>, con convocatorias que se replican globalmente y que buscan <a href="https://www.theverge.com/policy/687195/no-kings-trump-parade-protests" target="_blank" rel="noreferrer noopener">canalizar un malestar transversal frente a un presidente al que muchos perciben como un aspirante a monarca absoluto</a>. No se trata de una única protesta, sino de una <a href="https://en.wikipedia.org/wiki/June_2025_No_Kings_protests" target="_blank" rel="noreferrer noopener">serie continua</a> de <a href="https://en.wikipedia.org/wiki/October_2025_No_Kings_protests" target="_blank" rel="noreferrer noopener">movilizaciones</a>, la tercera en menos de un año, organizadas por redes como <a href="https://indivisible.org/">Indivisible</a>, <a href="https://front.moveon.org/" target="_blank" rel="noreferrer noopener">MoveOn</a> o <a href="https://www.fiftyfifty.one/" target="_blank" rel="noreferrer noopener">50501</a>, con materiales compartidos, mapas interactivos y formación <em>online</em> en seguridad y desescalada. Exactamente lo que cabría esperar de una respuesta en red frente a un intento de centralización del poder. </p>



<p>Ese detalle es crucial. Porque si el autoritarismo contemporáneo se construye sobre infraestructuras digitales de control, la resistencia democrática también necesita sus propias infraestructuras. Ya no basta con salir a la calle: hay que coordinarse, documentar, proteger comunicaciones, distribuir información, formar activistas y sostener el movimiento en el tiempo. La democracia, en ese sentido, también se ha convertido en un problema de arquitectura tecnológica. </p>



<p>Pero conviene no caer en el tecno-optimismo ingenuo. La misma tecnología que permite coordinar miles de protestas permite también vigilarlas, mapearlas, infiltrar sus canales, identificar a sus participantes y convertir cualquier gesto en dato. El poder autoritario siempre ha necesitado denunciantes: lo novedoso es que ahora puede integrarlos en plataformas, aplicaciones y flujos digitales que convierten la delación en una experiencia de usuario. El dedo acusador se convierte en botón. Y así, poco a poco, la ciudadanía deja de relacionarse con el Estado como sujeto de derechos para hacerlo como nodo dentro de una red de vigilancia. </p>



<p>Por eso la defensa de la democracia estadounidense no puede limitarse a repetir lugares comunes sobre «instituciones fuertes». Las instituciones no se defienden solas cuando alguien consigue colonizar sus capas más técnicas. Hay que defender los estándares, los procedimientos, la gobernanza de los datos, la transparencia algorítmica, la privacidad, la descentralización organizativa y la facilidad efectiva del ejercicio del voto. Hay que entender que hoy un ataque contra la democracia puede adoptar la forma de una base de datos mal cruzada, de una exigencia documental aparentemente razonable, de una <em>app</em> oficial, de una purga automatizada o de una narrativa viral diseñada para convertir la exclusión en un supuesto sentido común. </p>



<p>No, el problema no es solamente que Trump quiera ganar a toda costa las próximas elecciones para evitar recortes en su cuota de poder. El problema es que quiere rediseñar el sistema para que perder deje de ser una posibilidad real. Y cuando un líder empieza a actuar así, la pregunta deja de ser si estamos ante un populista más o menos agresivo. La pregunta correcta es, más bien, cuánto tiempo puede sobrevivir una democracia cuando un aspirante a tirano ya no necesita tanques, porque le basta con controlar formularios, registros, plataformas y miedo. </p>



<p>Y la respuesta, por desgracia, nunca ha sido tranquilizadora. </p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is openly available in English on Medium, «<a href="https://medium.com/enrique-dans/trumps-silent-coup-no-tanks-just-a-system-hack-6205ab4634e9?sk=e5a8f7b9f45cb26a0a5606704925c1a8" target="_blank" rel="noreferrer noopener">Trump’s silent coup: no tanks, just a system hack</a>» </em></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/04/trump-no-quiere-solo-ganar-elecciones-quiere-hackear-la-democracia.html/feed</wfw:commentRss>
			<slash:comments>55</slash:comments>
		
		
			</item>
	</channel>
</rss>
