<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Enrique Dans</title>
	<atom:link href="https://www.enriquedans.com/feed" rel="self" type="application/rss+xml" />
	<link>https://www.enriquedans.com</link>
	<description>Investigación y opinión acerca de los Sistemas y Tecnologías de Información</description>
	<lastBuildDate>Wed, 08 Apr 2026 14:30:16 +0000</lastBuildDate>
	<language>es</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>
	<item>
		<title>La empleabilidad algorítmica</title>
		<link>https://www.enriquedans.com/2026/04/la-empleabilidad-algoritmica.html</link>
					<comments>https://www.enriquedans.com/2026/04/la-empleabilidad-algoritmica.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Wed, 08 Apr 2026 08:47:31 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[employment]]></category>
		<category><![CDATA[Invertia]]></category>
		<category><![CDATA[SME]]></category>
		<category><![CDATA[Spain]]></category>
		<category><![CDATA[work]]></category>
		<category><![CDATA[workers]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57611</guid>

					<description><![CDATA[Mi columna de esta semana en el diario económico de El Español, Invertia, se titula «La nueva obediencia digital: sin inteligencia artificial, quizá dejes de ser empleable» (pdf), y trata sobre una transformación que me parece mucho más profunda de lo que sugiere la conversación habitual sobre productividad, automatización o «nuevas herramientas». Durante un tiempo,  <a href="https://www.enriquedans.com/2026/04/la-empleabilidad-algoritmica.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-full is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/04/AI-employability-Dall·E.jpg"><img fetchpriority="high" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/04/AI-employability-Dall·E.jpg" alt="IMAGE: A person stands before an AI figure displaying approval and rejection symbols, suggesting evaluation or judgment." class="wp-image-57638" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/04/AI-employability-Dall·E.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/04/AI-employability-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/04/AI-employability-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/04/AI-employability-Dall·E-768x768.jpg 768w" sizes="(max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Mi columna de esta semana en el diario económico de El Español, Invertia, se titula «<a href="https://www.elespanol.com/invertia/opinion/20260408/nueva-obediencia-digital-sin-inteligencia-artificial-dejes-empleable/1003744197120_13.html" target="_blank" rel="noreferrer noopener">La nueva obediencia digital: sin inteligencia artificial, quizá dejes de ser empleable</a>» (<a href="https://www.enriquedans.com/wp-content/uploads/2026/04/IA-y-empleabilidad-Invertia.pdf" target="_blank" rel="noreferrer noopener">pdf</a>), y trata sobre una transformación que me parece mucho más profunda de lo que sugiere la conversación habitual sobre productividad, automatización o «nuevas herramientas». Durante un tiempo, la inteligencia artificial en el trabajo fue presentada como una posibilidad, como un recurso adicional para quien quisiera experimentar y ganar eficiencia. Pero esa fase está terminando muy deprisa. En muchas empresas tecnológicas, <a href="https://www.wsj.com/tech/ai/tech-firms-arent-just-encouraging-their-workers-to-use-ai-theyre-enforcing-it-d43ebf84" target="_blank" rel="noreferrer noopener">el uso de la inteligencia artificial está dejando de ser voluntario para convertirse en un requisito explícito o implícito</a>, incorporado a evaluaciones de desempeño, procesos de selección y expectativas cotidianas de rendimiento. Ya no se trata de que puedas usarla: <a href="https://www.wsj.com/tech/ai/ai-work-use-performance-reviews-1e8975df" target="_blank" rel="noreferrer noopener">se empieza a asumir que debes hacerlo</a>.</p>



<p>Eso cambia completamente la naturaleza del debate. Cuando <a href="https://www.fastcompany.com/91517123/failing-to-use-ai-at-work-could-cost-you-your-job" target="_blank" rel="noreferrer noopener">una herramienta pasa de opcional a obligatoria</a>, deja de ser sólo tecnología y se convierte en una forma de disciplina laboral. La cuestión ya no es si ChatGPT, Copilot o el agente de turno te ayudan a trabajar mejor, sino qué ocurre cuando la empresa decide que tu valor profesional depende de tu disposición a integrarlos en cada tarea. El artículo del Wall Street Journal lo describe con bastante claridad al documentar cómo grandes tecnológicas y compañías de servicios empiezan a medir el uso de inteligencia artificial, a premiarlo y, en algunos casos, a penalizar su ausencia. No estamos ante una moda corporativa, sino ante la construcción de un nuevo estándar de normalidad laboral.</p>



<p>Naturalmente, esa normalidad se vende con el envoltorio más previsible del mundo: «adaptación», «eficiencia», «futuro del trabajo», <em>«upskilling»</em>. Google, por ejemplo, ha lanzado en Europa <a href="https://blog.google/company-news/inside-google/around-the-globe/google-europe/ai-works-for-europe/" target="_blank" rel="noreferrer noopener">toda una narrativa sobre cómo la inteligencia artificial puede impulsar crecimiento, formación y competitividad</a>, mientras Salesforce presume de <a href="https://www.salesforce.com/news/stories/daily-ai-workforce-use-growth/" target="_blank" rel="noreferrer noopener">aumentos muy fuertes en el uso diario de inteligencia artificial entre trabajadores del conocimiento</a> y de <a href="https://www.salesforce.com/news/stories/agentic-ai-impact-on-workforce-research/" target="_blank" rel="noreferrer noopener">una expectativa creciente de rediseño de plantillas y funciones en torno a agentes y automatización</a>. Nada sorprendente: las compañías que han invertido miles de millones en inteligencia artificial necesitan demostrar que su adopción interna es real, irreversible y ejemplarizante. </p>



<p>El problema es que, como ocurre siempre, los costes de esa supuesta modernización no se reparten de forma homogénea. La OCDE lleva tiempo advirtiendo de que <a href="https://www.oecd.org/en/publications/algorithmic-management-in-the-workplace_287c13c4-en.html" target="_blank" rel="noreferrer noopener">la gestión algorítmica del trabajo no solo organiza tareas: también monitoriza, clasifica, recomienda, puntúa y condiciona la autonomía profesional</a>. Y la OIT ha señalado que <a href="https://www.ilo.org/publications/generative-ai-and-jobs-refined-global-index-occupational-exposure" target="_blank" rel="noreferrer noopener">la exposición a la inteligencia artificial generativa se concentra especialmente en tareas administrativas y de oficina</a>, es decir, precisamente en actividades donde la promesa de «asistencia» puede convertirse muy deprisa en una lógica de sustitución parcial, intensificación del control o degradación del margen de decisión. El FMI, además, advierte de que <a href="https://www.imf.org/en/publications/staff-discussion-notes/issues/2024/01/14/gen-ai-artificial-intelligence-and-the-future-of-work-542379" target="_blank" rel="noreferrer noopener">la inteligencia artificial puede aumentar la desigualdad si complementa sobre todo a los trabajadores ya mejor situados en términos de cualificación e ingresos</a>.</p>



<p>Visto desde España, la cuestión adquiere un interés particular, porque aquí la discusión sobre inteligencia artificial suele oscilar entre el entusiasmo vacío y la retórica institucional, pero muy pocas veces aterriza en la estructura real del empleo. <a href="https://digital-strategy.ec.europa.eu/en/factpages/spain-2025-digital-decade-country-report" target="_blank" rel="noreferrer noopener">La Comisión Europea reconoce que España tiene fortalezas en conectividad y en ciertas competencias digitales de base</a>, pero también sigue señalando <a href="https://www.oecd.org/en/publications/generative-ai-and-the-sme-workforce_2d08b99d-en.html" target="_blank" rel="noreferrer noopener">debilidades persistentes en la digitalización empresarial, especialmente en las PYMEs</a>. Y como las PYMEs siguen siendo el núcleo de nuestro tejido productivo, eso significa que la transición hacia la inteligencia artificial obligatoria no va a vivirse igual en todas partes. Las grandes empresas podrán formar, comprar licencias, rediseñar procesos y repartir costes. Las pequeñas, muchas veces, simplemente trasladarán la presión al trabajador. </p>



<p>Ahí está, de hecho, la parte más importante del problema. Si la «empleabilidad» empieza a definirse por la familiaridad práctica con herramientas de inteligencia artificial, pero el acceso a esa familiaridad depende del tipo de empresa en la que trabajas, entonces la inteligencia artificial deja de ser solo una innovación y se convierte en un nuevo mecanismo de segmentación laboral. No entre los que saben mucho y los que saben poco, sino entre los que tienen organizaciones capaces de absorber la curva de aprendizaje y los que tienen que improvisarla en soledad, fuera de horario y sin criterios claros. La propia OCDE, en su trabajo sobre inteligencia artificial generativa y pymes, subraya que estas pueden beneficiarse mucho de la tecnología, sí, pero también que encuentran barreras muy concretas en recursos, capacidades y gobernanza. </p>



<p>Y eso ocurre, además, en un mercado laboral español que sigue arrastrando vulnerabilidades estructurales. La OCDE destaca <a href="https://www.oecd.org/en/publications/oecd-employment-outlook-2025-country-notes_f91531f7-en/spain_ded48eec-en.html" target="_blank" rel="noreferrer noopener">la persistencia de retos en productividad, calidad del empleo y formación continua</a>, mientras Eurostat sigue mostrando <a href="https://ec.europa.eu/eurostat/statistics-explained/index.php" target="_blank" rel="noreferrer noopener">el peso desproporcionado de la temporalidad en determinados segmentos del mercado de trabajo europeo</a>, una realidad que en España tiene una relevancia obvia. <a href="https://www.ft.com/content/ee2b05f2-3cf1-4d45-874d-3552a5f43555" target="_blank" rel="noreferrer noopener">Aunque el empleo haya mejorado y el desempleo haya caído</a>, eso no elimina la fragilidad de muchos itinerarios laborales ni la facilidad con la que un nuevo requisito tecnológico puede convertirse en filtro social.</p>



<p>Por eso me interesa tanto este tema: porque desmonta la ficción de que la adaptación es un asunto puramente individual. Claro que cada trabajador tendrá que aprender, experimentar y encontrar su sitio en entornos cada vez más mediados por inteligencia artificial, pero cuando una empresa exige uso de inteligencia artificial sin dedicar tiempo, recursos, formación y criterios transparentes a esa transición, no está innovando: está externalizando costes. Está diciendo, básicamente, «actualízate tú, asume tú los riesgos, aprende tú por tu cuenta y acepta que tu evaluación dependa de herramientas cuyo funcionamiento, sesgos y límites no controlas». Y eso, más que futuro del trabajo, se parece bastante a una nueva obediencia digital.</p>



<p>La cuestión, en el fondo, no es tecnológica, es política y laboral. Si aceptamos sin más que la inteligencia artificial pase de ser herramienta opcional a condición tácita de empleabilidad, deberíamos al menos discutir quién define ese estándar, con qué garantías, con qué derechos para los trabajadores y con qué apoyo real para las empresas pequeñas. Porque si no lo hacemos, la inteligencia artificial no va a «democratizar» nada: va a funcionar como otro acelerador de desigualdad, otro instrumento de control y otra forma de clasificar quién merece seguir dentro y quién puede ser tratado como perfectamente prescindible. </p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is openly available in English on Medium, «<a href="https://medium.com/enrique-dans/when-ai-stops-being-a-tool-and-becomes-a-job-requirement-db36549099b0?sk=69a2046ffafa7b75a0969203c413fe08" data-type="link" data-id="https://medium.com/enrique-dans/when-ai-stops-being-a-tool-and-becomes-a-job-requirement-db36549099b0?sk=69a2046ffafa7b75a0969203c413fe08" target="_blank" rel="noreferrer noopener">When AI stops being a tool and becomes a job requirement</a>» </em></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/04/la-empleabilidad-algoritmica.html/feed</wfw:commentRss>
			<slash:comments>5</slash:comments>
		
		
			</item>
		<item>
		<title>A la industria de la inteligencia artificial le encanta la inflación de tokens. A tu empresa no debería&#8230;</title>
		<link>https://www.enriquedans.com/2026/04/a-la-industria-de-la-inteligencia-artificial-le-encanta-la-inflacion-de-tokens-a-tu-empresa-no-deberia.html</link>
					<comments>https://www.enriquedans.com/2026/04/a-la-industria-de-la-inteligencia-artificial-le-encanta-la-inflacion-de-tokens-a-tu-empresa-no-deberia.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Tue, 07 Apr 2026 10:27:04 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[agentic]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[Anthropic]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[Claude]]></category>
		<category><![CDATA[context]]></category>
		<category><![CDATA[Fast Company]]></category>
		<category><![CDATA[OpenClaw]]></category>
		<category><![CDATA[tokens]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57621</guid>

					<description><![CDATA[La industria de la inteligencia artificial tiene un problema de adicción silencioso: está enganchada a los tokens. Cada nueva generación de inteligencia artificial agéntica parece asumir que la respuesta a la complejidad es lanzar más contexto al modelo, mantener historiales más largos, generar más llamadas, iterar sobre más herramientas y dejar que el contador de  <a href="https://www.enriquedans.com/2026/04/a-la-industria-de-la-inteligencia-artificial-le-encanta-la-inflacion-de-tokens-a-tu-empresa-no-deberia.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-full is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/04/Token-inflation-Dall·E.jpg"><img decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/04/Token-inflation-Dall·E.jpg" alt="IMAGE: A split scene shows, on one side, a chaotic flood of glowing tokens and industrial AI systems, and on the other, a calm workspace where a person carefully builds a structured stack of relevant information, symbolizing efficient AI use " class="wp-image-57622" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/04/Token-inflation-Dall·E.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/04/Token-inflation-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/04/Token-inflation-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/04/Token-inflation-Dall·E-768x768.jpg 768w" sizes="(max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>La industria de la inteligencia artificial tiene un problema de adicción silencioso: está enganchada a los <em>tokens</em>.</p>



<p>Cada nueva generación de inteligencia artificial agéntica parece asumir que la respuesta a la complejidad es lanzar más contexto al modelo, mantener historiales más largos, generar más llamadas, iterar sobre más herramientas y dejar que el contador de <em>tokens</em> se dispare.</p>



<p>El auge de los sistemas agénticos, y ahora de proyectos como <a href="https://docs.openclaw.ai/" target="_blank" rel="noreferrer noopener">OpenClaw</a>, refuerza aún más esa tentación: en cuanto das más autonomía a los modelos, no solo consumen <em>tokens</em> para responder preguntas. Los consumen para planificar, reflexionar, reintentar, resumir, llamar a herramientas, inspeccionar resultados y mantenerse en el camino. OpenClaw se define a sí mismo como una puerta de enlace <em>agent-native</em> con sesiones, memoria, uso de herramientas y enrutamiento multiagente a través de plataformas de mensajería, lo que deja claro hacia dónde vamos: más autonomía, más orquestación y, salvo que alguien lo corrija, mucho más consumo de <em>tokens</em>.</p>



<p>Esa trayectoria entusiasma a casi todos los que venden la infraestructura. Si la facturación se basa en <em>tokens</em>, más consumo significa más crecimiento. Si vendes el cómputo que hay detrás de esos <em>tokens</em>, mejor todavía. Google señaló en sus <a href="https://abc.xyz/investor/events/event-details/2025/2025-Q3-Earnings-Call-2025-4OI4Bac_Q9/default.aspx" target="_blank" rel="noreferrer noopener">resultados de octubre de 2025</a> que estaba procesando <strong>más de 1.3 cuatrillones de <em>tokens</em> mensuales</strong> en sus plataformas, más de veinte veces el volumen de un año antes. NVIDIA, por su parte, está <a href="https://nvidianews.nvidia.com/news/nvidia-announces-financial-results-for-fourth-quarter-and-fiscal-2026" target="_blank" rel="noreferrer noopener">apostando claramente por la economía de la inferencia y la inteligencia artificial agéntica</a>, subrayando tanto el aumento de la demanda como la oportunidad de vender cada vez más infraestructura.</p>



<p>Pero las empresas que compran inteligencia artificial deberían verlo de otra manera. Porque, desde el punto de vista del cliente, el crecimiento explosivo del consumo de <em>tokens</em> no es necesariamente una señal de inteligencia. En muchos casos, es una señal de ineficiencia.</p>



<p></p>



<p><strong>Más <em>tokens</em> no equivalen a más inteligencia</strong></p>



<p>El relato dominante en la industria trata el consumo de <em>tokens</em> como si fuera un indicador de progreso. Ventanas de contexto más grandes, más trazas de razonamiento, más bucles de agentes, más memoria, más recuperación, más interacciones. Todo suena impresionante.</p>



<p>Pero un sistema que necesita ingerir y regenerar enormes cantidades de contexto en cada paso no es necesariamente más inteligente. Puede simplemente estar mal diseñado.</p>



<p>La propia <a href="https://www.anthropic.com/engineering/effective-context-engineering-for-ai-agents" target="_blank" rel="noreferrer noopener">guía de ingeniería de Anthropic</a> lo deja sorprendentemente claro. Su equipo defiende que el contexto debe tratarse como un recurso finito, y que una buena ingeniería de contexto consiste en encontrar «el conjunto más pequeño posible de <em>tokens</em> de alta señal» para cada tarea. No es una optimización marginal. Es una filosofía completamente distinta. Viene a decir que el futuro no pertenece a los sistemas que pueden tragarse más contexto, sino a los que saben qué contexto importa de verdad.</p>



<p>Esa distinción se vuelve crítica a medida que se extienden los flujos de trabajo agénticos. En cuanto permites que un sistema de inteligencia artificial actúe de forma iterativa, utilice herramientas, revise planes y mantenga estado de sesión, el consumo de <em>tokens</em> se multiplica rápidamente. Lo que desde fuera parece una única tarea puede implicar múltiples prompts ocultos, subconsultas, resúmenes y reintentos. <a href="https://www.deloitte.com/us/en/services/consulting/articles/how-to-navigate-economics-of-ai.html" target="_blank" rel="noreferrer noopener">Deloitte ya describe los <em>tokens</em> como la nueva moneda de la economía de la inteligencia artificial</a>, precisamente porque la estructura de los sistemas agénticos altera radicalmente la dinámica de costes.</p>



<p>Y, sin embargo, muchas empresas siguen comportándose como si escalar fuera suficiente para resolver el problema.</p>



<p>No lo es.</p>



<p></p>



<p><strong>El contexto largo no es gratis</strong></p>



<p>Uno de los mitos más persistentes en la inteligencia artificial empresarial es que, si algo de contexto es bueno, más contexto tiene que ser mejor. Esa suposición siempre fue simplista, y la evidencia en su contra es cada vez más sólida.</p>



<p>El paper <em>«<a href="https://aclanthology.org/2024.tacl-1.9.pdf" target="_blank" rel="noreferrer noopener">Lost in the Middle</a>«</em> mostró que los modelos de lenguaje tienen dificultades para utilizar información relevante cuando está enterrada en contextos largos, funcionando mejor cuando la información clave aparece al principio o al final. Más recientemente, la evaluación de contexto largo de Chroma en 18 modelos encontró que <a href="https://www.trychroma.com/research/context-rot" target="_blank" rel="noreferrer noopener">el rendimiento se vuelve cada vez más inestable a medida que crece la longitud de entrada</a>. En otras palabras, llega un punto en el que más <em>tokens</em> dejan de aportar inteligencia y empiezan a aportar sólo ruido.</p>



<p>Es aquí donde el enfoque de fuerza bruta empieza a parecer menos una inevitabilidad tecnológica y más una arquitectura perezosa. Si tu respuesta a cada nueva necesidad es meter más contenido en el prompt, conservar cada interacción para siempre y mantener todos los artefactos intermedios en la ventana activa de contexto, no estás construyendo un mejor sistema de inteligencia artificial. Estás construyendo uno más caro y, probablemente, peor.</p>



<p><strong>La verdadera frontera es la ingeniería de contexto</strong></p>



<p>El futuro interesante no es «más grande y más voraz». Es <strong>más selectivo, más estructurado y más deliberado</strong>. Por eso el concepto emergente más importante en la inteligencia artificial aplicada puede no ser la ingeniería de <em>prompts</em>, sino la <strong>ingeniería de contexto</strong>.</p>



<p>Anthropic define explícitamente la ingeniería de contexto como el siguiente paso tras la ingeniería de prompts. OpenAI ofrece recuperación (<em><a href="https://developers.openai.com/api/docs/guides/retrieval" target="_blank" rel="noreferrer noopener">retrieval</a></em>) y <em><a href="https://developers.openai.com/api/docs/guides/prompt-caching" target="_blank" rel="noreferrer noopener">prompt caching</a></em> para evitar enviar repetidamente grandes volúmenes de información. Google ofrece <em><a href="https://docs.cloud.google.com/vertex-ai/generative-ai/docs/context-cache/context-cache-overview" target="_blank" rel="noreferrer noopener">context caching</a></em> para reutilizar contextos iniciales extensos. Las <a href="https://learn.microsoft.com/en-us/azure/search/retrieval-augmented-generation-overview?tabs=videos" target="_blank" rel="noreferrer noopener">recomendaciones de Microsoft sobre RAG</a> y <em><a href="https://learn.microsoft.com/en-us/azure/architecture/ai-ml/guide/rag/rag-chunking-phase">chunking</a></em> son igual de claras: enviar documentos completos o fragmentos sobredimensionados es caro, puede saturar los límites de <em>tokens</em> y a menudo produce peores resultados que pipelines de recuperación bien diseñados.</p>



<p>Un ejemplo reciente lo ilustra perfectamente: <a href="https://venturebeat.com/technology/anthropic-cuts-off-the-ability-to-use-claude-subscriptions-with-openclaw-and" target="_blank" rel="noreferrer noopener">la decisión de Anthropic de cortar el acceso a Claude desde entornos como OpenClaw cuando se utilizaban suscripciones planas</a>. En cuanto los sistemas agénticos empezaron a ejecutar bucles autónomos —planificando, iterando y llamando herramientas sin fricción— el consumo de <em>tokens</em> dejó de ser marginal y pasó a ser explosivo. Lo que desde fuera parecía «más inteligencia» era, en realidad, una arquitectura que quemaba <em>tokens</em> a una velocidad incompatible con los modelos de <em>pricing</em> existentes. La <a href="https://www.theverge.com/ai-artificial-intelligence/907074/anthropic-openclaw-claude-subscription-ban" target="_blank" rel="noreferrer noopener">rápida reacción del proveedor</a> no es una anomalía: es una señal estructural. Cuando el coste real aflora, los límites aparecen. Y eso debería hacer reflexionar a cualquier empresa: si tu sistema depende de supuestos económicos o contractuales que pueden romperse en cuanto el uso se vuelve intensivo, no tienes una ventaja tecnológica. Tienes una dependencia frágil disfrazada de capacidad.</p>



<p>No son técnicas marginales. Son señales claras de que la era de la fuerza bruta tiene límites.</p>



<p>El patrón es evidente. El <em>stack</em> empresarial del futuro no consistirá en reenviar ciegamente todo lo que una empresa sabe a un modelo en cada interacción. Se basará en mejor arquitectura: capas de recuperación, control de accesos, memoria selectiva, resúmenes jerárquicos, compresión de contexto, caché, enrutamiento y planificación de consultas.</p>



<p>En otras palabras, se basará en ingeniería.</p>



<p></p>



<p><strong>Por qué la economía actual es engañosa</strong></p>



<p>Aquí es donde los incentivos se distorsionan.</p>



<p>Los proveedores de modelos pueden vivir perfectamente en un mundo en el que los clientes creen que el crecimiento de <em>tokens</em> es natural, inevitable e incluso deseable. Más llamadas, más contexto, más bucles, más ingresos. Los fabricantes de GPUs también salen ganando cuando la demanda de inferencia sigue creciendo.</p>



<p>Y, por supuesto, parte de esa demanda es legítima. Hay casos de uso reales que requieren más contexto, más modalidades y una inferencia más sofisticada. Pero sería un error confundir «hay demanda» con «no hay desperdicio».</p>



<p>OpenAI afirma que <a href="https://developers.openai.com/api/docs/guides/prompt-caching" target="_blank" rel="noreferrer noopener">el <em>prompt caching</em> puede reducir la latencia hasta en un 80% y los costes de <em>tokens</em> de entrada hasta en un 90%</a> en contenidos repetidos. Google señala que <a href="https://docs.cloud.google.com/vertex-ai/generative-ai/docs/context-cache/context-cache-overview" target="_blank" rel="noreferrer noopener">el <em>context caching</em> es especialmente útil cuando se reutiliza un contexto inicial amplio</a>. Microsoft afirma que <a href="https://learn.microsoft.com/en-us/azure/architecture/ai-ml/guide/rag/rag-chunking-phase" target="_blank" rel="noreferrer noopener">un buen <em>chunking</em> elimina información irrelevante y mejora tanto el coste como la calidad</a>. Ninguna de estas capacidades sería relevante si el enfoque de fuerza bruta fuera ya eficiente. Su mera existencia demuestra que una arquitectura inteligente supera al uso indiscriminado de <em>tokens</em>.</p>



<p>Por eso las empresas deberían ser muy cautas al adoptar el lenguaje de los proveedores que les venden computación. «Más capaz» y «más caro de ejecutar» no son sinónimos. <strong>La industria de la inteligencia artificial está monetizando la inflación de <em>tokens</em>. Las empresas inteligentes diseñarán sistemas para escapar de ella</strong>.</p>



<p></p>



<p><strong>La ventaja competitiva vendrá de entender tu propio contexto</strong></p>



<p>Aquí es donde este análisis deja de ser una queja sobre costes. Porque la verdadera oportunidad no es solo reducir la factura de <em>tokens</em>. Es construir mejores sistemas.</p>



<p>Una empresa que entiende su propia estructura de conocimiento, sus permisos internos, sus flujos de trabajo, su terminología y su lógica de decisión no debería tener que abordar cada interacción con un sistema de inteligencia artificial como si hablara con un desconocido desde cero. Debería ser capaz de arquitectar el contexto de forma inteligente: recuperar la información adecuada en el momento adecuado, preservar lo relevante, descartar lo superfluo y anclar las respuestas en su propia lógica interna.</p>



<p>No es una mejora menor. Cambia radicalmente la economía de la inteligencia artificial empresarial.</p>



<p>Si la plataforma de la empresa está bien diseñada, el modelo no debería tener que cargar con todo el mundo en su memoria activa constantemente. Debería trabajar con un subconjunto dinámico, curado y de alta señal. La <a href="https://learn.microsoft.com/en-us/azure/search/retrieval-augmented-generation-overview?tabs=videos" target="_blank" rel="noreferrer noopener">arquitectura de recuperación agéntica de Microsoft</a> apunta exactamente en esa dirección: subconsultas enfocadas, respuestas estructuradas, citas, filtrado de seguridad y anclaje en fuentes de conocimiento, en lugar de saturar el contexto indiscriminadamente.</p>



<p>Por eso mismo argumenté en otro artículo que «<a href="https://www.enriquedans.com/2026/03/la-inteligencia-artificial-no-sustituye-a-la-estrategia-la-deja-al-descubierto.html" target="_blank" rel="noreferrer noopener">la inteligencia artificial no sustituye a la estrategia: la dejará al descubierto</a>«. Aquí ocurre lo mismo. La inteligencia artificial no solo revelará si has adoptado el último modelo. Revelará si tu empresa entiende realmente su propia arquitectura de información o si ha estado operando en una niebla de documentos desconectados, permisos inconsistentes y procesos fragmentados.</p>



<p></p>



<p><strong>Qué premiará realmente la próxima fase de la inteligencia artificial</strong></p>



<p>Las empresas que ganen en la próxima fase de la inteligencia artificial no serán las que puedan pagar las mayores facturas de <em>tokens</em>. Serán las que construyan sistemas que no las necesiten.</p>



<p>Tratarán los <em>tokens</em> como los buenos ingenieros tratan el ancho de banda, la batería o la latencia: no como recursos infinitos que se consumen sin pensar, sino como restricciones que premian el diseño inteligente. Guardarán la mayor parte del contexto en modelos del mundo. Usarán modelos grandes cuando tenga sentido. Usarán recuperación cuando sea suficiente. Cachearán el contexto repetido. Enrutarán tareas simples a modelos más baratos. Gestionarán la memoria en lugar de idealizarla. Distinguirán entre contexto disponible y contexto útil.</p>



<p>Y, sobre todo, dejarán de confundir fuerza bruta con sofisticación. Esa es la parte del relato actual de la inteligencia artificial que necesita una corrección urgente. La industria nos empuja a imaginar un futuro en el que el consumo creciente de <em>tokens</em> es simplemente el precio del progreso.</p>



<p>Probablemente no lo sea. Es, al menos en parte, el precio de una arquitectura inmadura. Y la arquitectura madura tiene una forma muy eficaz de destruir malos modelos de negocio.</p>



<p><strong>El futuro de la inteligencia artificial no pertenecerá a las empresas que consuman más <em>tokens</em>. Pertenecerá a las que sepan necesitar menos. </strong></p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>(This article was <a href="https://www.fastcompany.com/91517855/ai-industry-loves-token-inflation-your-company-shouldnt">previously published on Fast Company</a>)</em> </p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/04/a-la-industria-de-la-inteligencia-artificial-le-encanta-la-inflacion-de-tokens-a-tu-empresa-no-deberia.html/feed</wfw:commentRss>
			<slash:comments>10</slash:comments>
		
		
			</item>
		<item>
		<title>Colorado y el fin del frenar solo durante el tramo de radar</title>
		<link>https://www.enriquedans.com/2026/04/colorado-y-el-fin-del-frenar-solo-durante-el-tramo-de-radar.html</link>
					<comments>https://www.enriquedans.com/2026/04/colorado-y-el-fin-del-frenar-solo-durante-el-tramo-de-radar.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Mon, 06 Apr 2026 08:28:33 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[automotive]]></category>
		<category><![CDATA[drivers]]></category>
		<category><![CDATA[driving]]></category>
		<category><![CDATA[fines]]></category>
		<category><![CDATA[radar]]></category>
		<category><![CDATA[speed]]></category>
		<category><![CDATA[speeding ticket]]></category>
		<category><![CDATA[surveillance]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57614</guid>

					<description><![CDATA[Durante años, demasiados conductores han entendido el control de velocidad no como una norma, sino como un pequeño juego de estrategia: correr cuando el asfalto parece libre, mirar el móvil cuando Waze o el detector avisan, levantar el pie justo antes del radar y volver a acelerar unos metros después. No era conducción responsable, sólo  <a href="https://www.enriquedans.com/2026/04/colorado-y-el-fin-del-frenar-solo-durante-el-tramo-de-radar.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-full is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/04/Speed-camera-Dall·E.jpg"><img decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/04/Speed-camera-Dall·E.jpg" alt="IMAGE: A highway scene with multiple cars driving under a network of automated speed cameras, one prominently scanning vehicles and tracking their average speed across the road " class="wp-image-57615" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/04/Speed-camera-Dall·E.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/04/Speed-camera-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/04/Speed-camera-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/04/Speed-camera-Dall·E-768x768.jpg 768w" sizes="(max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Durante años, demasiados conductores han entendido el control de velocidad no como una norma, sino como un pequeño juego de estrategia: correr cuando el asfalto parece libre, mirar el móvil cuando Waze o el detector avisan, levantar el pie justo antes del radar y volver a acelerar unos metros después. No era conducción responsable, sólo picaresca automatizada.</p>



<p>Lo que está haciendo ahora Colorado con su <a href="https://www.codot.gov/programs/speedenforcement">Colorado Speed Enforcement Program</a>, sin embargo, cambia por completo esa lógica: como los <a href="https://www.dgt.es/comunicacion/noticias/que-es-un-radar-de-tramo/" target="_blank" rel="noreferrer noopener">radares de tramo</a> en España, ya no mide si ibas demasiado rápido en un punto, sino <a href="https://www.codot.gov/programs/speedenforcement/faq" target="_blank" rel="noreferrer noopener">si has circulado demasiado rápido a lo largo de un tramo</a>. Y eso convierte el viejo truco del frenazo puntual en algo prácticamente inútil. </p>



<p>Este sistema se apoya en cámaras de control de velocidad separadas entre sí, normalmente entre un cuarto y media milla en las zonas de obra. <a href="https://www.motor1.com/news/792050/colorado-automated-speed-limit-cameras/" target="_blank" rel="noreferrer noopener">Cada vez que un vehículo pasa por una de ellas, el sistema registra imagen, matrícula y marca temporal. Después calcula la velocidad media entre dos puntos dividiendo la distancia recorrida por el tiempo empleado</a>. Si esa media supera el límite aplicable, <a href="https://www.codot.gov/news/2026/march-2026-news/speeding-fines-begin-april2-i25-mead-berthoud" target="_blank" rel="noreferrer noopener">llega una multa</a>. No importa tanto lo que hiciste justo delante de la cámara como lo que hiciste durante todo el trayecto vigilado. Eso es lo verdaderamente disruptivo del modelo, y también lo que lo hace mucho más difícil de esquivar con hábitos oportunistas. </p>



<p>En el caso concreto que ha llamado la atención en Colorado, el estado ha activado ocho cámaras en ambos sentidos de la I-25 entre Mead y Berthoud, en una zona de obras, situadas en los hitos 244.3, 245.9, 247.5 y 249.4, según el <a href="https://www.codot.gov/programs/speedenforcement/cameralocations" target="_blank" rel="noreferrer noopener">mapa oficial de ubicaciones activas</a>. El estado anunció <a href="https://www.motor1.com/news/792050/colorado-automated-speed-limit-cameras/" target="_blank" rel="noreferrer noopener">un período de advertencias desde el 1 de marzo y el inicio de las sanciones el 2 de abril</a>, y tras ese período, las multas pasaron a ser de 75 dólares en zonas de obra, y se envían directamente al propietario registrado del vehículo. El propio departamento explica además que la señalización debe colocarse con antelación, y que los avisos públicos son obligatorios antes de activar el sistema. En realidad, poca novedad: <a href="https://motor.elpais.com/actualidad/el-radar-de-tramo-que-se-te-olvida-mientras-conduces-asi-funciona-el-mas-extenso-y-temido-de-espana/" target="_blank" rel="noreferrer noopener">en España hay radares de tramo que abarcan hasta 32,9 kilómetros</a>. </p>



<p>Ese detalle, que la sanción recaiga sobre el propietario registrado y no necesariamente sobre quien conducía, introduce otra capa interesante. No estamos ya ante el viejo agente apostado con radar, que detiene a una persona concreta y la identifica en el acto, sino ante una lógica de responsabilidad administrativa vinculada al vehículo. La página legislativa de la <a href="https://leg.colorado.gov/bills/sb23-200" target="_blank" rel="noreferrer noopener">SB23-200</a> deja claro que el estado abrió la puerta a estos sistemas en 2023, exigiendo además 30 días de anuncio público y otros 30 días iniciales solo con advertencias. Las preguntas frecuentes oficiales de CDOT añaden que estas infracciones no conllevan puntos en el carnet, pero sí un proceso de cobro y apelación con plazos definidos. Es una evolución muy significativa: menos castigo penalizado en puntos, más automatización administrativa, más trazabilidad y menos margen para la improvisación del conductor.</p>



<p>Lo verdaderamente interesante, sin embargo, no es la multa, sino el cambio cultural que implica. El conductor que solo reduce la velocidad al pasar por el radar deja de tener ventaja. Si acelera entre cámara y cámara, la media lo delata. Dicho de otro modo: el sistema no obliga a parecer obediente durante tres segundos, sino a comportarse de manera consistente a lo largo de todo el tramo monitorizado. Esa es precisamente la razón por la que este modelo erosiona el valor tradicional de las alertas puntuales de apps de navegación. Saber dónde está una cámara sirve de poco si lo que se vigila no es un punto, sino una secuencia. La única manera fiable de no ser sancionado deja de ser el frenazo teatral y pasa a ser algo mucho menos glamuroso: respetar el límite durante todo el recorrido controlado. Esa conclusión se desprende directamente del funcionamiento oficial del sistema.</p>



<p>Desde la perspectiva de la seguridad vial, el razonamiento del estado no es caprichoso. <a href="https://www.cpr.org/2024/06/04/speed-cameras-are-coming-to-a-colorado-highway-construction-zone-near-you/" target="_blank" rel="noreferrer noopener">La expansión de estos sistemas se plantea primero en zonas de obras, precisamente porque son entornos peligrosos y difíciles de vigilar con presencia policial convencional</a>. CDOT sostiene ahora que en la I-25, durante el período de advertencias, las velocidades excesivas en el corredor cayeron un 90%, y que en el corredor anterior de la CO119 habían caído en más de un 80%. Son cifras oficiales que habrá que seguir con cuidado, porque proceden de la propia administración interesada en demostrar la eficacia del programa, pero apuntan a algo razonable: cuando el control deja de ser esporádico y se vuelve continuo, la conducta cambia.</p>



<p>Y no se trata solo de una intuición de despacho. La evidencia acumulada sobre radares y cámaras de velocidad es bastante consistente. Un <a href="https://www.cochrane.org/evidence/CD004607_do-speed-cameras-reduce-road-traffic-crashes-injuries-and-deaths" target="_blank" rel="noreferrer noopener">estudio</a> concluyó que las cámaras de velocidad son una intervención útil para reducir lesiones y muertes por tráfico, con reducciones observadas en velocidad media, en proporción de conductores que exceden el límite y en siniestros graves cerca de los puntos controlados. El Insurance Institute for Highway Safety va en la misma dirección y <a href="https://www.iihs.org/media/bfb25e65-6fae-40eb-a8a6-56f112b321d7/SFohNg/Topics/Research%20summaries/IIHS-HLDI%20Safety%20Solution%E2%80%94speed%20safety%20cameras.pdf">ofrece resultados que vinculan estas tecnologías con menos excesos de velocidad y menos accidentes graves</a>. Uno puede discutir cómo se implantan, con qué garantías y con qué límites, pero cada vez resulta más difícil sostener seriamente que no sirven para modificar comportamientos. </p>



<p>La parte incómoda, por supuesto, es otra. Cada vez que una administración implanta un sistema así, aparece la discusión sobre vigilancia, privacidad, recaudación y despersonalización del castigo, y no le falta cierta razón. La FAQ oficial insiste en que las imágenes solo se conservan cuando hay infracción, que los materiales asociados son confidenciales y que se destruyen en un plazo de hasta tres años tras resolverse el caso. Todo eso está muy bien, pero no elimina la cuestión de fondo: estamos normalizando infraestructuras que convierten la carretera en un espacio cada vez más medido, más trazable y más gobernado por sistemas automáticos. El radar deja de ser una excepción visible y se convierte en una capa ambiental del tráfico. </p>



<p>La pregunta, en realidad, no es si Colorado ha encontrado una forma más eficaz de multar. La pregunta es si estamos asistiendo al final de una cultura de conducción basada en la simulación del cumplimiento. Durante décadas muchos conductores no han respetado los límites: han respetado, como mucho, la posibilidad de ser cazados. El sistema de velocidad media ataca exactamente esa hipocresía. Obliga a cumplir de verdad, no únicamente a escenificar el cumplimiento. Y ahí reside toda su fuerza, pero también toda su carga simbólica: no corrige solo una infracción, corrige toda una manera de pensar. </p>



<p>Por eso la novedad de Colorado merece atención. No porque una <em>app</em> vaya a avisar menos, sino porque introduce una idea mucho más profunda y probablemente irreversible: en la carretera del futuro, la trampa del último segundo vale cada vez menos. El conductor que antes jugaba a esconderse del radar tendrá que elegir entre dos opciones mucho menos divertidas: conducir dentro de la norma o financiar, de multa en multa, la pedagogía tecnológica del estado. </p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is openly available in English on Medium, «<a href="https://medium.com/enrique-dans/you-cant-outsmart-this-speed-camera-it-doesn-t-care-where-you-slow-down-285f93f7092d?sk=dc67527917dc224056642f64640b1ee0" data-type="link" data-id="https://medium.com/enrique-dans/you-cant-outsmart-this-speed-camera-it-doesn-t-care-where-you-slow-down-285f93f7092d?sk=dc67527917dc224056642f64640b1ee0" target="_blank" rel="noreferrer noopener">You can’t outsmart this speed camera: it doesn’t care where you slow down</a>» </em></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/04/colorado-y-el-fin-del-frenar-solo-durante-el-tramo-de-radar.html/feed</wfw:commentRss>
			<slash:comments>30</slash:comments>
		
		
			</item>
		<item>
		<title>Pensar cansa: por eso estamos empezando a dejar que la inteligencia artificial lo haga por nosotros</title>
		<link>https://www.enriquedans.com/2026/04/pensar-cansa-por-eso-estamos-empezando-a-dejar-que-la-inteligencia-artificial-lo-haga-por-nosotros.html</link>
					<comments>https://www.enriquedans.com/2026/04/pensar-cansa-por-eso-estamos-empezando-a-dejar-que-la-inteligencia-artificial-lo-haga-por-nosotros.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Sun, 05 Apr 2026 06:16:54 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[chatbots]]></category>
		<category><![CDATA[convergence]]></category>
		<category><![CDATA[critical thinking]]></category>
		<category><![CDATA[Large Language Model]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57606</guid>

					<description><![CDATA[Hay algo profundamente tentador en una respuesta bien escrita, inmediata y aparentemente razonable. Algo que invita a asentir, copiar, pegar… y seguir adelante. Durante años hemos delegado tareas en máquinas sin mayor problema, pero lo que empieza a emerger con la inteligencia artificial generativa no es una simple delegación: es otra cosa mucho más inquietante.  <a href="https://www.enriquedans.com/2026/04/pensar-cansa-por-eso-estamos-empezando-a-dejar-que-la-inteligencia-artificial-lo-haga-por-nosotros.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-full is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/04/Cognitive-surrender-Gemini.jpg"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/04/Cognitive-surrender-Gemini.jpg" alt="IMAGE: A modern illustration showing two people. On the left, a person is zoned out while using a computer; colorful, glowing data threads come from the screen, flowing around their head like an artificial brain process. On the right, another person is actively thinking and critical, with a distinct, glowing, gear-filled thought cloud appearing above their own head " class="wp-image-57608" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/04/Cognitive-surrender-Gemini.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/04/Cognitive-surrender-Gemini-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/04/Cognitive-surrender-Gemini-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/04/Cognitive-surrender-Gemini-768x768.jpg 768w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Hay algo profundamente tentador en una respuesta bien escrita, inmediata y aparentemente razonable. Algo que invita a asentir, copiar, pegar… y seguir adelante. Durante años hemos delegado tareas en máquinas sin mayor problema, pero lo que empieza a emerger con la inteligencia artificial generativa no es una simple delegación: es otra cosa mucho más inquietante. Es lo que algunos investigadores ya llaman <em><a href="https://www.psychologytoday.com/us/blog/harnessing-hybrid-intelligence/202602/are-we-cruising-toward-cognitive-capitulation" target="_blank" rel="noreferrer noopener">cognitive surrender</a></em>, rendición cognitiva. Y el término no es exagerado. </p>



<p>La idea es sencilla, pero incómoda: no estamos usando la IA para pensar mejor, sino cada vez más para no tener que pensar. Y no porque no sepamos hacerlo, sino porque resulta más rápido, más cómodo y, sobre todo, más convincente aceptar lo que la máquina nos devuelve que someterlo al escrutinio que exigiría cualquier respuesta humana.</p>



<p>Un estudio reciente con más de mil participantes, publicado como <em>working paper</em> en SSRN y titulado «<a href="https://papers.ssrn.com/sol3/papers.cfm?abstract_id=6097646" target="_blank" rel="noreferrer noopener"><em>Thinking—fast, slow, and artificial: how AI is reshaping human reasoning and the rise of cognitive surrender</em></a>«, lo deja claro: cuando una inteligencia artificial proporciona respuestas incorrectas, los usuarios siguen aceptándolas en más de un 70% de los casos. No es solo un problema de error, <a href="https://arstechnica.com/ai/2026/04/research-finds-ai-users-scarily-willing-to-surrender-their-cognition-to-llms/" target="_blank" rel="noreferrer noopener">es un problema de sumisión</a>. Lo verdaderamente preocupante es que muchos participantes no solo fallaban, sino que lo hacían con más confianza. Se equivocaban&#8230; pero convencidos de que no lo hacían. </p>



<p>Esto no va de ignorancia, sino de comportamiento: de cómo reaccionamos ante una fuente que parece fiable, articulada y segura de sí misma. La inteligencia artificial no duda, no titubea, no muestra inseguridad. Y en un entorno saturado de incertidumbre, eso la convierte en una especie de oráculo moderno. Uno que no siempre acierta, pero que siempre suena como si lo hiciera. </p>



<p>La psicología lleva décadas estudiando algo parecido bajo otros nombres: automatización, sesgo de autoridad, dependencia cognitiva. Pero hay una diferencia clave. Antes, las máquinas eran torpes, rígidas, claramente artificiales. Ahora, el interfaz conversacional disfraza sus limitaciones bajo una capa de lenguaje natural impecable. Y eso cambia radicalmente nuestra relación con ellas. </p>



<p>Porque no evaluamos una respuesta solo por su contenido, sino por su forma. Y una frase bien construida, fluida, coherente, tiene muchas más probabilidades de ser aceptada que una torpe, incluso aunque ambas sean igual de correctas&#8230; o de incorrectas. Lo anticipé hace ya tiempo <a href="https://www.enriquedans.com/2023/01/cuando-el-algoritmo-piensa-por-ti.html" target="_blank" rel="noreferrer noopener">aquí</a>: el resultado es una externalización progresiva del razonamiento. No sólo buscamos información fuera de nuestra cabeza, algo perfectamente lógico, sino que empezamos a delegar el proceso mismo de pensar: estructurar un argumento, ponderar alternativas, detectar inconsistencias. Es decir, justo aquello que define el pensamiento crítico.</p>



<p>No todos caen igual. Quienes tienen mayor capacidad de razonamiento abstracto, lo que en psicología se denomina <em><a href="https://www.btbpsychology.com/blog/understanding-psychoeducational-testing-terms-fluid-reasoning" target="_blank" rel="noreferrer noopener">fluid reasoning</a></em>, parecen resistir mejor esa tentación. Detectan mejor cuándo algo no encaja y mantienen (o tratan de mantener, según su nivel de conocimineto de la materia) una cierta distancia crítica. Pero el diseño actual de estos sistemas no ayuda precisamente a fomentar ese comportamiento. Al contrario: todo está optimizado para reducir fricción, no para generar duda. </p>



<p>Y ahí aparece otro problema, más sutil pero igual de grave: la inteligencia artificial no solo puede equivocarse, sino que puede reforzar nuestros propios errores. Hay evidencias claras de que <a href="https://news.stanford.edu/stories/2026/03/ai-advice-sycophantic-models-research">algunos modelos tienden a comportarse de forma complaciente, a dar la razón al usuario incluso cuando no debería</a>, un modelo muy preocupante de convergencia con el usuario que algunos, infantilmente, creen que pueden contrarrestar simplemente copiando y pegando un <em>prompt</em> con variaciones de «no me des la razón». No, los LLM no corrigen, no confrontan, no incomodan. Y eso tiene consecuencias. Porque una herramienta que confirma tus sesgos es mucho más peligrosa que una que los cuestiona.</p>



<p>En el ámbito educativo, los síntomas empiezan a ser visibles. Menos esfuerzo cognitivo, sí. Pero también argumentos más superficiales, menos elaborados, menos originales. Investigaciones recientes apuntan precisamente en esa dirección: <a href="https://www.sciencedirect.com/science/article/pii/S0747563224002541" target="_blank" rel="noreferrer noopener">el uso de modelos generativos reduce la carga cognitiva, pero también la calidad del razonamiento</a>.</p>



<p>Pensar es lento, incómodo y, en muchas ocasiones, frustrante. Requiere tiempo, atención y una cierta tolerancia al error. La inteligencia artificial elimina gran parte de ese coste. Pero al hacerlo, también elimina una parte esencial del aprendizaje. Porque no es lo mismo llegar a una conclusión que recibirla. </p>



<p>El problema no es que la inteligencia artificial sea mala. El problema es que es demasiado buena en algo muy concreto: en parecer convincente. Y eso, en un contexto en el que tendemos a premiar la velocidad sobre la profundidad, crea el caldo de cultivo perfecto para la rendición cognitiva. <a href="https://news.mit.edu/2024/reasoning-skills-large-language-models-often-overestimated-0711" target="_blank" rel="noreferrer noopener">Tendemos a sobreestimar la capacidad de razonamiento de estos sistemas</a>, especialmente cuando nos movemos fuera de los contextos que nos son más familiares, y en los que nuestra capacidad de contrastar es más débil. Simplemente, aceptamos lo que nos dicen como verdad absoluta, sin rechistar. </p>



<p>No se trata de dejar de usar estas herramientas. Sería absurdo. Se trata de entender qué hacen con nosotros cuando las usamos mal. Porque la frontera no está en la tecnología, sino en la actitud. Podemos utilizarlas para pensar mejor&#8230; o para dejar de pensar. Y esa elección, aunque no lo parezca, no es técnica. Es profundamente cultural. </p>



<p>La gran paradoja de este momento es que, cuanto más accesible se vuelve la inteligencia, más valor adquiere algo mucho más escaso: el criterio. Y el criterio no se delega. O al menos, no se delega sin pagar un precio. </p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is openly available in English on Medium, «<a href="https://medium.com/enrique-dans/thinking-hurts-so-why-not-surrender-to-ai-68da41119eb2?sk=322870b1c6c067015b05c7fc6c173999" data-type="link" data-id="https://medium.com/enrique-dans/thinking-hurts-so-why-not-surrender-to-ai-68da41119eb2?sk=322870b1c6c067015b05c7fc6c173999" target="_blank" rel="noreferrer noopener">Thinking hurts, so why not surrender to AI</a>?» </em></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/04/pensar-cansa-por-eso-estamos-empezando-a-dejar-que-la-inteligencia-artificial-lo-haga-por-nosotros.html/feed</wfw:commentRss>
			<slash:comments>28</slash:comments>
		
		
			</item>
		<item>
		<title>La soberanía tecnológica era un mito&#8230; hasta que China decidió tomársela en serio</title>
		<link>https://www.enriquedans.com/2026/04/la-soberania-tecnologica-era-un-mito-hasta-que-china-decidio-tomarsela-en-serio.html</link>
					<comments>https://www.enriquedans.com/2026/04/la-soberania-tecnologica-era-un-mito-hasta-que-china-decidio-tomarsela-en-serio.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Sat, 04 Apr 2026 07:44:56 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[China]]></category>
		<category><![CDATA[decarbonization]]></category>
		<category><![CDATA[energy]]></category>
		<category><![CDATA[independence]]></category>
		<category><![CDATA[innovation]]></category>
		<category><![CDATA[manufacturing]]></category>
		<category><![CDATA[renewables]]></category>
		<category><![CDATA[sovereignty]]></category>
		<category><![CDATA[US]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57598</guid>

					<description><![CDATA[Durante años, el discurso dominante en Estados Unidos ha girado en torno a una idea tan repetida como poco examinada: la necesidad de recuperar la soberanía tecnológica, de relocalizar cadenas de suministro, de reducir dependencias estratégicas. La narrativa suena bien, encaja en términos políticos y transmite una sensación de control. El problema es que, cuando  <a href="https://www.enriquedans.com/2026/04/la-soberania-tecnologica-era-un-mito-hasta-que-china-decidio-tomarsela-en-serio.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-full is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/04/US-China-dependencies-Nano-Banana.jpg"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/04/US-China-dependencies-Nano-Banana.jpg" alt="IMAGE: A split illustration shows a blue US side with high-tech AI infrastructure and a broken power grid, connected by red wires to a vibrant orange Chinese side featuring robust electrical manufacturing and engineering " class="wp-image-57599" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/04/US-China-dependencies-Nano-Banana.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/04/US-China-dependencies-Nano-Banana-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/04/US-China-dependencies-Nano-Banana-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/04/US-China-dependencies-Nano-Banana-768x768.jpg 768w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Durante años, el discurso dominante en Estados Unidos ha girado en torno a una idea tan repetida como poco examinada: la necesidad de recuperar la soberanía tecnológica, de relocalizar cadenas de suministro, de reducir dependencias estratégicas. La narrativa suena bien, encaja en términos políticos y transmite una sensación de control. El problema es que, cuando uno baja al terreno de lo tangible, se desmorona con sorprendente facilidad. </p>



<p>Este artículo en Bloomberg, <em>«<a href="https://www.bloomberg.com/news/features/2026-04-01/us-ai-data-center-expansion-relies-on-chinese-electrical-equipment-imports?accessToken=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJzb3VyY2UiOiJTdWJzY3JpYmVyR2lmdGVkQXJ0aWNsZSIsImlhdCI6MTc3NTA1ODk2OSwiZXhwIjoxNzc1NjYzNzY5LCJhcnRpY2xlSWQiOiJUQ1Q3UzRLSUpIUFgwMCIsImJjb25uZWN0SWQiOiIwQzg4NkY0NTI0NzY0RUE0OEY2QTk4RTk1NDc5RTI2NSJ9.6XD-Gdikon48e2mPVqpu8_TR9luCXcmBxKjxYQ9XeBA&amp;leadSource=uverify%20wall">America’s AI build-out hinges on Chinese electrical parts</a>«</em>, que analiza la expansión de los centros de datos en Estados Unidos, es particularmente revelador: el despliegue de infraestructura para inteligencia artificial está chocando con una escasez crítica de equipos eléctricos, desde transformadores y sistemas de distribución a otros componentes clave, cuya producción depende en gran medida de cadenas de suministro globales profundamente entrelazadas con China. No estamos hablando de chips avanzados ni de algoritmos, sino de algo mucho más básico: la infraestructura física sin la cual la inteligencia artificial no existe. Pretender soberanía tecnológica mientras dependes de otro país para electrificar tus centros de datos es, como mínimo, una contradicción difícil de sostener. </p>



<p>Lo verdaderamente interesante es que esta dependencia no es coyuntural, sino completamente estructural. Durante décadas, los Estados Unidos y buena parte de Occidente externalizaron la fabricación bajo la premisa de que el valor estaba en el diseño, en el <em>software</em>, en la propiedad intelectual. China, en cambio, apostó por algo mucho más incómodo y menos glamouroso: construir capacidad industrial. Y lo hizo con una visión a largo plazo y una consistencia estratégica difíciles de igualar, apoyándose además en una producción masiva de talento ingenieril. <a href="https://cset.georgetown.edu/article/the-global-distribution-of-stem-graduates-which-countries-lead-the-way/" target="_blank" rel="noreferrer noopener">China gradúa cada año varios millones de estudiantes en disciplinas STEM, frente a cifras muy inferiores en Estados Unidos</a>, y dado que el talento está uniformemente distribuido, eso implica <a href="https://www.enriquedans.com/2025/03/china-y-las-estrategias-a-largo-plazo-la-educacion.html" target="_blank" rel="noreferrer noopener">un importante <em>surplus</em> de trabajadores altamente cualificados</a>. Cuando un país genera ese volumen de ingenieros de forma sostenida, deja de ser «la fábrica del mundo» para convertirse en algo mucho más relevante: el lugar donde se diseñan, optimizan y escalan los sistemas industriales del futuro. Del simple <em>«Made in China»</em>, al <em>«Engineered in China»</em>. En pocas décadas. </p>



<p>Por eso resulta cada vez más difícil seguir defendiendo la idea de que Estados Unidos mantiene una supremacía clara. ¿En <em>software</em>? Los ingenieros chinos no solo programan, sino que lo hacen a una escala y con una velocidad que cambia las reglas del juego. ¿En educación? Las universidades chinas han alcanzado niveles muy elevados, aunque no atraigan tanto talento internacional, mientras las occidentales siguen apoyándose en su poder de atracción global. ¿En finanzas? El dólar sigue siendo dominante, pero <a href="https://www.enriquedans.com/2021/04/china-el-futuro-del-dinero-y-los-grados-de-libertad.html" target="_blank" rel="noreferrer noopener">China avanza con alternativas como el yuan digital</a>, ampliando progresivamente su alcance en circuitos internacionales. Si la divisa de reserva tradicional está gestionada por un completo imbécil, muchos países empiezan a ver otra, la que sea, como más interesante. </p>



<p>Sin embargo, el verdadero cambio no está en quién gana cada uno de esos ámbitos por separado, sino en cómo se reconfigura el conjunto. China no necesita liderar en todo para convertirse en imprescindible. Le basta con dominar aquello que sostiene materialmente el sistema. Y ahí su ventaja es cada vez más evidente. En tecnologías limpias, por ejemplo, <a href="https://about.bnef.com/insights/clean-energy/china-dominates-clean-technology-manufacturing-investment-as-tariffs-begin-to-reshape-trade-flows-bloombergnef/" target="_blank" rel="noreferrer noopener">BloombergNEF estima que controla más del 70% de la capacidad de fabricación global en muchos segmentos clave</a>. En robótica industrial, los datos de la International Federation of Robotics muestran que <a href="https://ifr.org/ifr-press-releases/news/global-robot-demand-in-factories-doubles-over-10-years" target="_blank" rel="noreferrer noopener">ya representa más de la mitad de las instalaciones mundiales y que sus fabricantes están ganando terreno rápidamente</a>. </p>



<p>Incluso en el ámbito medioambiental, donde China ha sido durante años el gran villano global, el panorama empieza a cambiar. Sigue siendo el mayor emisor absoluto, sí, pero también es el país que más invierte en energías limpias y el que está acelerando con mayor intensidad su transición, lo que le brinda una progresiva ventaja en costes mientras los Estados Unidos se suicidan con la soberana barbaridad del <em>«<a href="https://www.forbes.com/sites/gauravsharma/2025/01/20/drill-baby-drill-donald-trump-declares-us-energy-emergency/" target="_blank" rel="noreferrer noopener">drill, baby, drill</a>«</em>. Según la International Energy Agency y el análisis de Carbon Brief, <a href="https://www.carbonbrief.org/analysis-chinas-co2-emissions-have-now-been-flat-or-falling-for-21-months/" target="_blank" rel="noreferrer noopener">sus emisiones han entrado en una fase de estabilización e incluso descenso</a>, impulsadas por el crecimiento masivo de la solar y la eólica. Obviamente no es aún el país menos contaminante, pero sí el que mejor posicionado está para dominar la industria que hará posible esa transición. </p>



<p>La ironía es difícil de ignorar. Europa no consigue liberarse de la tecnología estadounidense: vive sobre sus plataformas, sus nubes, su <em>software</em>. Estados Unidos, mientras tanto, descubre que tampoco puede liberarse de China, porque la base física de su liderazgo tecnológico depende de una potencia industrial que lleva décadas perfeccionando exactamente aquello que Occidente decidió abandonar. La interdependencia no es simétrica, pero es profunda, y desmonta cualquier relato simplista de desacoplamiento. A lo mejor, es que en un mundo cada vez más interconectado, lo interesante es buscar la cooperación y la conexión entre países, en lugar de la competencia y la autarquía&#8230; </p>



<p>Quizá el error de fondo sea seguir planteando el debate en términos de supremacía, como si el mundo siguiera siendo un tablero donde un único actor puede dominar todas las dimensiones. Lo que estamos viendo se parece mucho más a una interdependencia asimétrica entre dos modelos con fortalezas distintas: Estados Unidos sigue liderando en capas abstractas como finanzas, influencia o ecosistemas digitales, mientras China domina cada vez más las capas físicas como industria, energía, manufactura, o despliegue.</p>



<p>Y en un mundo en el que la tecnología vuelve a anclarse en factores tangibles como la electricidad, las infraestructuras o los materiales, la pregunta relevante ya no es quién lidera hoy, sino qué tipo de poder será más decisivo mañana. Porque si algo empieza a quedar claro es que el liderazgo del siglo XXI no se decidirá únicamente en el código, sino en la capacidad de convertir ese código en realidad. Y en ese terreno, cada vez resulta más difícil sostener que China sea simplemente un actor más del que se puede prescindir. </p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is openly available in English on Medium, «<a href="https://medium.com/enrique-dans/america-says-it-wants-tech-independence-it-cant-even-power-its-data-centers-d3ba602d5015?sk=85acf80fde96b0c16b2a9d6476d3b338" data-type="link" data-id="https://medium.com/enrique-dans/america-says-it-wants-tech-independence-it-cant-even-power-its-data-centers-d3ba602d5015?sk=85acf80fde96b0c16b2a9d6476d3b338" target="_blank" rel="noreferrer noopener">America says it wants tech independence. It can’t even power its data centers</a>» </em></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/04/la-soberania-tecnologica-era-un-mito-hasta-que-china-decidio-tomarsela-en-serio.html/feed</wfw:commentRss>
			<slash:comments>21</slash:comments>
		
		
			</item>
		<item>
		<title>Trump no quiere sólo ganar elecciones: quiere hackear la democracia</title>
		<link>https://www.enriquedans.com/2026/04/trump-no-quiere-solo-ganar-elecciones-quiere-hackear-la-democracia.html</link>
					<comments>https://www.enriquedans.com/2026/04/trump-no-quiere-solo-ganar-elecciones-quiere-hackear-la-democracia.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Fri, 03 Apr 2026 08:34:30 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[activism]]></category>
		<category><![CDATA[democracy]]></category>
		<category><![CDATA[Donald Trump]]></category>
		<category><![CDATA[elections]]></category>
		<category><![CDATA[hacking]]></category>
		<category><![CDATA[manipulation]]></category>
		<category><![CDATA[politics]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57589</guid>

					<description><![CDATA[Trump no se comporta como un político convencional con tentaciones autoritarias. Se comporta como alguien que ha entendido perfectamente cómo funciona el poder en el siglo XXI: no hace falta cerrar periódicos si puedes desacreditarlos algorítmicamente, no hace falta prohibir votar si puedes rediseñar la burocracia para que millones de personas no puedan llegar a  <a href="https://www.enriquedans.com/2026/04/trump-no-quiere-solo-ganar-elecciones-quiere-hackear-la-democracia.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-large is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/04/Trump-hacking-democracy-Dall·E.jpg"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/04/Trump-hacking-democracy-Dall·E-1024x1024.jpg" alt="IMAGE: A stylized image of Donald Trump with glowing eyes towering over a crowd of protesters, surrounded by surveillance cameras and digital networks, symbolizing control and resistance " class="wp-image-57590" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/04/Trump-hacking-democracy-Dall·E-1024x1024.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/04/Trump-hacking-democracy-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/04/Trump-hacking-democracy-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/04/Trump-hacking-democracy-Dall·E-768x768.jpg 768w, https://www.enriquedans.com/wp-content/uploads/2026/04/Trump-hacking-democracy-Dall·E-1536x1536.jpg 1536w, https://www.enriquedans.com/wp-content/uploads/2026/04/Trump-hacking-democracy-Dall·E.jpg 2048w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Trump no se comporta como un político convencional con tentaciones autoritarias. Se comporta como alguien que ha entendido perfectamente cómo funciona el poder en el siglo XXI: no hace falta cerrar periódicos si puedes desacreditarlos algorítmicamente, no hace falta prohibir votar si puedes rediseñar la burocracia para que millones de personas no puedan llegar a la urna, y no hace falta suspender formalmente la democracia si consigues convertirla en una interfaz hostil, opaca y punitiva. Lo que estamos viendo en Estados Unidos no es simplemente una deriva ideológica. Es algo mucho más serio: un intento de hackear la democracia. </p>



<p>La palabra importa. Hackear no significa necesariamente manipular una máquina de votación con una línea de código. Significa explotar vulnerabilidades de un sistema para forzarlo a comportarse de manera distinta a la prevista. Y eso es exactamente lo que está intentando hacer Trump con el sistema democrático estadounidense: identificar sus puntos débiles, desde la fragmentación administrativa hasta la complejidad regulatoria, y convertirlos en vectores de control político. La democracia, al fin y al cabo, también es tecnología. Es un conjunto de protocolos, poderes y contrapoderes, reglas, bases de datos, procedimientos de autenticación, cadenas de custodia, estándares de interoperabilidad y mecanismos de confianza. <a href="https://www.wired.com/story/this-is-how-trump-is-already-threatening-the-midterms/" target="_blank" rel="noreferrer noopener">Y cuando alguien decide reescribir ese <em>stack</em> en beneficio propio, no está reformando nada: está atacando la capa de infraestructura del sistema</a>. </p>



<p>Por eso el debate sobre la <a href="https://www.cnbc.com/2026/03/31/trump-mail-in-voting-executive-order.html" target="_blank" rel="noreferrer noopener">orden ejecutiva de marzo de 2025</a> y sobre la <a href="https://en.wikipedia.org/wiki/Safeguard_American_Voter_Eligibility_Act" target="_blank" rel="noreferrer noopener">SAVE Act</a> es tan importante: presentadas bajo el lenguaje aparentemente higiénico de la «integridad electoral», ambas iniciativas comparten una lógica muy clara: desplazar la carga de la prueba hacia el ciudadano, multiplicar la fricción del registro y ampliar la capacidad del poder federal para cruzar datos, revisar padrones y amenazar con sanciones o retirada de fondos. La propia orden ejecutiva exige prueba documental de ciudadanía para el formulario federal de registro y contempla revisiones coordinadas entre Homeland Security y otras agencias, todo para dificultar el voto a determinados ciudadanos. La SAVE Act, por su parte, exige prueba documental de ciudadanía para registrarse y abre la puerta a purgas continuas y a un entorno legal que castiga a funcionarios electorales por aceptar registros que luego puedan ser cuestionados. Todo ello en nombre de un problema cuya incidencia real, según múltiples análisis, es completamente marginal e insignificante. </p>



<p>Lo peligroso de este tipo de maniobra es que se vende como modernización. El autoritarismo contemporáneo nunca se anuncia como autoritarismo. Se presenta como auditoría, verificación, trazabilidad, seguridad, <em>compliance</em> o integridad del dato. Su estética no es la del uniforme, sino la del formulario. Su violencia no siempre adopta la forma de una porra: muchas veces adopta la forma de una persona que no consigue registrarse porque no tiene un documento a mano, de un funcionario muerto de miedo por una desmesurada amenaza penal, o de una administración local obligada a rehacer procesos enteros en pleno año electoral. La represión, en la era digital, se vuelve procedimental. Y precisamente por eso resulta más difícil de detectar para quien sigue buscando el autoritarismo con categorías del siglo XX. </p>



<p>Ese patrón, además, no es nuevo. <a href="https://en.wikipedia.org/wiki/Viktor_Orb%C3%A1n" target="_blank" rel="noreferrer noopener">Viktor Orbán</a> lleva más de una década perfeccionándolo en Hungría: no destruyó la democracia de un día para otro, sino que la fue reconfigurando desde dentro, alterando leyes electorales, colonizando instituciones, controlando el ecosistema mediático y utilizando el aparato del Estado, incluidas sus capas más técnicas y burocráticas, para consolidar su poder, hasta el punto de que <a href="https://www.europarl.europa.eu/news/en/press-room/20220909IPR40137/meps-hungary-can-no-longer-be-considered-a-full-democracy" target="_blank" rel="noreferrer noopener">organismos como el Parlamento Europeo han llegado a calificar el país como una «autocracia electoral»</a>. Diversos <a href="https://freedomhouse.org/country/hungary/freedom-world/2024" target="_blank" rel="noreferrer noopener">análisis</a> han documentado cómo ese proceso ha implicado una captura sistemática del sistema institucional y mediático. <a href="https://eutoday.net/trump-backs-orban-as-hungary-campaign-is-shaken-by-opposition-sabotage-claims/" target="_blank" rel="noreferrer noopener">Lo que Trump parece estar intentando hacer en Estados Unidos recuerda inquietantemente a ese modelo</a>: no es un golpe abrupto, sino una mutación progresiva del sistema hasta hacerlo prácticamente irreversible. Y sin embargo, incluso en ese contexto, <a href="https://apnews.com/article/hungary-election-youth-voters-orban-58e71836ef9e3a38bc478bdbde9ca0b0" target="_blank" rel="noreferrer noopener">Hungría empieza a mostrar signos de fatiga</a>: las <a href="https://www.reuters.com/world/hungarys-orban-faces-pivotal-battle-against-ally-turned-foe-2026-03-25/" target="_blank" rel="noreferrer noopener">movilizaciones masivas contra Orbán</a>, cada vez más <a href="https://www.france24.com/en/live-news/20250922-tens-of-thousands-rally-against-hungary-pm-orban-s-media-spending" target="_blank" rel="noreferrer noopener">amplias</a> y sostenidas en los últimos meses, apuntan a una <a href="https://apnews.com/article/hungary-orban-opposition-protest-child-abuse-41613fa6cad30006efcb4181e3fc6aba" target="_blank" rel="noreferrer noopener">creciente contestación social</a>. La lección es doble: el autoritarismo contemporáneo se construye con paciencia, pero también <a href="https://www.msn.com/en-us/news/world/how-orban-went-from-invincible-to-underdog-in-hungary/ar-AA1Zy7NI" target="_blank" rel="noreferrer noopener">puede ser contestado si la sociedad entiende a tiempo la naturaleza del ataque</a>. Aún queda esperanza. </p>



<p>En los Estados Unidos, la sociedad civil también se está viendo obligada a aprender el nuevo idioma del poder. Las protestas de <a href="https://www.nokings.org/" target="_blank" rel="noreferrer noopener">No Kings</a> no son solo una explosión espontánea de indignación: son también un ejemplo de movilización distribuida, coordinada y persistente. <a href="https://www.nytimes.com/2026/03/27/us/no-kings-protests-cities.html" target="_blank" rel="noreferrer noopener">Más de 3,000 manifestaciones en ciudades y pueblos de todo el país</a>, con convocatorias que se replican globalmente y que buscan <a href="https://www.theverge.com/policy/687195/no-kings-trump-parade-protests" target="_blank" rel="noreferrer noopener">canalizar un malestar transversal frente a un presidente al que muchos perciben como un aspirante a monarca absoluto</a>. No se trata de una única protesta, sino de una <a href="https://en.wikipedia.org/wiki/June_2025_No_Kings_protests" target="_blank" rel="noreferrer noopener">serie continua</a> de <a href="https://en.wikipedia.org/wiki/October_2025_No_Kings_protests" target="_blank" rel="noreferrer noopener">movilizaciones</a>, la tercera en menos de un año, organizadas por redes como <a href="https://indivisible.org/">Indivisible</a>, <a href="https://front.moveon.org/" target="_blank" rel="noreferrer noopener">MoveOn</a> o <a href="https://www.fiftyfifty.one/" target="_blank" rel="noreferrer noopener">50501</a>, con materiales compartidos, mapas interactivos y formación <em>online</em> en seguridad y desescalada. Exactamente lo que cabría esperar de una respuesta en red frente a un intento de centralización del poder. </p>



<p>Ese detalle es crucial. Porque si el autoritarismo contemporáneo se construye sobre infraestructuras digitales de control, la resistencia democrática también necesita sus propias infraestructuras. Ya no basta con salir a la calle: hay que coordinarse, documentar, proteger comunicaciones, distribuir información, formar activistas y sostener el movimiento en el tiempo. La democracia, en ese sentido, también se ha convertido en un problema de arquitectura tecnológica. </p>



<p>Pero conviene no caer en el tecno-optimismo ingenuo. La misma tecnología que permite coordinar miles de protestas permite también vigilarlas, mapearlas, infiltrar sus canales, identificar a sus participantes y convertir cualquier gesto en dato. El poder autoritario siempre ha necesitado denunciantes: lo novedoso es que ahora puede integrarlos en plataformas, aplicaciones y flujos digitales que convierten la delación en una experiencia de usuario. El dedo acusador se convierte en botón. Y así, poco a poco, la ciudadanía deja de relacionarse con el Estado como sujeto de derechos para hacerlo como nodo dentro de una red de vigilancia. </p>



<p>Por eso la defensa de la democracia estadounidense no puede limitarse a repetir lugares comunes sobre «instituciones fuertes». Las instituciones no se defienden solas cuando alguien consigue colonizar sus capas más técnicas. Hay que defender los estándares, los procedimientos, la gobernanza de los datos, la transparencia algorítmica, la privacidad, la descentralización organizativa y la facilidad efectiva del ejercicio del voto. Hay que entender que hoy un ataque contra la democracia puede adoptar la forma de una base de datos mal cruzada, de una exigencia documental aparentemente razonable, de una <em>app</em> oficial, de una purga automatizada o de una narrativa viral diseñada para convertir la exclusión en un supuesto sentido común. </p>



<p>No, el problema no es solamente que Trump quiera ganar a toda costa las próximas elecciones para evitar recortes en su cuota de poder. El problema es que quiere rediseñar el sistema para que perder deje de ser una posibilidad real. Y cuando un líder empieza a actuar así, la pregunta deja de ser si estamos ante un populista más o menos agresivo. La pregunta correcta es, más bien, cuánto tiempo puede sobrevivir una democracia cuando un aspirante a tirano ya no necesita tanques, porque le basta con controlar formularios, registros, plataformas y miedo. </p>



<p>Y la respuesta, por desgracia, nunca ha sido tranquilizadora. </p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is openly available in English on Medium, «<a href="https://medium.com/enrique-dans/trumps-silent-coup-no-tanks-just-a-system-hack-6205ab4634e9?sk=e5a8f7b9f45cb26a0a5606704925c1a8" target="_blank" rel="noreferrer noopener">Trump’s silent coup: no tanks, just a system hack</a>» </em></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/04/trump-no-quiere-solo-ganar-elecciones-quiere-hackear-la-democracia.html/feed</wfw:commentRss>
			<slash:comments>55</slash:comments>
		
		
			</item>
		<item>
		<title>La primera generación de humanos dotados de externalización cognitiva</title>
		<link>https://www.enriquedans.com/2026/04/la-primera-generacion-de-humanos-dotados-de-externalizacion-cognitiva.html</link>
					<comments>https://www.enriquedans.com/2026/04/la-primera-generacion-de-humanos-dotados-de-externalizacion-cognitiva.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Thu, 02 Apr 2026 08:32:22 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[cognitive]]></category>
		<category><![CDATA[education]]></category>
		<category><![CDATA[Fast Company]]></category>
		<category><![CDATA[offloading]]></category>
		<category><![CDATA[outsourcing]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57593</guid>

					<description><![CDATA[Durante años, hemos ido externalizando partes de nuestra cognición de forma tan gradual que apenas nos hemos dado cuenta. Externalizamos la memoria a los motores de búsqueda después de que el conocido «efecto Google» demostrara que, cuando esperamos que la información siga disponible en internet, es menos probable que la recordemos y más probable que  <a href="https://www.enriquedans.com/2026/04/la-primera-generacion-de-humanos-dotados-de-externalizacion-cognitiva.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-full is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/04/Cognitive-offloading-Dall·E.jpg"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/04/Cognitive-offloading-Dall·E.jpg" alt="IMAGE: A man relaxes while using his smartphone as glowing digital networks connect his brain to icons representing search, navigation, and communication, symbolizing outsourced thinking" class="wp-image-57594" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/04/Cognitive-offloading-Dall·E.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/04/Cognitive-offloading-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/04/Cognitive-offloading-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/04/Cognitive-offloading-Dall·E-768x768.jpg 768w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Durante años, hemos ido externalizando partes de nuestra cognición de forma tan gradual que apenas nos hemos dado cuenta. Externalizamos la memoria a los motores de búsqueda después de que el conocido «<a href="https://www.science.org/doi/10.1126/science.1207745" target="_blank" rel="noreferrer noopener">efecto Google</a>» demostrara que, <a href="https://www.nature.com/articles/d41586-025-00292-z" target="_blank" rel="noreferrer noopener">cuando esperamos que la información siga disponible en internet, es menos probable que la recordemos y más probable que recordemos dónde encontrarla</a>. Externalizamos la navegación al GPS, incluso cuando la investigación empezó a mostrar que <a href="https://www.nature.com/articles/s41598-020-62877-0" target="_blank" rel="noreferrer noopener">su uso intensivo puede debilitar la memoria espacial cuando tenemos que orientarnos por nuestra cuenta</a>. Y hemos externalizado cada vez más la coordinación social a plataformas que deciden qué vemos, cuándo respondemos y cómo nos sincronizamos con los demás. </p>



<p>Ahora empezamos a externalizar algo mucho más relevante: no la memoria, no la orientación, no la agenda, sino el propio pensamiento. O, más exactamente, el trabajo de formarse un juicio antes de expresarlo.</p>



<p>Ese es el verdadero cambio cultural que se esconde detrás del entusiasmo actual por la inteligencia artificial generativa. La tecnología suele presentarse como una capa de productividad, un acelerador de creatividad o un asistente universal. Y sí, en muchos casos lo es. Pero también introduce una tentación peligrosa: confundir la producción sin fricción con la comprensión real, y las respuestas fluidas con el juicio construido. Investigaciones de Microsoft Research han encontrado que <a href="https://www.microsoft.com/en-us/research/publication/the-impact-of-generative-ai-on-critical-thinking-self-reported-reductions-in-cognitive-effort-and-confidence-effects-from-a-survey-of-knowledge-workers/" target="_blank" rel="noreferrer noopener">una mayor confianza en la inteligencia artificial generativa se asocia con menos pensamiento crítico</a>, mientras que un estudio en Acta Psychologica vincula <a href="https://www.sciencedirect.com/science/article/pii/S0001691825010388" target="_blank" rel="noreferrer noopener">una mayor dependencia de la inteligencia artificial con niveles más bajos de pensamiento crítico</a>. Un comentario reciente en Nature Reviews Psychology lo resumía perfectamente: <a href="https://www.nature.com/articles/s44159-025-00467-5" target="_blank" rel="noreferrer noopener">las mejoras en rendimiento que aporta la inteligencia artificial generativa no deben confundirse con aprendizaje</a>.</p>



<p>He defendido antes que <a href="https://www.enriquedans.com/2026/03/la-inteligencia-artificial-no-sustituye-a-la-estrategia-la-deja-al-descubierto.html" target="_blank" rel="noreferrer noopener">la inteligencia artificial no sustituirá a la estrategia sino que la dejará al descubierto</a>, y que <a href="https://www.enriquedans.com/2026/03/por-que-centrarse-en-la-reduccion-de-costes-en-plena-revolucion-de-la-inteligencia-artificial-es-un-error-estrategico.html" target="_blank" rel="noreferrer noopener">centrarse en la reducción de costes durante la revolución de la inteligencia artificial es un error estratégico</a>. Esta es la versión cognitiva del mismo error. Cuando las personas utilizan la inteligencia artificial como sustituto del juicio en lugar de como herramienta para afinarlo, no se vuelven más capaces. Simplemente se vuelven más dependientes.</p>



<p></p>



<h3 class="wp-block-heading"><strong>La era de la externalización cognitiva</strong></h3>



<p>Los psicólogos lo llaman <em><strong>cognitive offloading</strong></em>: trasladar trabajo mental a una ayuda externa. Una lista de la compra es externalización cognitiva. Una calculadora también. Lo mismo que un calendario, un cuaderno o una app de recordatorios. En ese sentido, no hay nada intrínsecamente nuevo ni siniestro en esto. Los seres humanos siempre han construido herramientas para ampliar la mente. Una revisión reciente en Nature Reviews Psychology señala que <a href="https://www.nature.com/articles/s44159-025-00432-2" target="_blank" rel="noreferrer noopener">externalizar puede mejorar el rendimiento en algunas tareas</a>, aunque también tiene sus desventajas. Y una perspectiva más amplia en Nature Human Behaviour<em> </em>sugiere que <a href="https://www.nature.com/articles/s41562-021-01162-0" target="_blank" rel="noreferrer noopener">la tecnología digital puede estar cambiando la cognición sin evidencia clara de un daño generalizado y duradero</a>.</p>



<p>El problema no es externalizar <em>per se</em>. El problema es <strong>qué estamos externalizando</strong>.</p>



<p>Cuando externalizamos el almacenamiento, ahorramos esfuerzo. Cuando externalizamos la navegación, reducimos incertidumbre. Pero cuando externalizamos el juicio, corremos el riesgo de debilitar la facultad que nos permite decidir si la máquina es útil, engañosa, sesgada, superficial, manipuladora o simplemente incorrecta.</p>



<p>Ese riesgo importa más de lo que muchas organizaciones parecen dispuestas a admitir. Porque la inteligencia artificial generativa no solo responde preguntas: crea una ilusión de competencia tan convincente que puede borrar la diferencia entre «entiendo esto» y «puedo producir algo que haga que parezca que lo entiendo». Nature revisó recientemente la evidencia sobre memoria y herramientas digitales y subrayó un punto importante: <a href="https://www.nature.com/articles/d41586-025-00292-z">las afirmaciones más alarmistas sobre el deterioro cognitivo suelen ser exageradas</a>. Pero también señalaba que ciertas capacidades pueden alterarse de forma significativa, incluyendo una confianza inflada y cambios en los patrones de recuerdo. Precisamente por eso este momento merece más seriedad de la que suelen aportarle tanto los optimistas ingenuos como los catastrofistas.</p>



<p></p>



<h3 class="wp-block-heading"><strong>La fluidez no es cognición</strong></h3>



<p>Lo que hace culturalmente desestabilizadora a la inteligencia artificial generativa no es solo que sea útil. Es que es <strong>fluida</strong>.</p>



<p>Una calculadora nunca fingió entender la aritmética. Tu GPS nunca afirmó saber cómo se siente una ciudad. Los motores de búsqueda no hablaban en primera persona ni ofrecían resúmenes seguros en prosa perfecta. La inteligencia artificial generativa sí lo hace. Produce lenguaje con una pulidez y una cercanía al rendimiento retórico humano que hace fácil confundir coherencia lingüística con razonamiento.</p>



<p>Pero una respuesta bien formulada no es lo mismo que una respuesta bien pensada. Los grandes modelos de lenguaje son motores de patrones asombrosos, pero no poseen juicio en el sentido humano del término. Como señalaba recientemente un artículo de Harvard Business School, <a href="https://www.hbs.edu/bigs/artificial-intelligence-human-jugment-drives-innovation" target="_blank" rel="noreferrer noopener">la experiencia y el juicio humanos siguen siendo críticos porque la inteligencia artificial no puede distinguir de forma fiable entre ideas realmente buenas y otras simplemente plausibles, ni puede guiar por sí sola una estrategia a largo plazo</a>. Ese argumento no es anti-inteligencia artificial: es simplemente anti-ingenuidad.</p>



<p>Aquí es donde empieza a aparecer la verdadera división. No entre quienes usan inteligencia artificial y quienes no. Esa distinción ya empieza a ser trivial. La diferencia relevante es entre quienes usan la inteligencia artificial como compañera de pensamiento y quienes la utilizan como sustituto del pensamiento.</p>



<p>Los primeros se ven amplificados por ella. Los segundos se van vaciando poco a poco. </p>



<p></p>



<h3 class="wp-block-heading"><strong>La educación es donde esto se vuelve imposible de ignorar</strong></h3>



<p>Si quieres ver claramente lo que está en juego, mira la educación. La ansiedad en torno a la inteligencia artificial en escuelas y universidades suele plantearse en términos de trampas, plagio o integridad en la evaluación. Son problemas reales, pero no el más profundo.</p>



<p>El problema de fondo es que la inteligencia artificial generativa puede mejorar el rendimiento sin generar aprendizaje.</p>



<p>El <a href="https://www.oecd.org/en/publications/oecd-digital-education-outlook-2026_062a7394-en.html" target="_blank" rel="noreferrer noopener">Digital Education Outlook 2026</a> de la OCDE, que ya he citado en artículos anteriores (es seriamente bueno), es especialmente claro en este punto: cuando los estudiantes externalizan tareas a la inteligencia artificial generativa sin una guía pedagógica adecuada, el rendimiento puede mejorar incluso cuando el aprendizaje real no lo hace. La UNESCO ha planteado un argumento similar en sus <a href="https://www.unesco.org/en/articles/guidance-generative-ai-education-and-research" target="_blank" rel="noreferrer noopener">directrices sobre inteligencia artificial generativa en educación e investigación</a>, advirtiendo de que estos sistemas deben utilizarse dentro de un marco centrado en lo humano y no como atajos que eviten el proceso cognitivo. Y la OCDE lleva años insistiendo en que la <a href="https://www.oecd.org/en/topics/creative-thinking.html" target="_blank" rel="noreferrer noopener">creatividad</a> y el <a href="https://www.oecd.org/en/publications/fostering-students-creativity-and-critical-thinking_62212c37-en.html" target="_blank" rel="noreferrer noopener">pensamiento crítico</a> no son habilidades accesorias, sino objetivos centrales en una sociedad digital.</p>



<p>Por eso gran parte del pánico institucional en torno a la inteligencia artificial pierde el foco. La cuestión no es si los estudiantes usarán inteligencia artificial: por supuesto que lo harán. La cuestión es si seguirán obligados a ejercer juicio mientras la utilizan.</p>



<p>Ya defendí algo similar en «<a href="https://www.enriquedans.com/2026/01/la-inteligencia-artificial-podria-transformar-la-educacion-si-las-universidades-responden-correctamente.html" target="_blank" rel="noreferrer noopener">La inteligencia artificial podría transformar la educación… si las universidades responden correctamente</a>«, porque demasiadas instituciones están <a href="https://www.enriquedans.com/2025/10/evaluar-con-inteligencia-y-no-con-detectores.html" target="_blank" rel="noreferrer noopener">obsesionadas con la vigilancia</a> en lugar de rediseñar el aprendizaje para un mundo en el que la externalización cognitiva es ya la norma. Si los estudiantes pueden generar trabajos aceptables sin enfrentarse a las ideas, lo que realmente se evalúa no es el aprendizaje, sino la obediencia.</p>



<p></p>



<h3 class="wp-block-heading"><strong>La paradoja de la era de la inteligencia artificial</strong></h3>



<p>Aquí está la paradoja que mucha gente aún no ha entendido: las personas que más se beneficiarán de la inteligencia artificial no serán las que la usen para todo.</p>



<p>Serán las que sepan cuándo no usarla.</p>



<p>No es una defensa romántica del pensamiento artesanal. Es un argumento práctico sobre el apalancamiento. Las personas con buen juicio, conocimiento sólido de su dominio y escepticismo disciplinado pueden usar la inteligencia artificial para avanzar más rápido sin renunciar a la autoría. Pueden cuestionar resultados, contrastar supuestos, comparar alternativas y detectar cuándo la máquina está simplificando en exceso o inventando certezas. Quienes no tienen esos hábitos son mucho más propensos a aceptar la primera respuesta plausible y seguir adelante.</p>



<p>La literatura reciente en management empieza a converger en esta idea. Harvard Business Review ha argumentado que <a href="https://hbr.org/2025/10/when-working-with-ai-act-like-a-decision-maker-not-a-tool-user" target="_blank" rel="noreferrer noopener">trabajar bien con inteligencia artificial exige actuar como quien toma decisiones, no como un usuario pasivo de herramientas</a>. Otro artículo reciente advierte de que, si la inteligencia artificial se encarga del trabajo inicial más confuso, precisamente el que ayuda a desarrollar criterio, <a href="https://hbr.org/2026/02/how-do-workers-develop-good-judgment-in-the-ai-era" target="_blank" rel="noreferrer noopener">las organizaciones pueden acabar con personas capaces de producir resultados sin haber construido nunca juicio</a>. Incluso investigaciones sobre creatividad citadas por HBR apuntan en la misma dirección: <a href="https://hbr.org/2026/01/why-ai-boosts-creativity-for-some-employees-but-not-others" target="_blank" rel="noreferrer noopener">la inteligencia artificial tiende a beneficiar más a quienes tienen buena metacognición que a quienes no la tienen</a>.</p>



<p>Por eso este es un problema cultural, no solo tecnológico. No estamos simplemente incorporando una herramienta nueva a hábitos existentes. Estamos renegociando la relación entre esfuerzo y autoría, entre comodidad y competencia, entre expresión y comprensión.</p>



<p></p>



<h3 class="wp-block-heading"><strong>De qué deberíamos preocuparnos realmente</strong></h3>



<p>El error más común en el debate público sobre la inteligencia artificial es oscilar entre dos caricaturas. Una dice que la inteligencia artificial nos volverá estúpidos. La otra que simplemente nos liberará para tareas de mayor nivel. La realidad es más compleja, y más interesante.</p>



<p>Bien utilizada, la inteligencia artificial puede reducir tareas tediosas y abrir espacio para pensar mejor. Mal utilizada, puede erosionar los hábitos que hacen posible pensar mejor.</p>



<p>Por eso la respuesta correcta no es ni la prohibición ni la rendición. Es el diseño. Necesitamos sistemas educativos, normas laborales y decisiones de producto que preserven el juicio humano en lugar de rodearlo. Necesitamos interfaces que fomenten la verificación, la reflexión y la comparación en lugar de empujar a la aceptación pasiva. Necesitamos dejar de considerar cualquier reducción del esfuerzo mental como progreso.</p>



<p>Porque no toda fricción es desperdicio. Parte de esa fricción es precisamente donde nace la comprensión.</p>



<p>Y ese es el error central detrás de gran parte del entusiasmo actual por la inteligencia artificial. Estamos midiendo velocidad, comodidad y volumen mientras ignoramos una pregunta mucho más difícil: ¿<strong>qué tipo de mente nos están ayudando a construir estos sistemas</strong>?</p>



<p>Esa es la pregunta que debería definir esta fase de la era de la inteligencia artificial: no si las máquinas pueden pensar como nosotros, sino si, al apoyarnos en ellas sin cuidado, podemos acabar dejando de pensar como nosotros mismos.</p>



<p><strong>El futuro no pertenecerá a quienes más usen la inteligencia artificial. Pertenecerá a quienes sepan cuándo no usarla</strong>. </p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>(This article was <a href="https://www.fastcompany.com/91513823/ai-is-creating-the-first-generation-of-cognitively-outsourced-humans">previously published on Fast Company</a>)</em></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/04/la-primera-generacion-de-humanos-dotados-de-externalizacion-cognitiva.html/feed</wfw:commentRss>
			<slash:comments>24</slash:comments>
		
		
			</item>
		<item>
		<title>Hablar de soberanía digital es fácil&#8230; construirla no tanto</title>
		<link>https://www.enriquedans.com/2026/04/hablar-de-soberania-digital-es-facil-construirla-no-tanto.html</link>
					<comments>https://www.enriquedans.com/2026/04/hablar-de-soberania-digital-es-facil-construirla-no-tanto.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Wed, 01 Apr 2026 08:38:46 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[cloud companies]]></category>
		<category><![CDATA[cloud computing]]></category>
		<category><![CDATA[Europe]]></category>
		<category><![CDATA[European Union]]></category>
		<category><![CDATA[Invertia]]></category>
		<category><![CDATA[regulation]]></category>
		<category><![CDATA[sovereignty]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57585</guid>

					<description><![CDATA[Mi columna de esta semana en el diario económico de El Español, Invertia, se titula «Europa quiere soberanía tecnológica&#8230; pero sigue alquilando su futuro» (pdf), y trata sobre una idea que lleva ya tiempo circulando por Bruselas, pero que en los últimos meses ha dejado de ser una simple aspiración retórica para convertirse en una  <a href="https://www.enriquedans.com/2026/04/hablar-de-soberania-digital-es-facil-construirla-no-tanto.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-large is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/03/European-sovereignity-Dall·E.jpg"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/03/European-sovereignity-Dall·E-1024x1024.jpg" alt="IMAGE: A woman stands on a crumbling balcony with an EU flag, looking at distant cloud data centers owned by major tech companies, connected by cables across a glowing digital landscape " class="wp-image-57586" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/03/European-sovereignity-Dall·E-1024x1024.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/03/European-sovereignity-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/03/European-sovereignity-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/03/European-sovereignity-Dall·E-768x768.jpg 768w, https://www.enriquedans.com/wp-content/uploads/2026/03/European-sovereignity-Dall·E.jpg 1254w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Mi columna de esta semana en el diario económico de El Español, Invertia, se titula «<a href="https://www.elespanol.com/invertia/opinion/20260401/europa-quiere-soberania-tecnologica-sigue-alquilando-futuro/1003744190167_13.html" target="_blank" rel="noreferrer noopener">Europa quiere soberanía tecnológica&#8230; pero sigue alquilando su futuro</a>» (<a href="https://www.enriquedans.com/wp-content/uploads/2026/03/Europa-quiere-soberania-tecnologica…-pero-sigue-alquilando-su-futuro.pdf" target="_blank" rel="noreferrer noopener">pdf</a>), y trata sobre una idea que lleva ya tiempo circulando por Bruselas, pero que en los últimos meses ha dejado de ser una simple aspiración retórica para convertirse en <a href="https://foreignpolicy.com/2026/02/27/europe-technology-digital-sovereignty-eu-decoupling-us/" target="_blank" rel="noreferrer noopener">una urgencia política, económica y geoestratégica</a>: la de que <a href="https://www.ft.com/partnercontent/sopra-steria/invisible-wars/seeking-digital-sovereignty.html" target="_blank" rel="noreferrer noopener">Europa no puede seguir apoyando su economía digital, su administración pública y una parte creciente de sus infraestructuras críticas sobre tecnologías, plataformas y nubes que no controla</a>. No estamos hablando ya simplemente de protección de datos, de multas a las Big Tech o de discusiones regulatorias más o menos sofisticadas, sino de una cuestión bastante más básica: <a href="https://shapingeurope.eu/europes-path-to-digital-sovereignty/" target="_blank" rel="noreferrer noopener">quién tiene realmente la capacidad de decidir sobre las herramientas de las que depende una sociedad cuando esas herramientas dejan de ser accesorios y se convierten en elementos estructurales</a>.</p>



<p>Durante mucho tiempo, Europa se permitió el lujo de pensar que bastaba con regular. Que mientras Estados Unidos innovaba y China escalaba, la Unión Europea podía reservarse el papel de árbitro moral, redactando normas, imponiendo límites y reclamando un espacio digital más justo, más transparente y más respetuoso con los derechos de los ciudadanos. Y en parte lo ha hecho: el DSA y el DMA han intentado poner coto al poder de las plataformas, mientras proyectos como Gaia-X o el Digital Europe Programme buscan construir una infraestructura más alineada con los intereses europeos. El problema es que regular no equivale a competir, y que poner reglas a las tecnologías de otros no te convierte automáticamente en soberano.</p>



<p>La dimensión real del problema aparece cuando uno mira la capa menos visible, pero mucho más decisiva, de la economía digital: la infraestructura. Según el especial de Financial Times con Sopra Steria, las compañías estadounidenses controlan en torno al 70% del mercado cloud europeo, una cifra que explica bastante bien hasta qué punto la supuesta autonomía digital del continente tiene todavía mucho de desiderátum. Cuando una parte tan importante del almacenamiento, del procesamiento y de la capacidad de cómputo depende de proveedores sujetos a legislación extranjera, hablar de soberanía sin tocar esa dependencia suena, como poco, voluntarista.</p>



<p>Lo interesante es que esa preocupación ya no se queda en el plano institucional. Está empezando a permear a empresas, administraciones y responsables políticos de una manera mucho más tangible. Un artículo reciente en Wired explicaba cómo <a href="https://www.wired.com/story/trump-us-cloud-services-europe/" target="_blank" rel="noreferrer noopener">varios países europeos y un número creciente de organizaciones están empezando a replantearse su dependencia de Amazon, Microsoft o Google por miedo a que esa dependencia termine volviéndose contra ellos</a>, y citaba incluso el caso de la Cámara de Representantes neerlandesa aprobando mociones para reducir esa exposición. En paralelo, <a href="https://stories.byburk.net/more-eu-countries-ditching-american-cloud-services-24db30691117" target="_blank" rel="noreferrer noopener">cada vez más países europeos empiezan a considerar que seguir externalizando su soberanía digital a compañías estadounidenses puede salir demasiado caro, no solo en dinero, sino en capacidad de maniobra</a>.</p>



<p>Ese movimiento no significa, ni debería significar, autarquía digital. Sería absurdo pensar que Europa puede o debe desconectarse por completo de Estados Unidos, del mismo modo que sería ingenuo suponer que puede construir de la noche a la mañana sustitutos plenamente competitivos para todo. El punto no es ese. El desacoplamiento tecnológico europeo ya ha comenzado, pero será largo, costoso y exigirá un grado de coordinación entre estados miembros que la Unión no siempre ha demostrado tener. La cuestión no es si Europa puede vivir sin tecnología estadounidense, sino si puede permitirse seguir dependiendo de ella en ámbitos estratégicos sin desarrollar al mismo tiempo alternativas propias, interoperables y razonablemente competitivas.</p>



<p>Y ahí es donde la conversación se vuelve incómoda, porque la soberanía tecnológica no es gratis. CEPA estimaba a finales del año pasado que <a href="https://cepa.org/article/digital-sovereignty-can-europe-afford-it/" target="_blank" rel="noreferrer noopener">una estrategia integral de sustitución y autonomía digital podría costar del orden de 3.6 billones de euros</a>, y otros análisis del mismo <em>think tank</em> elevan la factura potencial a <a href="https://cepa.org/article/one-tech-policy-battle-after-another/" target="_blank" rel="noreferrer noopener">una horquilla de entre 3 y 5 billones si se pretendiese reemplazar masivamente tecnología, <em>software</em>, <em>hardware</em> y servicios no europeos</a>. Es decir, la soberanía tecnológica puede ser deseable, pero desde luego no sale barata. Obliga a invertir, a asumir duplicidades, a aceptar ineficiencias temporales y, sobre todo, a entender que depender de otros también tiene un coste, solo que normalmente está oculto… hasta que deja de estarlo. </p>



<p>También resulta revelador que esta discusión esté impulsando un renovado interés por el código abierto, la interoperabilidad y los estándares transparentes. ITPro citaba hace apenas unos días el informe State of Open Source Report 2026 de Perforce, según el cual <a href="https://www.itpro.com/software/open-source/open-source-is-booming-in-europe-as-enterprises-look-to-strengthen-digital-autonomy">el 63% de las organizaciones de la UE y el Reino Unido señalan el riesgo de <em>vendor lock-in</em> como una de las principales razones para apostar por soluciones <em>open source</em></a>, frente al 51% en Estados Unidos. No es una diferencia menor. Es la señal de que la autonomía empieza a entenderse no solo como una cuestión de bandera o de discurso político, sino como una arquitectura tecnológica menos cautiva, más auditable y más compatible con la idea europea de control, resiliencia y pluralidad. </p>



<p>En el fondo, de eso trata mi columna: de señalar que la soberanía tecnológica europea no puede seguir siendo una consigna bonita para comisarios y estrategas, sino que tiene que empezar a traducirse en decisiones concretas, en prioridades industriales y en una cierta madurez geopolítica. Porque Europa puede seguir creyendo que su papel consiste en civilizar a las plataformas de otros mientras alquila su infraestructura, su computación y buena parte de su futuro digital, o puede asumir de una vez que la dependencia tecnológica, en un mundo inestable, no es una comodidad: es una vulnerabilidad. Y las vulnerabilidades, cuando el contexto se complica, acaban siempre pasando factura. </p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is openly available in English on Medium, «<a href="https://medium.com/enrique-dans/who-holds-the-cables-to-europes-tech-future-f5d54da8440e?sk=1bfaca16afd152ce186545d52ebf78e1" data-type="link" data-id="https://medium.com/enrique-dans/who-holds-the-cables-to-europes-tech-future-f5d54da8440e?sk=1bfaca16afd152ce186545d52ebf78e1" target="_blank" rel="noreferrer noopener">Who holds the cables to Europe’s tech future</a>?»</em> </p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/04/hablar-de-soberania-digital-es-facil-construirla-no-tanto.html/feed</wfw:commentRss>
			<slash:comments>18</slash:comments>
		
		
			</item>
		<item>
		<title>Un depredador no se arregla: hay que desmontarlo</title>
		<link>https://www.enriquedans.com/2026/03/un-depredador-no-se-arregla-hay-que-desmontarlo.html</link>
					<comments>https://www.enriquedans.com/2026/03/un-depredador-no-se-arregla-hay-que-desmontarlo.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Tue, 31 Mar 2026 08:01:28 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[advertising]]></category>
		<category><![CDATA[Meta]]></category>
		<category><![CDATA[predatory]]></category>
		<category><![CDATA[social media]]></category>
		<category><![CDATA[social networks]]></category>
		<category><![CDATA[TikTok]]></category>
		<category><![CDATA[YouTube]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57578</guid>

					<description><![CDATA[La tentación de estos días consiste en celebrar las sentencias contra Meta y YouTube como si fuesen el principio de una reforma. Como si bastase con poner unas multitas, limar unas cuantas funciones, poner un par de advertencias, suavizar el scroll infinito, moderar mejor las recomendaciones y confiar en que, con un poco de presión  <a href="https://www.enriquedans.com/2026/03/un-depredador-no-se-arregla-hay-que-desmontarlo.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-full is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/03/Predatory-social-media-Dall·E.jpg"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/03/Predatory-social-media-Dall·E.jpg" alt="IMAGE: A teenager is trapped by social media logos hanging like fishhooks over a glowing phone " class="wp-image-57579" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/03/Predatory-social-media-Dall·E.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/03/Predatory-social-media-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/03/Predatory-social-media-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/03/Predatory-social-media-Dall·E-768x768.jpg 768w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>La tentación de estos días consiste en celebrar las sentencias contra Meta y YouTube como si fuesen el principio de una reforma. Como si bastase con poner unas multitas, limar unas cuantas funciones, poner un par de advertencias, suavizar el <em>scroll</em> infinito, moderar mejor las recomendaciones y confiar en que, con un poco de presión judicial, esas plataformas puedan convertirse en algo razonable. </p>



<p>Pero esa lectura parte de un error fundamental: no estamos ante herramientas sanas que se hayan «desviado» y haya que «corregir», sino ante productos concebidos desde el principio para capturar atención, prolongar permanencia, extraer datos y convertir todo ello en dinero mediante publicidad hipersegmentada. Cuando un jurado concluye, <a href="https://apnews.com/article/social-media-addiction-trial-la-5e54075023d837ccdc76c4ca512e925d" target="_blank" rel="noreferrer noopener">como ha ocurrido en Los Angeles</a>, que <a href="https://www.theverge.com/policy/903006/meta-new-mexico-los-angeles-child-safety-trial-impact" target="_blank" rel="noreferrer noopener">Instagram y YouTube fueron diseñadas para «enganchar» a menores</a> y que <a href="https://www.nytimes.com/2026/03/25/technology/social-media-trial-verdict.html" target="_blank" rel="noreferrer noopener">esa negligencia fue un factor sustancial en el daño sufrido por una usuaria</a>, lo que queda en evidencia no es un fallo corregible, sino la lógica íntima del sistema. </p>



<p>El caso de Nuevo México refuerza todavía más esa idea. Allí no se discutió simplemente una mala moderación o un accidente desafortunado, sino la combinación de prácticas engañosas, medidas de seguridad deliberadamente insuficientes y una cultura empresarial dispuesta a seguir adelante aunque el coste social fuese conocido y evidente. El propio Departamento de Justicia de Nuevo México presentó la victoria como <a href="https://nmdoj.gov/press-release/new-mexico-department-of-justice-wins-landmark-verdict-against-meta/" target="_blank" rel="noreferrer noopener">la primera vez que un estado logra imponerse en juicio a una gran tecnológica</a> por <a href="https://apnews.com/article/meta-facebook-new-mexico-trial-28eabd8ec5f58c1d1ecddc21bb107de7">poner en peligro a menores</a> y <a href="https://www.theverge.com/policy/899910/meta-new-mexico-jury-verdict" target="_blank" rel="noreferrer noopener">engañar a los usuarios sobre la seguridad de sus plataformas</a>. La cifra de la sanción importa, por supuesto, pero importa más la constatación de que el problema no es periférico: está en el centro del modelo. </p>



<p>Por eso me parece profundamente ingenuo hablar de «reconducir» a estas compañías. No se reconduce lo que depende estructuralmente de una patología estructural. La recomendación de las autoridades sanitarias de los Estados Unidos es cristalina al señalar que <a href="https://www.hhs.gov/surgeongeneral/reports-and-publications/youth-mental-health/social-media/index.html" target="_blank" rel="noreferrer noopener">no puede concluirse que las redes sociales sean suficientemente seguras para niños y adolescentes</a>, y recuerda además que pasar más de tres horas diarias en ellas duplica el riesgo de problemas de salud mental. La APA ha advertido también que <a href="https://www.apa.org/topics/social-media-internet/health-advisory-adolescent-social-media-use" data-type="link" data-id="https://www.apa.org/topics/social-media-internet/health-advisory-adolescent-social-media-use" target="_blank" rel="noreferrer noopener">funciones como el contenido recomendado, los límites temporales inexistentes o el <em>endless scrolling</em> no son neutras y no deberían tratarse igual cuando afectan a menores</a>. Cuando las principales autoridades sanitarias y psicológicas llevan tiempo diciendo que el entorno es inseguro, seguir defendiendo que estamos ante <a href="https://www.nytimes.com/2026/03/26/opinion/big-tech-meta-youtube-lawsuit.html" target="_blank" rel="noreferrer noopener">simples «excesos»</a> corregibles roza la negación. Tratarlo como un problema exclusivo de los menores es otra barbaridad: toda la sociedad, menores o mayores, está afectada de este problema, y sus efectos van desde los problemas psicológicos a la manipulación electoral o social profunda.</p>



<p>A estas alturas, además, nadie puede fingir que desconoce cómo funciona la máquina. La FTC<br />describió en 2024 <a href="https://www.ftc.gov/news-events/news/press-releases/2024/09/ftc-staff-report-finds-large-social-media-video-streaming-companies-have-engaged-vast-surveillance" target="_blank" rel="noreferrer noopener">un ecosistema en el que las grandes plataformas de redes sociales y vídeo recolectan cantidades enormes de datos personales y los monetizan por miles de millones de dólares al año</a>, con <a href="https://www.ftc.gov/reports/look-behind-screens-examining-data-practices-social-media-video-streaming-services" target="_blank" rel="noreferrer noopener">controles laxos de privacidad e insuficientes salvaguardas para niños y adolescentes</a>. Es decir: la materia prima del negocio no es la comunicación, ni la comunidad, ni la creatividad. Es la vigilancia comercial. Y en un sistema de vigilancia comercial, todo incentivo apunta en la misma dirección: más fricción eliminada, más estímulos, más personalización, más tiempo de uso, más dependencia, más datos, más precisión publicitaria. Pretender que de esa arquitectura emerja espontáneamente una esfera pública saludable es como esperar lecciones de civismo de un casino diseñado por expertos en adicción. </p>



<p>Algunos juristas y comentaristas insisten en que este giro es peligroso porque <a href="https://www.theverge.com/policy/867830/social-media-trials-product-liability-school-districts" target="_blank" rel="noreferrer noopener">erosiona</a> la <a href="https://en.wikipedia.org/wiki/Section_230" target="_blank" rel="noreferrer noopener">Section 230</a>, una ya tristemente famosa pieza histórica de la arquitectura de internet. Entiendo el argumento, y <a href="https://www.techdirt.com/2026/03/26/everyone-cheering-the-social-media-addiction-verdicts-against-meta-should-understand-what-theyre-actually-cheering-for/" target="_blank" rel="noreferrer noopener">Mike Masnick en Techdirt lo formula con claridad</a>: si se diluye la frontera entre contenido y diseño, el riesgo es abrir la puerta a responsabilidades expansivas que dañen a servicios mucho más pequeños o incentiven decisiones indeseables, como renunciar al cifrado. El problema es que ese razonamiento parte de una abstracción jurídica que hoy ya no describe la realidad económica del sector. No estamos hablando de foros modestos, de servicios comunitarios o de herramientas neutras de publicación, sino de conglomerados descomunales, de las mayores empresas del mundo, que han industrializado la manipulación conductual sobre la base de perfiles masivos, optimización algorítmica y explotación comercial de vulnerabilidades cognitivas. Defender sin matices la protección pensada para un internet radicalmente distinto y aplicarla a este modelo de dañina depredación publicitaria no es defender internet: es blindar su degradación.</p>



<p>Eso no significa que todo deba valer, ni que cualquier doctrina de responsabilidad sea automáticamente buena. El ejemplo del cifrado de extremo a extremo es revelador. En la práctica, la presión regulatoria y judicial ya ha contribuido a que Meta retire el cifrado en los mensajes directos de Instagram, bajo el absurdo e infantil argumento de que «<a href="https://www.theverge.com/tech/894752/instagram-end-to-end-encryption" target="_blank" rel="noreferrer noopener">muy poca gente lo usaba</a>«. Ese desenlace es inquietante porque muestra que, cuando se legisla o se litiga mal, una empresa puede sacrificar privacidad sin tocar el corazón de su modelo. Pero precisamente ahí está la lección importante: si el castigo acaba suprimiendo protecciones útiles mientras se preserva intacta la maquinaria de extracción de atención y datos, entonces no estamos reformando nada. <a href="https://www.theverge.com/policy/903006/meta-new-mexico-los-angeles-child-safety-trial-impact" target="_blank" rel="noreferrer noopener">Estamos desplazando el daño</a>. El objetivo no puede ser dejarles seguir siendo adictivos con menos privacidad o con una cosmética de seguridad más agresiva. El objetivo tiene que ser otro: desmontar el modelo que hace rentable esa adicción.</p>



<p>La cuestión, por tanto, no es cómo hacer «un poco menos tóxicas» a Meta, YouTube, TikTok y compañía. La cuestión es si estamos por fin dispuestos a admitir que el problema reside en la propia idea de <a href="https://www.ftc.gov/legal-library/browse/federal-register-notices/commercial-surveillance-data-security-rulemaking" data-type="link" data-id="https://www.ftc.gov/legal-library/browse/federal-register-notices/commercial-surveillance-data-security-rulemaking" target="_blank" rel="noreferrer noopener">financiar la mediación social a través de publicidad hipersegmentada basada en vigilancia</a>. Mientras ese sea el motor, cada innovación irá dirigida a conocer mejor al usuario, a retenerlo más tiempo, a intensificar su respuesta emocional y a convertir su comportamiento en inventario comercial. No hay parche que corrija eso. <a href="https://www.commerce.senate.gov/services/files/FC8A558E-824E-4914-BEDB-3A7B1190BD49" target="_blank" rel="noreferrer noopener">No hay rediseño amable que convierta en benigno un sistema nacido para explotar compulsiones</a>. </p>



<p>Y no, no deberíamos sentirnos obligados a salvar a empresas construidas sobre una lógica tan enferma sólo porque, en otra época, la Section 230 ayudó a proteger un internet mucho más abierto y plural. Lo que toca ahora es otra cosa: enviar la publicidad ultra-personalizada al basurero de la historia, exigir responsabilidades y trocear el poder de quienes vivieron de ella. A partir de ahí, empezar a reconstruir espacios digitales que no necesiten hacer enfermar a sus usuarios o poner en peligro a toda la sociedad para ser rentables. </p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is openly available in English on Medium, «<a href="https://medium.com/enrique-dans/lets-stop-pretending-social-media-is-broken-it-s-working-perfectly-cec938cb4c4d?sk=b3df118774be0689d42c033759a8ca0e" target="_blank" rel="noreferrer noopener">Let’s stop pretending social media is broken — it’s working perfectly</a>» </em></p>



<p></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/03/un-depredador-no-se-arregla-hay-que-desmontarlo.html/feed</wfw:commentRss>
			<slash:comments>15</slash:comments>
		
		
			</item>
		<item>
		<title>Sora no murió: OpenAI la ejecutó para salvarse a sí misma</title>
		<link>https://www.enriquedans.com/2026/03/sora-no-murio-openai-la-ejecuto-para-salvarse-a-si-misma.html</link>
					<comments>https://www.enriquedans.com/2026/03/sora-no-murio-openai-la-ejecuto-para-salvarse-a-si-misma.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Mon, 30 Mar 2026 08:41:18 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[deepfakes]]></category>
		<category><![CDATA[fake news]]></category>
		<category><![CDATA[generative]]></category>
		<category><![CDATA[Google]]></category>
		<category><![CDATA[Nano Banana]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[Sora]]></category>
		<category><![CDATA[video]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57566</guid>

					<description><![CDATA[La cancelación de Sora no parece el típico cierre de producto fallido, sino algo bastante más revelador: una renuncia estratégica. OpenAI no ha apagado una aplicación marginal, sino una de sus apuestas más visibles, más virales y, en teoría, más alineadas con el imaginario popular de la inteligencia artificial generativa. Y lo ha hecho apenas  <a href="https://www.enriquedans.com/2026/03/sora-no-murio-openai-la-ejecuto-para-salvarse-a-si-misma.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-full is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/03/Sora-vs-Nan-Banana-Dall·E.jpg"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/03/Sora-vs-Nan-Banana-Dall·E.jpg" alt="IMAGE: Split image showing OpenAI’s Sora logo burning and breaking apart on one side, while Google’s colorful logo and a cheerful banana mascot glow on the other, symbolizing a shift in AI video dominance " class="wp-image-57567" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/03/Sora-vs-Nan-Banana-Dall·E.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/03/Sora-vs-Nan-Banana-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/03/Sora-vs-Nan-Banana-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/03/Sora-vs-Nan-Banana-Dall·E-768x768.jpg 768w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>La <a href="https://www.reuters.com/technology/openai-set-discontinue-sora-video-platform-app-wsj-reports-2026-03-24/" target="_blank" rel="noreferrer noopener">cancelación de Sora</a> no parece el típico cierre de producto fallido, sino algo bastante más revelador: <a href="https://www.wsj.com/tech/ai/openai-set-to-discontinue-sora-video-platform-app-a82a9e4e" target="_blank" rel="noreferrer noopener">una renuncia estratégica</a>. OpenAI no ha apagado una aplicación marginal, sino una de sus apuestas más visibles, más virales y, en teoría, más alineadas con el imaginario popular de la inteligencia artificial generativa. Y lo ha hecho apenas unos meses después de <a href="https://openai.com/index/disney-sora-agreement/" target="_blank" rel="noreferrer noopener">presentar a bombo y platillo un acuerdo con Disney que incluía una licencia de tres años, más de doscientos personajes y una inversión prevista de mil millones de dólares</a>, aunque <a href="https://gizmodo.com/disney-openai-sora-deal-dead-2000737676" data-type="link" data-id="https://gizmodo.com/disney-openai-sora-deal-dead-2000737676" target="_blank" rel="noreferrer noopener">condicionada al cierre definitivo de la operación</a>. En el <a href="https://openai.com/index/disney-sora-agreement/" target="_blank" rel="noreferrer noopener">anuncio conjunto de diciembre</a>, ambas compañías hablaban de <a href="https://www.abc.net.au/news/2026-03-25/openai-pulls-plug-on-viral-ai-video-app-sora/106495244">«uso responsable», de protección a los creadores y de nuevas experiencias para Disney+</a>. Hoy, todo aquello suena más a folleto corporativo que a estrategia real.</p>



<p>Lo verdaderamente interesante no es que Sora desaparezca, sino que OpenAI haya decidido hacerlo sabiendo perfectamente lo que dejaba sobre la mesa. Según varias reconstrucciones publicadas estos días, <a href="https://www.channelnewsasia.com/world/openai-drops-sora-video-artificial-intelligence-sora-6015576" target="_blank" rel="noreferrer noopener">Disney se enteró prácticamente de improviso</a>: equipos de ambas compañías seguían trabajando en un proyecto vinculado a Sora y, apenas media hora después de una reunión, <a href="https://insideretail.us/a-big-rug-pull-disney-stunned-as-openai-drops-sora-video-tool/" target="_blank" rel="noreferrer noopener">llegó la noticia de que la plataforma se cerraba</a>. Varias fuentes añadieron, además, que <a href="https://variety.com/2026/digital/news/why-openai-disney-ended-sora-deal-bob-iger-1236698901/" target="_blank" rel="noreferrer noopener">la transacción nunca llegó a cerrarse y que no llegó a haber intercambio de dinero</a>. Ese detalle es importante, porque convierte el episodio en <a href="https://deadline.com/2026/03/disney-openai-death-hollywood-vulnerable-1236765266/" target="_blank" rel="noreferrer noopener">algo más grave que una simple rectificación comercial</a>: sugiere <a href="https://www.abc.net.au/news/2026-03-25/openai-pulls-plug-on-viral-ai-video-app-sora/106495244" target="_blank" rel="noreferrer noopener">una compañía operando bajo una lógica de urgencia, no de visión</a>.</p>



<p>¿Por qué hacerlo entonces? La primera respuesta es económica, y probablemente la más obvia: Sora consumía una cantidad ingente de computación para un retorno escaso. The Verge lo resume con bastante claridad: <a href="https://www.theverge.com/ai-artificial-intelligence/902368/openai-sora-dead-ai-video-generation-competition" target="_blank" rel="noreferrer noopener">el producto arrancó con fuerza, pero perdió tracción rápidamente, mientras devoraba recursos en un momento en el que OpenAI necesita monetizar, reducir pérdidas y demostrar disciplina ante inversores cada vez menos pacientes</a>. Los datos de descargas que cita el medio son elocuentes: tras un pico inicial, el interés fue cayendo mes a mes. Axios añade además otro elemento decisivo: <a href="https://www.axios.com/2026/03/24/openai-discontinue-sora-video-app" target="_blank" rel="noreferrer noopener">OpenAI está priorizando capital, chips y productos empresariales frente a apuestas experimentales</a>. Dicho de otro modo, Sora era espectacular, pero no defendible en una hoja de cálculo. Era, básicamente, <a href="https://www.fastcompany.com/91516193/openai-sora-discontinued" target="_blank" rel="noreferrer noopener">una frivolidad</a>. </p>



<p>La segunda razón tiene que ver con la competencia, y aquí es donde la historia se vuelve casi irónica. Mientras OpenAI cerraba Sora, Google consolidaba un ecosistema visual muchísimo más coherente. <a href="https://blog.google/innovation-and-ai/technology/ai/nano-banana-2/" target="_blank" rel="noreferrer noopener">Nano Banana 2</a> se ha convertido en la puerta de entrada para la generación y edición de imágenes dentro de Gemini, Search y otros productos. <a href="https://blog.google/innovation-and-ai/models-and-research/google-labs/flow-updates-february-2026/" target="_blank" rel="noreferrer noopener">Flow</a> ha evolucionado desde una herramienta de vídeo a un estudio creativo completo. Y <a href="https://blog.google/innovation-and-ai/technology/ai/veo-3-1-ingredients-to-video/" target="_blank" rel="noreferrer noopener">Veo 3.1</a> permite ya flujos de creación con consistencia de personajes, control narrativo y salida vertical pensada para formatos sociales. Incluso <a href="https://techcrunch.com/2026/02/26/google-launches-nano-banana-2-model-with-faster-image-generation/" target="_blank" rel="noreferrer noopener">TechCrunch destacaba que Nano Banana 2 pasa a ser el modelo por defecto de imagen dentro de Flow</a>. Es decir, Google no vende simplemente una <em>app</em> viral aislada: vende una cadena de producción. Y eso, en este mercado, vale mucho más. </p>



<p>De hecho, el error de OpenAI pudo haber sido precisamente ese: confundir una demo fascinante con un negocio sostenible. Sora era perfecta para titulares, vídeos sorprendentes y conversaciones en redes, pero eso no garantiza una ventaja competitiva duradera. En mercados donde la tecnología mejora cada pocas semanas, la viralidad dura lo que tarda el competidor en igualarte y superarte. Si, además, tu producto exige un coste computacional brutal, presenta riesgos de copyright, abre la puerta a deepfakes y no encaja con la línea de ingresos que ahora quieren priorizar, el resultado es bastante previsible. AP<br />subrayaba precisamente <a href="https://apnews.com/article/openai-closes-sora-ai-c60de960536923f33edc04b92ddbe1cd" target="_blank" rel="noreferrer noopener">el peso de las preocupaciones por <em>deepfakes</em>, desinformación e imágenes no consentidas</a>, mientras otras coberturas recordaban la <a href="https://www.euronews.com/next/2026/03/25/openai-to-abruptly-close-sora-video-app-following-backlash-over-deepfakes-and-ai-slop" target="_blank" rel="noreferrer noopener">incomodidad de sindicatos, actores y titulares de derechos</a>. El problema no era solo técnico: era también jurídico, reputacional y político.</p>



<p>Por eso la hipótesis más plausible no es que OpenAI «dejara de creer» en el vídeo generativo. Más bien al contrario: seguramente cree tanto en él que ha decidido no seguir explotándolo como producto de consumo masivo. La pista está en su propio mensaje sobre el futuro del equipo de Sora, reorientado hacia investigación en simulación del mundo y robótica. Eso encaja mucho mejor con la narrativa que OpenAI lleva meses construyendo: menos experimentos vistosos, más infraestructura, más agentes, más empresa, más defensa ante un eventual mercado bursátil. Sora no desaparece porque el vídeo no importe, sino porque el vídeo, tal y como estaba empaquetado, distraía recursos de objetivos que la dirección considera más rentables y más estratégicos. </p>



<p>Y ahí aparece la gran paradoja del caso. OpenAI tenía algo que pocas compañías poseen: atención cultural. Sora había conseguido convertirse en sinónimo popular de «vídeo generado por IA», del mismo modo que ChatGPT se convirtió en sinónimo de <em>chatbot</em>. Liquidar esa marca es una decisión drástica. Hacerlo justo cuando Google ha aprendido a integrar generación visual, edición, distribución y escalado dentro de un ecosistema más amplio parece casi una cesión voluntaria del terreno. No porque Google tenga necesariamente «el mejor vídeo» en cada métrica, sino porque ofrece la experiencia más completa, menos fragmentada y más fácil de monetizar dentro de un <em>stack</em> coherente. Mientras OpenAI desmonta un producto, Google convierte el suyo en infraestructura creativa. </p>



<p>También cabe otra lectura, más incómoda: Sora podía haberse convertido en un foco de riesgo existencial para la propia OpenAI. No por pérdidas económicas aisladas, sino porque reunía demasiados problemas en un solo sitio: consumo masivo de GPU, posible uso frívolo por parte de usuarios, conflictos con la propiedad intelectual, tensiones con Hollywood, posibilidad de fraude audiovisual, problemas de manipulación vía <em>fake news</em> y escaso encaje con la futura narrativa financiera de la compañía. El acuerdo con Disney pretendía legitimar el modelo frente a la industria cultural, pero quizá terminó produciendo el efecto contrario: al asociar Sora con personajes icónicos y franquicias globales, elevó todavía más el nivel de escrutinio. Lo que antes era «un juguete viral» se convertía en una pieza sensible del negocio del entretenimiento. Y eso exigía una robustez técnica, legal y reputacional que OpenAI tal vez no estaba en condiciones de garantizar.</p>



<p>Si esa interpretación es correcta, entonces la cancelación de Sora no es un accidente ni una derrota puntual, sino una confesión. OpenAI ha descubierto que no puede ganarlo todo a la vez. No puede ser la empresa de los productos virales, la de los agentes empresariales, la de la robótica, la de la infraestructura, la de la monetización acelerada y la del gran pacto con Hollywood sin empezar a romperse por algún lado. Sora era brillante, sí, pero probablemente también era la prueba más visible de esa sobreextensión. </p>



<p>En ese sentido, la pregunta no es por qué OpenAI dejó caer Sora pese al dinero de Disney. La pregunta real es qué vio OpenAI al mirar sus cuentas, sus GPUs, sus riesgos regulatorios y la velocidad de Google, para concluir que incluso mil millones de dólares ya no compensaban para mantener viva la ilusión. Y esa respuesta, precisamente porque no se ha explicado del todo, es lo que convierte este cierre en algo tan viral, tan intrigante y tan significativo. No estamos viendo la muerte de una <em>app</em>. Estamos viendo a una de las compañías más influyentes del sector admitir, sin decirlo abiertamente, que el mercado de la inteligencia artificial generativa ya no premia al que deslumbra más, sino al que mejor elige qué abandonar, qué batallas pelear y cuáles no.</p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is openly available in English on Medium, «<a href="https://medium.com/enrique-dans/by-closing-down-sora-openai-was-not-only-admitting-defeat-it-was-also-making-a-strategic-retreat-f918352aef7c?sk=10e43d34e11ab291f293fbfc4dcaa45c" data-type="link" data-id="https://medium.com/enrique-dans/by-closing-down-sora-openai-was-not-only-admitting-defeat-it-was-also-making-a-strategic-retreat-f918352aef7c?sk=10e43d34e11ab291f293fbfc4dcaa45c" target="_blank" rel="noreferrer noopener">By closing down Sora, OpenAI was not only admitting defeat: it was also making a strategic retreat</a>«</em></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/03/sora-no-murio-openai-la-ejecuto-para-salvarse-a-si-misma.html/feed</wfw:commentRss>
			<slash:comments>8</slash:comments>
		
		
			</item>
	</channel>
</rss>
