<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Enrique Dans</title>
	<atom:link href="https://www.enriquedans.com/feed" rel="self" type="application/rss+xml" />
	<link>https://www.enriquedans.com</link>
	<description>Investigación y opinión acerca de los Sistemas y Tecnologías de Información</description>
	<lastBuildDate>Sun, 17 May 2026 10:02:47 +0000</lastBuildDate>
	<language>es</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>
	<item>
		<title>Tu cuenta corriente como prompt</title>
		<link>https://www.enriquedans.com/2026/05/tu-cuenta-corriente-como-prompt.html</link>
					<comments>https://www.enriquedans.com/2026/05/tu-cuenta-corriente-como-prompt.html#respond</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Sun, 17 May 2026 10:02:46 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[advice]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[banking]]></category>
		<category><![CDATA[financial]]></category>
		<category><![CDATA[open banking]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[privacy]]></category>
		<category><![CDATA[trust]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57906</guid>

					<description><![CDATA[OpenAI acaba de cruzar una frontera enormemente interesante: permitir que ChatGPT se conecte a cuentas bancarias, tarjetas, inversiones, deudas y pagos recurrentes para ofrecer análisis financiero personal. La propuesta, por ahora en vista previa para usuarios Pro en Estados Unidos, se apoya en Plaid, una conocida compañía de servicios financieros norteamericana, y promete conexión con  <a href="https://www.enriquedans.com/2026/05/tu-cuenta-corriente-como-prompt.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-large is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/05/Financial-Copilot-Dall·E.jpg"><img fetchpriority="high" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/05/Financial-Copilot-Dall·E-1024x1024.jpg" alt="IMAGE: A man studies a futuristic AI finance assistant on a smartphone screen showing bank accounts, investments, and privacy controls in English, surrounded by glowing financial and cybersecurity symbols " class="wp-image-57907" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/05/Financial-Copilot-Dall·E-1024x1024.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/05/Financial-Copilot-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/05/Financial-Copilot-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/05/Financial-Copilot-Dall·E-768x768.jpg 768w, https://www.enriquedans.com/wp-content/uploads/2026/05/Financial-Copilot-Dall·E.jpg 1254w" sizes="(max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>OpenAI acaba de cruzar una frontera enormemente interesante: <a href="https://techcrunch.com/2026/05/15/openai-launches-chatgpt-for-personal-finance-will-let-you-connect-bank-accounts/" target="_blank" rel="noreferrer noopener">permitir que ChatGPT se conecte a cuentas bancarias, tarjetas, inversiones, deudas y pagos recurrentes para ofrecer análisis financiero personal</a>. La <a href="https://openai.com/index/personal-finance-chatgpt/" target="_blank" rel="noreferrer noopener">propuesta</a>, por ahora en vista previa para usuarios Pro en Estados Unidos, se apoya en <a href="https://plaid.com/how-it-works-for-consumers/" target="_blank" rel="noreferrer noopener">Plaid</a>, una <a href="https://en.wikipedia.org/wiki/Plaid_Inc." target="_blank" rel="noreferrer noopener">conocida compañía de servicios financieros norteamericana</a>, y promete <a href="https://qz.com/chatgpt-personal-finance-tools-bank-accounts-plaid-051526" target="_blank" rel="noreferrer noopener">conexión con más de 12,000 instituciones financieras y asegura que el <em>chatbot</em> no puede ver números completos de cuenta ni mover dinero, sólo interpretar balances, transacciones, inversiones y pasivos</a>.</p>



<p>La utilidad es <a href="https://www.inc.com/ben-sherry/chatgpt-wants-your-bank-account-info-heres-why-you-may-actually-want-to-share-it/91345488" target="_blank" rel="noreferrer noopener">evidente</a>. Un asistente que conoce nuestros gastos reales puede detectar suscripciones olvidadas, patrones de consumo absurdos, desviaciones de presupuesto, riesgos de iliquidez o incoherencias entre objetivos y comportamiento. La banca lleva décadas ofreciéndonos interfaces mediocres, informes incomprensibles y «recomendaciones» que suelen ser ventas disfrazadas. Que una inteligencia artificial sea capaz de convertir todo eso en conversación, contexto y planificación podría ser, para muchos usuarios, muchísimo más útil que la app de su banco.</p>



<p>Pero precisamente por eso el movimiento es inquietante. <a href="https://www.theverge.com/ai-artificial-intelligence/931122/openai-chatgpt-financial-accounts-plaid-connection" target="_blank" rel="noreferrer noopener">La información financiera no es «otro dato» más. Es una radiografía de la vida: dónde comes, dónde duermes, a quién pagas, qué medicamentos compras, qué causas apoyas, qué deudas tienes, cuánto margen real de libertad posees</a>. OpenAI dice que las conversaciones con cuentas conectadas siguen los mismos controles de entrenamiento que el resto de ChatGPT, que los datos sincronizados se borran en un plazo de 30 días al desconectar una cuenta, y que las «memorias financieras» pueden verse y borrarse. Bien. Pero la pregunta relevante no es solo qué promete hoy la compañía, sino qué incentivos tendrá mañana. </p>



<p>Y ahí aparece el elefante de siempre en la habitación: <a href="https://openai.com/index/testing-ads-in-chatgpt/" target="_blank" rel="noreferrer noopener">la publicidad</a>. OpenAI ya está probando anuncios en ChatGPT, inicialmente en planes Free y Go, y asegura que estarán separados de las respuestas, que los anunciantes no verán conversaciones y que no habrá anuncios junto a temas sensibles o regulados. Pero también reconoce que los anuncios pueden seleccionarse teniendo en cuenta el tema de la conversación, chats pasados y memoria. En un asistente financiero, esa frontera deja de ser una cuestión técnica y se convierte en una cuestión existencial: ¿puede una compañía recomendarte una tarjeta, una hipoteca, un seguro o una inversión sin que sospeches que hay una lógica comercial detrás?</p>



<p>El problema no es que OpenAI vaya a comportarse necesariamente mal. El problema es que estamos construyendo sistemas cuya utilidad aumenta cuanto más íntimos son los datos que les damos, y cuyo valor económico aumenta cuanto mejor pueden inferir nuestras intenciones. La personalización financiera puede ser extraordinariamente beneficiosa, pero también puede convertirse en la forma más sofisticada de segmentación comercial jamás inventada. Un buscador sabía lo que querías encontrar. Una red social sabía lo que te hacía reaccionar. Un asistente financiero sabrá lo que puedes pagar.</p>



<p>Tampoco podemos idealizar a los intermediarios. Plaid es una infraestructura muy extendida en <em>fintech</em>, pero su historia no está libre de controversia: <a href="https://www.plaidsettlement.com/" target="_blank" rel="noreferrer noopener">en 2021 aceptó un acuerdo de 58 millones de dólares en una demanda colectiva relacionada con privacidad</a>, minimización de datos y transparencia, aunque el acuerdo no implicaba admisión de culpa. Hoy Plaid ofrece servicios para gestionar conexiones y borrar datos, pero el precedente recuerda algo básico: <a href="https://plaid.com/legal/#consumers" target="_blank" rel="noreferrer noopener">en finanzas, la confianza no se declara, se audita</a>.</p>



<p>La dimensión regulatoria también importa. La <a href="https://www.consumerfinance.gov/about-us/newsroom/cfpb-finalizes-personal-financial-data-rights-rule-to-boost-competition-protect-privacy-and-give-families-more-choice-in-financial-services/" target="_blank" rel="noreferrer noopener">norma estadounidense de <em>open banking</em> del CFPB</a> buscaba precisamente dar a los usuarios más control sobre sus datos financieros, facilitar la portabilidad y evitar usos secundarios no deseados, incluido el uso de datos financieros para publicidad dirigida sin relación con el servicio solicitado. Esa es la dirección correcta: que el usuario pueda mover sus datos, sí, pero bajo restricciones claras de finalidad, retención, seguridad y responsabilidad.</p>



<p>¿Se atreverá la gente? Muchos seguramente sí. La historia de internet demuestra que, cuando el beneficio percibido es inmediato, la privacidad suele negociarse muy barato. Millones de personas conectaron su correo, sus fotos, su ubicación, su salud, sus contactos y sus hogares inteligentes a servicios privados a cambio de comodidad. El dinero será más delicado, pero no necesariamente una línea roja. Si ChatGPT consigue decirle a una persona «puedes ahorrar 400 dólares al mes sin cambiar radicalmente tu vida, muchos pulsarán «conectar cuenta» antes de terminar de leer la política de privacidad.</p>



<p>¿Lo probaría yo? Posiblemente para poder hablar mejor de ello como hago habitualmente, pero decididamente, no con confianza ciega. Lo probaría con una cuenta limitada, sin acceso a toda mi información, con el entrenamiento desactivado, revisando permisos, sin memorias innecesarias y desconectando después de obtener valor. No lo usaría como asesor financiero autónomo ni permitiría que se convirtiera en una caja negra que decide por mí. La paradoja es esa: una herramienta así puede ser muy útil precisamente si no olvidamos que es potencialmente peligrosa.</p>



<p>El futuro de la banca personal no será una <em>app</em> con gráficos de colores, sino seguramente algo más parecido a una conversación, algo de lo que las instituciones financieras deberían ir tomando nota. Pero la cuestión fundamental ahora es quién va a poder escuchar esa conversación, qué va a poder recordar, con qué finalidad, durante cuánto tiempo y bajo qué modelo de negocio, es decir, a quién va a poder vender esa información. Porque cuando el <em>prompt</em> es tu cuenta corriente, la privacidad deja de ser una preferencia y se convierte en una condición imprescindible para la libertad.</p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/05/tu-cuenta-corriente-como-prompt.html/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Meta y el final de la coartada</title>
		<link>https://www.enriquedans.com/2026/05/meta-y-el-final-de-la-coartada.html</link>
					<comments>https://www.enriquedans.com/2026/05/meta-y-el-final-de-la-coartada.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Sat, 16 May 2026 08:33:15 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[death]]></category>
		<category><![CDATA[demise]]></category>
		<category><![CDATA[ethics]]></category>
		<category><![CDATA[irresponsibility]]></category>
		<category><![CDATA[Mark Zuckerberg]]></category>
		<category><![CDATA[Meta]]></category>
		<category><![CDATA[moral]]></category>
		<category><![CDATA[social media]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57896</guid>

					<description><![CDATA[Hay empresas que no caen cuando dejan de ganar dinero, sino cuando dejan de poder explicarse moralmente. Meta parece estar entrando en esa fase. No porque sus beneficios hayan desaparecido, sino precisamente porque siguen ahí: una compañía con beneficios récord y una moral interna por los suelos, preparando nuevos despidos, con empleados que hablan de  <a href="https://www.enriquedans.com/2026/05/meta-y-el-final-de-la-coartada.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-large is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/05/Meta-employee-distressed-Dall·E.jpg"><img decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/05/Meta-employee-distressed-Dall·E-1024x1024.jpg" alt="IMAGE: A distressed tech employee sits beneath a cracked Meta symbol while surveillance screens, social-media chaos, and disinformation consume the background around him " class="wp-image-57897" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/05/Meta-employee-distressed-Dall·E-1024x1024.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/05/Meta-employee-distressed-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/05/Meta-employee-distressed-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/05/Meta-employee-distressed-Dall·E-768x768.jpg 768w, https://www.enriquedans.com/wp-content/uploads/2026/05/Meta-employee-distressed-Dall·E.jpg 1254w" sizes="(max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Hay empresas que no caen cuando dejan de ganar dinero, sino cuando dejan de poder explicarse moralmente.</p>



<p>Meta parece estar entrando en esa fase. No porque sus beneficios hayan desaparecido, sino precisamente porque siguen ahí: <a href="https://www.wired.com/story/meta-layoffs-bad-vibes-mark-zuckerberg-ai/" target="_blank" rel="noreferrer noopener">una compañía con beneficios récord y una moral interna por los suelos</a>, preparando nuevos despidos, con empleados que hablan de miedo, hartazgo, desigualdades salariales demenciales, vigilancia y una sensación creciente de haber perdido toda conexión con la supuesta «misión».</p>



<p>La pregunta incómoda no es si Meta está implosionando financieramente. Obviamente no, o al menos, no todavía. La pregunta interesante es si está implosionando culturalmente. Si sus empleados empiezan a entender que trabajan en una organización que durante años optimizó la adicción, la polarización, la vigilancia, la manipulación emocional y la degradación del discurso público, y que <a href="https://www.wired.com/story/meta-employee-protest-mouse-tracking-surveillance-ai-training/" target="_blank" rel="noreferrer noopener">ahora pretende rematar la jugada entrenando sistemas de inteligencia artificial con todo lo que encuentra, incluidos datos de sus propios trabajadores</a>. Debe ser duro saber que trabajas para una organización tan perjudicial para la humanidad. </p>



<p>Durante mucho tiempo, trabajar en Meta fue una forma de comprar indulgencias: salarios altísimos, <em>stock options</em>, campus agradable, prestigio, currículum, impacto. Pero el impacto, cuando se evalúa con un mínimo de objetividad, no era precisamente benigno. Amnistía Internacional demostró que <a href="https://www.amnesty.org/en/latest/news/2022/09/myanmar-facebooks-systems-promoted-violence-against-rohingya-meta-owes-reparations-new-report/" target="_blank" rel="noreferrer noopener">Facebook contribuyó a amplificar el odio genocida contra los rohinya en Myanmar</a>. La FTC impuso a Facebook <a href="https://www.ftc.gov/news-events/news/press-releases/2019/07/ftc-imposes-5-billion-penalty-sweeping-new-privacy-restrictions-facebook" target="_blank" rel="noreferrer noopener">una multa histórica de 5,000 millones de dólares por violaciones de privacidad</a>. The Wall Street Journal reveló documentos internos sobre <a href="https://www.wsj.com/tech/personal-tech/facebook-knows-instagram-is-toxic-for-teen-girls-company-documents-show-11631620739" target="_blank" rel="noreferrer noopener">los efectos de Instagram en adolescentes, particularmente sobre las chicas jóvenes</a>. Y ahora, los grandes editores y el escritor <a href="https://en.wikipedia.org/wiki/Scott_Turow" target="_blank" rel="noreferrer noopener">Scott Turow</a> acusan a Meta y a Zuckerberg de <a href="https://variety.com/2026/digital/news/meta-ai-mark-zuckerberg-copyright-infringement-lawsuit-publishers-scott-turow-1236738383/" target="_blank" rel="noreferrer noopener">usar obras pirateadas para entrenar Llama</a>, después de <a href="https://www.publishersweekly.com/pw/by-topic/digital/copyright/article/100329-publishers-file-infringement-lawsuit-against-meta-zuckerberg.html" target="_blank" rel="noreferrer noopener">despreciar abiertamente las posibles vías de licencia</a>.</p>



<p>No, no es el <a href="https://en.wikipedia.org/wiki/Nuremberg_trials" target="_blank" rel="noreferrer noopener">juicio de Nuremberg</a>: no conviene banalizar la historia. Pero sí hay una idea de Nuremberg que sigue siendo válida: el «seguía órdenes» no es una coartada moral cuando uno sabe lo que está haciendo. Y en Meta lo sabían. Lo sabían cuando diseñaban sistemas para maximizar el <em>engagement</em> aunque degradaran la conversación pública. Lo sabían cuando convertían la privacidad en una variable explotable. Lo sabían cuando Instagram afectaba a adolescentes. Lo sabían cuando la plataforma se convertía en infraestructura de propaganda, odio y manipulación. Y lo sabían porque muchos de esos daños estaban documentados, denunciados y discutidos dentro y fuera de la empresa.</p>



<p>La novedad es que ahora la maquinaria empieza a aplicarse hacia dentro. El trabajador de Meta que durante años contribuyó a vigilar, perfilar y explotar a miles de millones de usuarios <a href="https://www.fastcompany.com/91542004/meta-is-using-mouse-tracking-software-on-employees-now-theyre-pushing-back" target="_blank" rel="noreferrer noopener">descubre que también él puede ser vigilado, medido y convertido en dato de entrenamiento</a>. Fast Company lo resume con claridad: <a href="https://www.nytimes.com/2026/05/08/technology/meta-ai-employees-miserable.html" target="_blank" rel="noreferrer noopener">la vigilancia laboral plantea un problema ético evidente</a> cuando los empleados no tienen una opción real y sus puestos están en juego.</p>



<p>Ahí aparece la grieta. No es un arrepentimiento puro, ni una conversión ética repentina. Es algo más humano y más incómodo: la comprensión tardía de que el sistema que ayudaste a construir no tenía límites, simplemente todavía no había llegado a ti. Que la cultura de <em>«move fast and break things»</em> nunca fue innovación, sino irresponsabilidad con buen marketing. Que la obsesión por escalar no era neutral. Que «conectar el mundo» acabó significando extraer atención, datos, emociones y creatividad hasta dejarlo todo convertido en maldito inventario publicitario, al precio que fuese.</p>



<p>Julia Angwin ha escrito que <a href="https://gvwire.com/2026/05/09/meta-is-dying-and-its-about-time/" target="_blank" rel="noreferrer noopener">Meta ha entrado en su «era zombie»: una compañía que puede seguir viva, rentable y enorme, pero culturalmente muerta, convertida en una versión grotesca de sí misma</a>. Futurism lleva esa idea más lejos y habla directamente de <a href="https://futurism.com/artificial-intelligence/meta-death-spiral" target="_blank" rel="noreferrer noopener"><em>«death spiral»</em>: <em>feeds</em> llenos de basura generada por inteligencia artificial, anuncios, desinformación y decadencia de producto</a>.</p>



<p>Ese es el verdadero problema de Meta: no que vaya a desaparecer mañana, sino que quizá ya ha desaparecido todo aquello que pretendía legitimarla. Facebook dejó de ser una red social para convertirse en una infraestructura de extracción. Instagram dejó de ser una aplicación para compartir imágenes y se convirtió en una máquina de comparación social y frustración. WhatsApp funciona casi como rehén dentro del conglomerado y, frente a la teoría de que las conversaciones están cifradas, somete también a sus incautos usuarios a un espionaje permanente. Y la inteligencia artificial aparece ahora no como una oportunidad de redención, sino como una nueva huida hacia delante, para lograr ser más eficiente haciendo el mal. <a href="https://arstechnica.com/science/2026/05/rip-social-media-what-comes-next-is-messy/" target="_blank" rel="noreferrer noopener">Las redes sociales han muerto</a>, se han convertido en una basura asquerosa y pringosa. Que aquellos que viven de ellas y se convierten en sus cómplices vayan empezando a enterarse.</p>



<p>¿Cómo puede un empleado enfrentarse a eso? Primero, dejando de mentirse. No trabaja «en tecnología»: trabaja en una asquerosa arquitectura de poder. No «optimiza producto», optimiza comportamiento humano para depredarlo. No «mejora modelos», alimenta sistemas que sustituyen consentimiento por captura, por robo. La primera responsabilidad moral es llamar a las cosas por su nombre.</p>



<p>Después, actuando. Filtrar, protestar, sindicarse, negarse, marcharse, documentar, testificar, ayudar a reguladores, tirar de la manta, apoyar demandas, construir alternativas. No todo el mundo puede permitirse dimitir mañana. Pero seguir cobrando mucho dinero no convierte el silencio en neutralidad: lo convierte en complicidad bien pagada.</p>



<p>Meta no está implosionando porque pierda dinero. Está implosionando porque cada vez resulta más asqueroso y más difícil trabajar allí y seguir creyéndose o pretendiendo ser una buena persona. Y ese, para una compañía que durante años vivió de vender una supuesta narrativa heroica sobre sí misma que jamás fue real, puede ser un problema mucho más grave que un trimestre malo. Cuanto antes muera Meta, mucho mejor para todos. </p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is also openly available in English on my Medium page if you use this link, «<a href="https://edans.medium.com/e7bb510a9127?sk=82fd478c5400eca895b94bf9b36497f3" data-type="link" data-id="https://edans.medium.com/e7bb510a9127?sk=82fd478c5400eca895b94bf9b36497f3" target="_blank" rel="noreferrer noopener">Meta’s workforce has finally realized that what goes around comes around</a>«<br /></em></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/05/meta-y-el-final-de-la-coartada.html/feed</wfw:commentRss>
			<slash:comments>8</slash:comments>
		
		
			</item>
		<item>
		<title>¿Y si la inteligencia artificial tuviese que pagar dividendos?</title>
		<link>https://www.enriquedans.com/2026/05/y-si-la-inteligencia-artificial-tuviese-que-pagar-dividendos.html</link>
					<comments>https://www.enriquedans.com/2026/05/y-si-la-inteligencia-artificial-tuviese-que-pagar-dividendos.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Fri, 15 May 2026 07:35:48 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[basic income]]></category>
		<category><![CDATA[digital dividends]]></category>
		<category><![CDATA[dividends]]></category>
		<category><![CDATA[market]]></category>
		<category><![CDATA[South Korea]]></category>
		<category><![CDATA[strike]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57885</guid>

					<description><![CDATA[La propuesta surcoreana de repartir entre todos los ciudadanos una parte de los beneficios extraordinarios generados por la inteligencia artificial tiene algo de provocación, pero también de diagnóstico certero: si la nueva riqueza se genera usando infraestructuras, educación, datos, energía, estabilidad institucional y décadas de inversión pública, ¿por qué debería capturarla casi en exclusiva un  <a href="https://www.enriquedans.com/2026/05/y-si-la-inteligencia-artificial-tuviese-que-pagar-dividendos.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-large is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/05/AI-dividends-Dall·E.jpg"><img decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/05/AI-dividends-Dall·E-1024x1024.jpg" alt="IMAGE: A large humanoid robot representing AI balances a pile of corporate wealth on one hand and a small group of people on a green platform on the other, while a crowd below reaches upward as digital money flows down " class="wp-image-57886" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/05/AI-dividends-Dall·E-1024x1024.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/05/AI-dividends-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/05/AI-dividends-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/05/AI-dividends-Dall·E-768x768.jpg 768w, https://www.enriquedans.com/wp-content/uploads/2026/05/AI-dividends-Dall·E.jpg 1254w" sizes="(max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>La <a href="https://www.ft.com/content/fefa0641-7fb0-4d78-81c8-0180f1b618ed" target="_blank" rel="noreferrer noopener">propuesta surcoreana</a> de <a href="https://www.straitstimes.com/asia/east-asia/south-korea-floats-citizen-dividend-using-ai-profits" target="_blank" rel="noreferrer noopener">repartir entre todos los ciudadanos una parte de los beneficios extraordinarios generados por la inteligencia artificial</a> tiene algo de provocación, pero también de diagnóstico certero: si la nueva riqueza se genera usando infraestructuras, educación, datos, energía, estabilidad institucional y décadas de inversión pública, ¿por qué debería capturarla casi en exclusiva un puñado de compañías y accionistas? </p>



<p>En Corea del Sur, la <a href="https://www.koreaherald.com/article/10737188" target="_blank" rel="noreferrer noopener">discusión</a> ha surgido alrededor de Samsung y SK Hynix, justo cuando el auge de los chips para inteligencia artificial amenaza con concentrar beneficios en empresas, ingenieros clave y propietarios de capital, mientras gran parte de la clase media apenas recibe efectos indirectos.</p>



<p>La idea se parece, inevitablemente, <a href="https://www.koreatimes.co.kr/economy/20230903/ai-digitalization-strengthen-calls-to-introduce-basic-income" target="_blank" rel="noreferrer noopener">a una renta básica universal</a>, aunque con una diferencia importante: no se financiaría como gasto social clásico, sino como dividendo de una riqueza creada colectivamente. Es más el estilo de Alaska que un subsidio: un <a href="https://apfc.org/" target="_blank" rel="noreferrer noopener">fondo permanente</a> que convierte una renta extraordinaria (allí el petróleo, aquí la inteligencia artificial) en pagos recurrentes a los ciudadanos. El <a href="https://pfd.alaska.gov/" target="_blank" rel="noreferrer noopener">Alaska Permanent Fund</a> sigue siendo el ejemplo más claro de un recurso común convertido en dividendo ciudadano.</p>



<p>Lo interesante en el caso de Corea es que allí el debate no aparece únicamente como política social, sino como política industrial. Corea sabe perfectamente que la inteligencia artificial puede producir una concentración brutal de riqueza en muy pocas compañías, especialmente porque el país tiene un ecosistema extremadamente concentrado alrededor de los <em><a href="https://en.wikipedia.org/wiki/Chaebol" target="_blank" rel="noreferrer noopener">chaebols</a></em>. Cuando el <em>boom</em> de la inteligencia artificial dispara el valor de fabricantes de memoria, centros de datos y plataformas, la pregunta sobre quién captura ese valor deja de ser teórica.</p>



<p>Lo que estamos viendo en Corea del Sur no es todavía una «huelga contra la inteligencia artificial», pero sí algo posiblemente mucho más relevante: las primeras tensiones laborales directamente vinculadas al reparto de la riqueza que genera. <a href="https://www.koreatimes.co.kr/southkorea/society/20260506/ai-era-forces-koreas-labor-capital-to-negotiate-new-survival-pact" target="_blank" rel="noreferrer noopener">Los trabajadores de Samsung llevan meses protestando y convocando huelgas</a> mientras observan cómo el <em>boom</em> mundial de los chips para inteligencia artificial dispara los beneficios de la compañía y las cotizaciones bursátiles, pero no se traduce proporcionalmente en salarios, bonus o participación en esa nueva riqueza. Y eso cambia la naturaleza del conflicto: ya no se trata únicamente de proteger empleos frente a la automatización, sino de cuestionar quién captura el valor creado por ella. Corea del Sur, con sus gigantescos <em>chaebols</em> dominando sectores estratégicos y una de las economías más intensamente tecnificadas del planeta, podría estar convirtiéndose en el laboratorio adelantado de las tensiones sociales de la era de la inteligencia artificial: una economía capaz de generar una productividad extraordinaria&#8230; mientras el peso relativo del trabajo humano se reduce progresivamente.</p>



<p>Pero hay alternativas. Una sería <a href="https://www.theguardian.com/business/article/2024/jun/17/ai-profits-tax-green-levy-imf-carbon-emissions" target="_blank" rel="noreferrer noopener">gravar los beneficios extraordinarios de la inteligencia artificial</a>, como ha sugerido el FMI, no para castigar la innovación, sino para evitar que una tecnología que reduce empleo y concentra capital destruya la base fiscal sobre la que se construyó el estado del bienestar. Otra sería <a href="https://english.elpais.com/technology/2025-11-30/if-ai-replaces-workers-should-it-also-pay-taxes.html" target="_blank" rel="noreferrer noopener">desplazar parte de la presión fiscal desde el trabajo hacia el capital, los dividendos, las plusvalías y las rentas monopolísticas</a>. Si una empresa sustituye trabajadores por modelos, servidores y algoritmos, seguir financiando la sociedad casi exclusivamente mediante salarios empieza a ser una idea absurda.</p>



<p>Otra alternativa, más interesante todavía, es hablar no solo de renta básica, sino de <a href="https://link.springer.com/article/10.1007/s42972-024-00114-y" target="_blank" rel="noreferrer noopener">activos básicos universales</a>: acceso garantizado a educación, sanidad, conectividad, vivienda, energía, datos, capacidad computacional y herramientas de inteligencia artificial. No basta con dar dinero si después el acceso real a la productividad queda encerrado tras suscripciones, plataformas propietarias y monopolios de infraestructura. En la economía de la inteligencia artificial, la desigualdad no será solo de ingresos: será de acceso a capacidades. </p>



<p>También cabe pensar en un «dividendo de datos». Si los modelos se entrenan con producción humana acumulada (textos, imágenes, conversaciones, código, conocimiento público, etc.), la idea de que todo ese valor pueda ser privatizado sin retorno social resulta cada vez más difícil de defender. La inteligencia artificial no nace de la nada: nace de una gigantesca expropiación estadística de la cultura, el trabajo y la información. Pretender que sus beneficios pertenecen únicamente a quien posee los centros de datos es una forma sofisticada de feudalismo digital. </p>



<p>Korinek y Stiglitz ya plantearon en el NBER que <a href="https://www.nber.org/papers/w24174" target="_blank" rel="noreferrer noopener">la inteligencia artificial puede generar mejoras enormes, pero también redistribuciones muy negativas si no existen mecanismos fiscales capaces de compensar a quienes pierdan con el cambio tecnológico</a>. El problema no es la tecnología: es permitir que sus beneficios se privaticen mientras sus costes se socializan.</p>



<p>La <a href="https://www.chosun.com/english/national-en/2025/11/01/6G7HY6E6RNAJFPIXV4MEXNAIO4/" target="_blank" rel="noreferrer noopener">propuesta surcoreana</a> no es obviamente perfecta. Entre otras cosas porque puede <a href="https://www.marketwatch.com/story/the-hottest-stock-market-in-the-world-finally-met-its-match-taxes-55cf54c6" target="_blank" rel="noreferrer noopener">asustar</a> a <a href="https://www.barrons.com/articles/ai-tax-stock-market-kospi-2e468921" target="_blank" rel="noreferrer noopener">los mercados</a>, puede diseñarse mal, puede derivar en populismo fiscal&#8230; o todo ello al mismo tiempo. Pero tiene una virtud inmensa: nos obliga a formularnos la pregunta correcta. Si la inteligencia artificial parece estar sustituyendo progresivamente trabajo humano o al menos por ahora, amenazando con ello, ¿qué hacemos con una sociedad construida alrededor del empleo como fuente de renta, identidad, derechos y fiscalidad? </p>



<p>La respuesta no puede ser «que cada cual se recicle como pueda» mientras cuatro compañías acumulan la infraestructura, los datos, los modelos, el talento y los beneficios. Eso no es innovación: es captura. La inteligencia artificial puede ser una extraordinaria herramienta de prosperidad compartida, pero solo si diseñamos instituciones que lo hagan posible. De lo contrario, habremos inventado una máquina maravillosa para producir abundancia&#8230; y la habremos puesto al servicio de la escasez artificial. </p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is also openly available in English on my Medium page if you use this link, «<a href="https://medium.com/enrique-dans/south-koreas-citizens-dividend-proposal-forces-us-to-face-the-uncomfortable-question-of-who-748d52f010e8?sk=91b7357b63514ab59831b157e1cf5b6c" target="_blank" rel="noreferrer noopener">South Korea’s citizens’ dividend proposal forces us to face the uncomfortable question of who benefits from AI’s vast profits</a>«</em></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/05/y-si-la-inteligencia-artificial-tuviese-que-pagar-dividendos.html/feed</wfw:commentRss>
			<slash:comments>20</slash:comments>
		
		
			</item>
		<item>
		<title>¿Realmente es Estados Unidos un aliado? Mythos como prueba</title>
		<link>https://www.enriquedans.com/2026/05/realmente-es-estados-unidos-un-aliado-mythos-como-prueba.html</link>
					<comments>https://www.enriquedans.com/2026/05/realmente-es-estados-unidos-un-aliado-mythos-como-prueba.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Thu, 14 May 2026 06:22:11 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[Anthropic]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[cybersecurity]]></category>
		<category><![CDATA[Europe]]></category>
		<category><![CDATA[European Union]]></category>
		<category><![CDATA[geopolitics]]></category>
		<category><![CDATA[Invertia]]></category>
		<category><![CDATA[US]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57888</guid>

					<description><![CDATA[Mi columna de esta semana en Invertia se titula «La ciberdefensa europea no puede depender del permiso de Washington» (pdf), y trata sobre un cambio de paradigma que apenas empieza a vislumbrarse, pero que tiene implicaciones profundas tanto para la seguridad como para la geopolítica tecnológica: la industrialización del hacking gracias a la inteligencia artificial.  <a href="https://www.enriquedans.com/2026/05/realmente-es-estados-unidos-un-aliado-mythos-como-prueba.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-large is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/05/Mythos-Dall·E.jpg"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/05/Mythos-Dall·E-1024x1024.jpg" alt="IMAGE: A towering humanoid robot with American flag features controls a glowing AI core behind a locked barrier, while a European figure reaches toward a wall marked &quot;access denied,&quot; symbolizing restricted access to critical cybersecurity technology " class="wp-image-57889" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/05/Mythos-Dall·E-1024x1024.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/05/Mythos-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/05/Mythos-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/05/Mythos-Dall·E-768x768.jpg 768w, https://www.enriquedans.com/wp-content/uploads/2026/05/Mythos-Dall·E.jpg 1254w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Mi columna de esta semana en Invertia se titula «<a href="https://www.elespanol.com/invertia/opinion/20260514/ciberdefensa-europea-no-puede-depender-permiso-washington/1003744245302_13.html" target="_blank" rel="noreferrer noopener">La ciberdefensa europea no puede depender del permiso de Washington</a>» (<a href="https://www.enriquedans.com/wp-content/uploads/2026/05/La-ciberdefensa-europea-no-puede-depender-del-permiso-de-Washington-Invertia.pdf" target="_blank" rel="noreferrer noopener">pdf</a>), y trata sobre un cambio de paradigma que apenas empieza a vislumbrarse, pero que tiene implicaciones profundas tanto para la seguridad como para la geopolítica tecnológica: la industrialización del <em>hacking</em> gracias a la inteligencia artificial.</p>



<p>El detonante de la reflexión es la aparición de herramientas como Mythos, desarrolladas en el contexto de proyectos como el anunciado por Anthropic en su iniciativa «<a href="https://www.anthropic.com/glasswing" target="_blank" rel="noreferrer noopener">Project Glasswing</a>«, capaces de identificar vulnerabilidades de día cero de forma automatizada y a una escala sin precedentes. Como ya <a href="https://www.enriquedans.com/2026/04/cuando-hackear-se-industrializa-lo-que-anthropic-reconoce-sobre-su-propio-modelo.html" target="_blank" rel="noreferrer noopener">advertí</a> en dos entradas <a href="https://www.enriquedans.com/2026/04/mythos-o-cuando-hackear-deja-de-ser-dificil.html" target="_blank" rel="noreferrer noopener">anteriores</a> en esta misma página, el verdadero problema no es tanto la herramienta en sí como el cambio estructural que introduce: convertir una actividad tradicionalmente artesanal en un proceso escalable y con paciencia infinita. </p>



<p>Cuando el <em>hacking</em> se industrializa, el equilibrio entre atacantes y defensores se rompe aún más. Esa es precisamente la preocupación que subyace en artículos recientes como el publicado en Harvard Business Review, <em>«<a href="https://hbr.org/2026/05/cyber-defense-has-to-move-at-the-speed-of-ai" target="_blank" rel="noreferrer noopener">Cyber defense has to move at the speed of AI</a>«</em>, que insiste en la necesidad de que las capacidades defensivas evolucionen al mismo ritmo que las ofensivas en un entorno dominado por la inteligencia artificial. El problema, como suele ocurrir, es que esa evolución no se produce de manera homogénea. </p>



<p>En este contexto, la negativa de Estados Unidos a facilitar el acceso a herramientas como Mythos a empresas e instituciones europeas introduce una dimensión geopolítica particularmente incómoda. Tal y como recoge The Next Web en <em>«<a href="https://thenextweb.com/news/eurogroup-mythos-access-cyber-defense-europe" target="_blank" rel="noreferrer noopener">Europe’s finance chiefs want Mythos access to defend their banks. Washington has so far said no</a>«</em>, responsables europeos del ámbito financiero han solicitado acceso a estas capacidades para poder proteger sus sistemas, encontrándose con una respuesta negativa que revela hasta qué punto la supuesta alianza transatlántica tiene límites muy claros cuando se trata de tecnologías críticas. </p>



<p>Otros medios como Bloomberg (<em>«<a href="https://www.bloomberg.com/news/articles/2026-05-04/euro-finance-chiefs-want-mythos-ai-access-to-prepare-defenses?embedded-checkout=true" target="_blank" rel="noreferrer noopener">Euro finance chiefs want Mythos access to prepare defenses</a>«</em>), o The Business Times (<em>«<a href="https://www.businesstimes.com.sg/international/ecb-studying-defences-against-mythos-powered-attacks-lagarde-says" target="_blank" rel="noreferrer noopener">ECB is studying defences against Mythos-powered attacks, Lagarde says</a>«</em>) han incidido en la misma idea: las instituciones europeas son conscientes del riesgo, pero carecen de herramientas equivalentes para afrontarlo en igualdad de condiciones. </p>



<p>La paradoja es evidente. Para defenderse de un tipo de ataque, es necesario poder simularlo, entenderlo y anticiparlo. Sin acceso a herramientas de este tipo, las organizaciones europeas quedan en una posición estructuralmente inferior. No se trata de una cuestión de conveniencia, sino de capacidad real de defensa. Como apunta Bruce Schneier en <a href="https://www.schneier.com/blog/archives/2026/04/what-anthropics-mythos-means-for-the-future-of-cybersecurity.html" target="_blank" rel="noreferrer noopener">su análisis sobre Mythos</a>, estamos entrando en una fase en la que la automatización de la búsqueda de vulnerabilidades redefine completamente el campo de juego de la ciberseguridad. </p>



<p>Incluso actores como Mozilla han empezado a <a href="https://www.techradar.com/pro/security/mozilla-says-anthropics-mythos-preview-and-other-ai-models-helped-it-identify-and-ship-423-firefox-security-bug-fixes-in-just-one-month" target="_blank" rel="noreferrer noopener">experimentar con este tipo de herramientas para mejorar la seguridad de sus productos</a>. Si quienes desarrollan <em>software</em> de código abierto consideran necesario apoyarse en estas capacidades para reforzar su seguridad, resulta difícil justificar que empresas o instituciones europeas deban prescindir de ellas. </p>



<p>La cuestión, en última instancia, no es simplemente tecnológica, sino política. ¿Qué significa ser aliado cuando el acceso a herramientas críticas se restringe unilateralmente? ¿Hasta qué punto puede hablarse de soberanía tecnológica cuando la defensa de infraestructuras clave depende de decisiones tomadas fuera del propio ámbito europeo? La discusión sobre Mythos no es un episodio aislado, sino un síntoma más de una relación asimétrica que Europa lleva demasiado tiempo aceptando sin cuestionar de manera efectiva. </p>



<p>Mi columna intenta precisamente poner el foco en esa incomodidad, en esa contradicción entre discurso y realidad. Porque en un entorno en el que la inteligencia artificial acelera todos los procesos, desde la innovación hasta el conflicto, quedarse atrás no es simplemente perder competitividad. Es asumir un riesgo estructural que afecta a la estabilidad económica, institucional y social. Y en ese contexto, depender del permiso de otro para defenderse deja de ser una opción razonable para convertirse en un problema urgente. Si Estados Unidos es nuestro aliado, no quiero saber cómo serán los enemigos&#8230; </p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is also openly available in English on my Medium page if you use this link, «<a href="https://medium.com/enrique-dans/why-mythos-spells-the-end-of-europes-cybersecurity-illusions-fecb1db0d97a?sk=5e2593a18931a40cedce5af61811b60f" target="_blank" rel="noreferrer noopener">Why Mythos spells the end of Europe’s cybersecurity illusions</a>» </em></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/05/realmente-es-estados-unidos-un-aliado-mythos-como-prueba.html/feed</wfw:commentRss>
			<slash:comments>25</slash:comments>
		
		
			</item>
		<item>
		<title>No, no voy a poner faltas de ortografía para demostrar que soy humano</title>
		<link>https://www.enriquedans.com/2026/05/no-no-voy-a-poner-faltas-de-ortografia-para-demostrar-que-soy-humano.html</link>
					<comments>https://www.enriquedans.com/2026/05/no-no-voy-a-poner-faltas-de-ortografia-para-demostrar-que-soy-humano.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Wed, 13 May 2026 06:53:00 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[agents]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[El Pais]]></category>
		<category><![CDATA[Jordi Perez Colome]]></category>
		<category><![CDATA[writers]]></category>
		<category><![CDATA[writing]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57876</guid>

					<description><![CDATA[El artículo de Jordi Pérez Colomé en El País, «Las erratas como símbolo de prestigio: cómo escribir para que no parezca IA«, me ha dejado una sensación entre el cansancio, la irritación y la tristeza. La idea de que, en plena explosión de la inteligencia artificial generativa, algunos empiecen a introducir erratas deliberadamente para que  <a href="https://www.enriquedans.com/2026/05/no-no-voy-a-poner-faltas-de-ortografia-para-demostrar-que-soy-humano.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-large is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/05/EDans-writing-Dall·E.jpg"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/05/EDans-writing-Dall·E-1024x1024.jpg" alt="IMAGE: A writer sits at his desk, surrounded by accusing hands and speech bubbles suggesting his work is AI-generated, while he continues writing thoughtfully, with a calm AI presence behind him symbolizing assistance rather than replacement " class="wp-image-57881" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/05/EDans-writing-Dall·E-1024x1024.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/05/EDans-writing-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/05/EDans-writing-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/05/EDans-writing-Dall·E-768x768.jpg 768w, https://www.enriquedans.com/wp-content/uploads/2026/05/EDans-writing-Dall·E.jpg 1254w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>El artículo de <a href="https://x.com/jordipc" target="_blank" rel="noreferrer noopener">Jordi Pérez Colomé</a> en El País, «<a href="https://elpais.com/tecnologia/2026-05-05/las-erratas-como-simbolo-de-prestigio-como-escribir-para-que-no-parezca-ia.html" target="_blank" rel="noreferrer noopener">Las erratas como símbolo de prestigio: cómo escribir para que no parezca IA</a>«, me ha dejado una sensación entre el cansancio, la irritación y la tristeza. La idea de que, en plena explosión de la inteligencia artificial generativa, algunos empiecen a introducir erratas deliberadamente para que sus textos parezcan «más humanos» es una de esas distopías absurdas que, precisamente por absurdas, terminan describiendo muy bien una época. </p>



<p>Vivimos instalados en una sospecha permanente. Ya no se lee un texto para preguntarse si dice algo interesante, si está bien argumentado, si aporta algo o si invita a pensar. Se lee, demasiadas veces, como quien pasa un detector de metales: buscando la prueba, el rastro, el supuesto tic, la señal que permita levantar el dedo y decir: «esto lo ha escrito una inteligencia artificial». Es la nueva policía del estilo, una inquisición de andar por casa armada con intuiciones bastante pobres, detectores que no funcionan y una curiosa superioridad moral. </p>



<p>No hay semana en la que no reciba un mensaje, un comentario o una insinuación acusándome de escribir con inteligencia artificial. Y la verdad es que empieza a cansar. Mucho. No porque me moleste que alguien piense que uso inteligencia artificial: la uso, por supuesto que la uso. Me molestan la simpleza del razonamiento, la acusación barata, la idea de que cualquier texto bien documentado, corregido, estructurado o con enlaces adecuados deba ser sospechoso. Me molesta esa pulsión de convertir una herramienta en una prueba de culpabilidad. </p>



<p>Llevo escribiendo más de un artículo diario desde 2003. Eso son casi veinte años antes de que ChatGPT apareciese en noviembre de 2022. Veinte años escribiendo, documentando, enlazando, argumentando, equivocándome, rectificando, aprendiendo y publicando. Francamente, creo que eso debería concederme algo de crédito. No mucho, si no quieres. Pero al menos el suficiente como para no tener que ensuciar deliberadamente mis textos con faltas de ortografía para demostrar que sigo siendo una persona. </p>



<p>Porque no, no voy a hacerlo. No pienso introducir erratas, torpezas o descuidos calculados para parecer «auténtico». No pienso degradar mi escritura para adaptarme a la paranoia de quienes confunden imperfección con humanidad. La humanidad de un texto no está en una tilde que falta ni en una coma mal puesta. Está en la intención, en la trayectoria, en la capacidad de construir una mirada, en la responsabilidad de sostener una idea y en la posibilidad de responder por ella. </p>



<p>Sí, uso inteligencia artificial, y mucho, pero no para escribir. La uso para documentarme mejor, para encontrar fuentes que antes me habría costado más tiempo localizar, para que agentes configurados por mí y bajo mis instrucciones busquen artículos que puedan ampliar o contrastar lo que estoy pensando. La uso para revisar ortografía y gramática. La uso, en ocasiones, para que otro agente, entrenado con mis propios artículos, me sugiera pequeños ajustes de estructura o me señale puntos débiles, basándose en la comparación con mis artículos más exitosos o con más lecturas. A veces, incluso, al terminar un texto, se lo copio a un agente que lo critica y me dice qué ángulos no he considerado. Después leo esa crítica y, si me parece pertinente, escribo un párrafo adicional, matizo una idea o refuerzo un argumento. Yo. Con estos deditos. </p>



<p>¿Y qué? Eso no convierte el artículo en <em>«<a href="https://en.wikipedia.org/wiki/AI_slop" target="_blank" rel="noreferrer noopener">AI slop</a>«</em>. Eso no significa que el texto lo haya escrito una máquina. Significa que escribo en 2026, no en 1996. Significa que utilizo las herramientas disponibles para hacer mejor mi trabajo, exactamente igual que en su momento utilicé buscadores, gestores de referencias, correctores ortográficos, bases de datos académicas, lectores RSS o traductores automáticos. La diferencia es de potencia, no de naturaleza. Y quien no entienda eso, en realidad no está defendiendo la escritura humana: está defendiendo una visión romántica, artesanal y profundamente equivocada del trabajo intelectual. </p>



<p>El problema no es usar inteligencia artificial. <a href="https://www.fastcompany.com/91378421/ai-can-do-your-writing-but-not-your-thinking" target="_blank" rel="noreferrer noopener">El problema es delegar el pensamiento</a>. El problema es entregar a una máquina la responsabilidad de decidir qué quieres decir, por qué lo quieres decir y desde dónde lo dices. Yo no escribo para llenar una página. Escribo para aprender, para ordenar ideas, para pensar, para después poder explicar esas ideas en clase o en una conferencia. Si una inteligencia artificial escribiese por mí, yo no habría internalizado nada. No podría defender el texto, no podría discutirlo, no podría usarlo como parte de mi proceso docente. Sería una impostura inútil. </p>



<p>Por eso la distinción relevante no es «con inteligencia artificial» o «sin inteligencia artificial». Esa distinción es infantil. La pregunta relevante es otra: ¿quién piensa? ¿Quién decide? ¿Quién asume la responsabilidad intelectual del texto? ¿Quién puede explicar por qué está ahí cada argumento, cada enlace, cada ejemplo y cada conclusión? Esa es la conversación que deberíamos estar teniendo, no esta especie de concurso ridículo para ver quién logra sonar lo bastante imperfecto como para ser aceptado como humano. </p>



<p>Además, la propia industria y la academia saben perfectamente que los detectores de texto generado por inteligencia artificial no son una solución fiable. OpenAI reconoce en su <a href="https://help.openai.com/en/articles/8313351-how-can-educators-respond-to-students-presenting-ai-generated-content" target="_blank" rel="noreferrer noopener">guía para educadores</a><br />que esos detectores no son suficientemente fiables y que pueden etiquetar texto humano como generado por máquinas. MIT Sloan lo dice de manera aún más directa en un recurso titulado <em>«<a href="https://mitsloanedtech.mit.edu/ai/teach/ai-detectors-dont-work/">AI detectors don’t work</a>«</em>. Estudios como el publicado en Patterns sobre el sesgo de los detectores contra escritores no nativos en inglés muestran, además, que <a href="https://www.sciencedirect.com/science/article/pii/S2666389923001307" target="_blank" rel="noreferrer noopener">esas herramientas pueden ser injustas y discriminatorias</a>: penalizan estilos más simples o más estructurados, y convierten en sospechosas a personas que simplemente escriben de manera clara. </p>



<p>Turnitin, una de las compañías más utilizadas en entornos educativos, advierte que sus modelos no deberían usarse como única base para tomar medidas contra un estudiante, <a href="https://www.americanbar.org/groups/journal/articles/2025/ai-detection-tools-might-not-be-the-answer-just-yet/" target="_blank" rel="noreferrer noopener">algo que recoge también el ABA Journal</a>. UNESCO, en su <a href="https://www.unesco.org/en/articles/guidance-generative-ai-education-and-research" target="_blank" rel="noreferrer noopener">guía sobre inteligencia artificial generativa en educación e investigación</a>, insiste en un enfoque centrado en las personas, en la transparencia y en el uso significativo de estas herramientas. En otras palabras: las instituciones serias no dicen «prohibamos, sospechemos y acusemos». Dicen «aprendamos a usar, a declarar, a evaluar procesos y a formar criterio».</p>



<p>Pero la cultura popular va por otro lado. Va por el camino fácil de la sospecha. Por el «esto suena a ChatGPT», porque lo digo yo. O por el detector milagroso. O por la búsqueda de tics estilísticos. O por la idea absurda de que un guion largo, una estructura ordenada o una conclusión redonda son ya indicios de culpabilidad. O ahora, según parece, por la reivindicación de la errata como certificado de humanidad. Hemos llegado al punto en que escribir bien puede ser sospechoso y escribir mal puede ser una estrategia reputacional. No se me ocurre mejor descripción de una sociedad confundida. </p>



<p>Lo más irónico es que muchos de quienes acusan a otros de usar inteligencia artificial lo hacen desde una ignorancia bastante notable sobre cómo funciona realmente la escritura. Escribir nunca ha sido un acto puro, aislado o místico. Escribir es conversar con fuentes, con lecturas previas, con notas, con editores, con correctores, con alumnos, con colegas, con críticas y con uno mismo. La inteligencia artificial se inserta en ese proceso como una herramienta más. Extraordinariamente poderosa, sí, pero no como una sustitución inevitable del autor. Que algunos la usen para sustituirse a sí mismos no significa que todos lo hagamos. Y menos los que más perjudicados podríamos salir si lo hiciéramos. </p>



<p>La autenticidad no está en rechazar las herramientas. Está en no abdicar del criterio. Está en no confundir asistencia con autoría. Está en poder decir: esta idea es mía, esta estructura la he decidido yo, esta fuente la he elegido yo, esta conclusión la sostengo yo. Y está también en aceptar que escribir con herramientas mejores puede producir textos mejores. Más largos, quizá. Más documentados. Más matizados. Más revisados. ¿Desde cuándo eso es un problema? </p>



<p>Me niego a participar en la teatralización de la imperfección. No voy a escribir peor para parecer más humano. Antes tenía más <em>typos</em>, ahora tengo menos porque me los corrige un agente. Antes ilustraba con aburridas ilustraciones de repositorio, ahora ilustro con inteligencia artificial, porque nunca he sido ilustrador ni considero que las ilustraciones sean lo que define mis artículos. Simplemente, me es más cómodo y me gusta más así. Y no, decididamente no voy a dejar faltas para tranquilizar a quienes han decidido que la corrección es sospechosa. No voy a convertir mi escritura en una coartada contra una acusación mal formulada. Si alguien quiere creer que un texto mío lo ha escrito una máquina porque está bien enlazado, porque no tiene faltas o porque incorpora puntos de vista adicionales, que lo crea. El problema no está en mi texto. Está en su incapacidad para entender cómo se trabaja hoy. </p>



<p>La inteligencia artificial obliga a repensar muchas cosas: la enseñanza, la evaluación, la autoría, la transparencia, el aprendizaje, la creatividad y la responsabilidad. Pero repensarlas no significa caer en una histeria permanente ni transformar cada texto en una escena del crimen, ni llegar a la página de un autor como un histérico maleducado gritando «esto es <em>AI slop</em>!!» Significa asumir que las herramientas han cambiado y que, por tanto, también debe cambiar nuestra forma de valorar el trabajo intelectual. </p>



<p>Yo seguiré escribiendo. Seguiré usando inteligencia artificial cuando me ayude a documentarme mejor, a corregir mejor, a contrastar mejor o a pensar mejor. Seguiré siendo yo quien decide qué se publica y qué no. Y seguiré negándome a aceptar que la humanidad de un texto se mida por su descuido. </p>



<p>Porque si hemos llegado al punto en que para parecer humanos tenemos que escribir peor, el problema no lo tiene la inteligencia artificial. Lo tenemos nosotros. </p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is also openly available in English on my Medium page if you use this link, «<a href="https://medium.com/enrique-dans/how-about-a-few-deliferate-mistales-to-make-my-writing-seem-more-authentic-e5d765a2bfc4?sk=e6295b9d6b8b7a6a402fecdbd822447b" data-type="link" data-id="https://medium.com/enrique-dans/how-about-a-few-deliferate-mistales-to-make-my-writing-seem-more-authentic-e5d765a2bfc4?sk=e6295b9d6b8b7a6a402fecdbd822447b" target="_blank" rel="noreferrer noopener">How about a few deliferate mistales to make my writing seem more authentic</a>?» </em></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/05/no-no-voy-a-poner-faltas-de-ortografia-para-demostrar-que-soy-humano.html/feed</wfw:commentRss>
			<slash:comments>30</slash:comments>
		
		
			</item>
		<item>
		<title>Musk contra Altman: el juicio que está enterrando el idealismo de la inteligencia artificial</title>
		<link>https://www.enriquedans.com/2026/05/musk-contra-altman-el-juicio-que-esta-enterrando-el-idealismo-de-la-inteligencia-artificial.html</link>
					<comments>https://www.enriquedans.com/2026/05/musk-contra-altman-el-juicio-que-esta-enterrando-el-idealismo-de-la-inteligencia-artificial.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Tue, 12 May 2026 08:22:57 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[Elon Musk]]></category>
		<category><![CDATA[lawsuit]]></category>
		<category><![CDATA[not-for-profit]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[Sam Altman]]></category>
		<category><![CDATA[trial]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57871</guid>

					<description><![CDATA[Durante años, Silicon Valley se esforzó en vendernos una narrativa muy concreta sobre la inteligencia artificial. Una narrativa casi mesiánica. La idea de que un pequeño grupo de visionarios estaba construyendo una tecnología revolucionaria pensando, ante todo, en el bien común. La promesa de que, esta vez sí, el progreso tecnológico sería diferente: más abierto,  <a href="https://www.enriquedans.com/2026/05/musk-contra-altman-el-juicio-que-esta-enterrando-el-idealismo-de-la-inteligencia-artificial.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-large is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/05/Musk-vs-Altman-Dall·E.jpg"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/05/Musk-vs-Altman-Dall·E-1024x1024.jpg" alt="IMAGE: A dramatic courtroom scene showing two opposing figures facing each other across a glowing digital sphere, with a judge and a diverse jury behind them and a symbolic scale balancing people against money, set against a split red-and-blue technological background " class="wp-image-57872" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/05/Musk-vs-Altman-Dall·E-1024x1024.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/05/Musk-vs-Altman-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/05/Musk-vs-Altman-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/05/Musk-vs-Altman-Dall·E-768x768.jpg 768w, https://www.enriquedans.com/wp-content/uploads/2026/05/Musk-vs-Altman-Dall·E.jpg 1254w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Durante años, Silicon Valley se esforzó en vendernos una narrativa muy concreta sobre la inteligencia artificial. Una narrativa casi mesiánica. La idea de que un pequeño grupo de visionarios estaba construyendo una tecnología revolucionaria pensando, ante todo, en el bien común. La promesa de que, esta vez sí, el progreso tecnológico sería diferente: más abierto, más colaborativo, más responsable.</p>



<p>Y ahora, en una sala de tribunales de Oakland, California, esa narrativa se está desmoronando pieza a pieza. El juicio entre Elon Musk y OpenAI no es simplemente una pelea entre multimillonarios con egos descomunales. Tampoco es únicamente un conflicto empresarial entre antiguos socios que acabaron enfrentados. <a href="https://www.wired.com/story/musk-v-altman-trial-openai-xai/" target="_blank" rel="noreferrer noopener">Lo que estamos viendo es algo bastante más relevante: la constatación pública de que la inteligencia artificial se ha convertido definitivamente en una cuestión de poder</a>. Poder económico. Poder político. Poder estratégico. Y, sobre todo, poder concentrado.</p>



<p>El caso enfrenta a Elon Musk contra Sam Altman, Greg Brockman, OpenAI y Microsoft. Musk sostiene que OpenAI traicionó su misión original como organización sin ánimo de lucro dedicada a desarrollar inteligencia artificial «para beneficio de la humanidad», y que acabó transformándose en una estructura diseñada esencialmente para capturar valor económico y consolidar una posición dominante en el mercado. OpenAI, por su parte, responde que Musk conocía perfectamente la evolución de la compañía, que incluso apoyó estructuras similares cuando formaba parte del proyecto, y que su demanda responde más bien a un intento de frenar a un competidor directo de su propia empresa de inteligencia artificial, xAI.</p>



<p>Pero reducir el asunto a un simple «Musk contra Altman» sería quedarse en la superficie. Lo interesante es todo lo que el juicio está revelando sobre la evolución de la industria de la inteligencia artificial y sobre cómo las grandes promesas éticas de hace apenas una década han terminado subordinadas a la lógica habitual de Silicon Valley: crecimiento acelerado, rondas multimillonarias y control de infraestructuras críticas.</p>



<p>La historia de OpenAI es particularmente reveladora porque nació precisamente como reacción a esos riesgos. Cuando fue fundada en 2015, OpenAI se presentaba como una alternativa a las grandes tecnológicas. Una organización abierta, colaborativa y sin ánimo de lucro destinada a evitar que una sola empresa monopolizase el desarrollo de una inteligencia artificial general. La propia palabra <em>«Open»</em> era una parte esencial del relato.</p>



<p>Pero entrenar modelos avanzados de inteligencia artificial resultó ser muchísimo más caro de lo previsto. El desarrollo de GPT-3, GPT-4 y posteriormente ChatGPT transformó completamente la escala económica del proyecto. Lo que inicialmente parecía un laboratorio de investigación acabó necesitando inversiones astronómicas en capacidad computacional, centros de datos y talento especializado.</p>



<p>Y ahí apareció Microsoft. La inversión multimillonaria de Microsoft en OpenAI cambió radicalmente la naturaleza del proyecto. Ya no se trataba simplemente de un laboratorio con aspiraciones idealistas, sino de una pieza central en la estrategia geopolítica y empresarial de una de las compañías más poderosas del mundo. Ese es precisamente uno de los elementos más interesantes del juicio: aunque Microsoft no sea el protagonista mediático principal, su presencia lo impregna todo.</p>



<p>De hecho, una de las noticias más recientes y significativas del proceso ha sido la comparecencia de Satya Nadella, CEO de Microsoft, como testigo. Nadella defendió abiertamente que la transformación de OpenAI hacia una estructura con ánimo de lucro era necesaria para poder desarrollar la tecnología y escalarla globalmente. Según diversas crónicas del juicio, su testimonio se centró en justificar que sin enormes inversiones privadas, OpenAI jamás habría podido competir en la carrera global de la inteligencia artificial. Y probablemente tenga razón, y ese es precisamente el problema.</p>



<p>Porque la gran paradoja de toda esta historia es que ambos bandos tienen parte de verdad: Musk tiene razón cuando señala que OpenAI se alejó completamente del espíritu fundacional con el que fue presentada públicamente. La organización que prometía apertura terminó construyendo algunos de los sistemas más cerrados y opacos de toda la industria. Pero OpenAI también tiene razón cuando argumenta que desarrollar modelos avanzados requiere cantidades de capital simplemente incompatibles con un modelo filantrópico clásico.</p>



<p>La consecuencia es bastante inquietante: la inteligencia artificial parece haber alcanzado un nivel de complejidad y coste que hace prácticamente imposible mantener estructuras realmente abiertas e independientes. Y eso significa que el futuro de esta tecnología queda inevitablemente en manos de un número muy reducido de actores con capacidad para movilizar decenas de miles de millones de dólares.</p>



<p>El juicio está dejando además escenas enormemente simbólicas. El jurado, por ejemplo, está compuesto por ciudadanos completamente alejados del ecosistema tecnológico: una enfermera, un pintor, un jubilado, cuidadores, trabajadores normales que apenas utilizan herramientas de inteligencia artificial. Ese detalle resulta casi perfecto como metáfora de la situación actual. Las decisiones más importantes sobre el futuro tecnológico de la humanidad están siendo tomadas en un contexto que la mayoría de la sociedad apenas comprende. Y mientras tanto, fuera de la sala, se acumulan periodistas, estudiantes y curiosos como si asistieran a una mezcla entre espectáculo mediático y ajuste de cuentas histórico entre dos de las figuras más influyentes de Silicon Valley.</p>



<p>La jueza <a href="https://en.wikipedia.org/wiki/Yvonne_Gonzalez_Rogers" target="_blank" rel="noreferrer noopener">Yvonne Gonzalez Rogers</a>, conocida por haber llevado también casos de enorme relevancia tecnológica, ha intentado mantener el juicio dentro de parámetros estrictamente jurídicos. Ha rechazado referencias apocalípticas sobre el “fin de la humanidad” provocado por la inteligencia artificial y ha insistido en centrar el debate en cuestiones concretas de gobernanza, contratos y estructura corporativa.</p>



<p>Esa decisión también resulta enormemente reveladora, porque gran parte del debate público sobre inteligencia artificial se ha convertido en una especie de teatro del miedo. Constantemente aparecen discursos maximalistas sobre riesgos existenciales, superinteligencias descontroladas y escenarios de ciencia ficción. Sin embargo, cuando el asunto llega a los tribunales, lo que realmente emerge son cuestiones mucho más terrenales: dinero, control, participaciones accionariales, consejos de administración, licencias, infraestructuras&#8230; en realidad, el juicio está mostrando que la batalla por la inteligencia artificial no se parece tanto a un debate filosófico como a una lucha clásica por el dominio de una tecnología estratégica.</p>



<p>Y eso enlaza con algo que llevamos años viendo repetirse en internet: cada vez que aparece una tecnología transformadora, nace rodeada de ideales utópicos: apertura, descentralización, democratización, acceso universal. Sucedió con la web, con las redes sociales, con el <em>software</em> libre, con las criptomonedas y ahora con la inteligencia artificial. Una y otra vez ocurre lo mismo: la escala económica termina imponiendo dinámicas de concentración. Los costes crecen, las infraestructuras se vuelven críticas, y el control acaba concentrándose en muy pocas manos.</p>



<p>En ese sentido, OpenAI no es una anomalía. Es simplemente el último ejemplo de un patrón perfectamente reconocible. Quizá por eso el juicio está generando tanta atención. Porque funciona casi como una radiografía moral de Silicon Valley. Musk acusa a Altman de haber convertido un proyecto altruista en una máquina de extracción de valor, pero Musk dirige empresas caracterizadas precisamente por modelos extremadamente agresivos de concentración de poder. OpenAI defiende que su evolución era inevitable para competir globalmente, pero esa evolución destruye precisamente el relato ético y abierto sobre el que construyó inicialmente su legitimidad pública.</p>



<p><a href="https://www.businessinsider.com/musk-altman-openai-trial-final-questions-remain-sutskever-2026-5" target="_blank" rel="noreferrer noopener">Nadie sale completamente bien parado, y tal vez ese sea el aspecto más honesto de todo el proceso</a>. Las filtraciones y testimonios recientes han añadido todavía más tensión. La <a href="https://www.theguardian.com/technology/2026/may/05/openai-president-personal-diary-musk-altman-case" target="_blank" rel="noreferrer noopener">publicación de fragmentos del diario personal de Greg Brockman</a>, presidente de OpenAI, ha servido para alimentar las acusaciones de Musk sobre supuestas intenciones ocultas desde los primeros años del proyecto. Brockman respondió calificando esos textos como simples reflexiones privadas y no como pruebas de una estrategia deliberada. </p>



<p>Mientras tanto, el propio Musk ha intentado reforzar su posición afirmando que no busca enriquecerse personalmente con la demanda y que cualquier compensación económica debería regresar a la organización sin ánimo de lucro original. Pero incluso esa posición tiene algo profundamente ambiguo, porque cuesta mucho interpretar este conflicto exclusivamente como una cruzada ética cuando Musk compite directamente contra OpenAI a través de xAI y Grok. </p>



<p>La sensación general es que estamos viendo cómo los principios se invocan estratégicamente cuando coinciden con intereses empresariales concretos. Y eso también explica por qué, fuera del juzgado, muchas de las protestas no apoyan realmente a ninguno de los dos bandos. Existe una percepción creciente de que el problema no es simplemente quién gane este caso, sino el hecho mismo de que el futuro de una tecnología tan trascendental esté quedando atrapado en disputas corporativas y estructuras privadas opacas. La cuestión de fondo no es si OpenAI traicionó o no su misión fundacional. La cuestión verdaderamente importante es otra: ¿era siquiera posible mantener aquella misión original una vez que la inteligencia artificial empezó a convertirse en la infraestructura económica más importante del siglo XXI?</p>



<p>Y la respuesta, probablemente, es bastante incómoda, porque todo indica que no. La reciente cobertura de medios como Wired, Forbes, Axios o Business Insider coincide precisamente en esa idea: el juicio no decidirá únicamente el destino de OpenAI, sino que puede redefinir cómo se estructurarán las grandes compañías de inteligencia artificial en el futuro. </p>



<p>Si Musk ganase y los tribunales concluyesen que una organización nacida con objetivos filantrópicos no puede transformarse posteriormente en una estructura comercial sin violar sus compromisos fundacionales, el impacto sería enorme. No solo para OpenAI, sino para cualquier laboratorio de inteligencia artificial que intente atraer inversión privada manteniendo simultáneamente un discurso ético o de beneficio público. Y si OpenAI gana, el mensaje será igualmente poderoso: significará que incluso las promesas fundacionales más idealistas pueden reinterpretarse cuando la lógica económica y competitiva lo exige.</p>



<p>En ambos casos, el resultado parece conducir hacia la misma conclusión: <a href="https://www.axios.com/2026/05/05/musk-open-ai-idealism" target="_blank" rel="noreferrer noopener">la era ingenua de la inteligencia artificial ha terminado</a>. Aquella fase en la que podíamos imaginar laboratorios abiertos colaborando desinteresadamente «por el bien de la humanidad» está desapareciendo rápidamente. La IA ya no es únicamente investigación: es infraestructura estratégica, es geopolítica, es seguridad nacional, es poder económico&#8230; <a href="https://www.forbes.com/sites/jonmarkman/2026/05/01/inside-openai-trial-how-musk-v-altman-will-define-the-future-of-ai/" target="_blank" rel="noreferrer noopener">y precisamente por eso, este juicio importa muchísimo más de lo que parece</a>. </p>



<p>Porque no estamos viendo simplemente a Musk y Altman peleándose por el pasado de OpenAI: estamos viendo cómo se decide quién tendrá legitimidad para controlar el futuro de la inteligencia artificial.</p>



<p>Y esa batalla acaba de empezar.</p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is also openly available in English on my Medium page using this link, «<a href="https://medium.com/enrique-dans/openai-on-trial-the-end-of-silicon-valleys-moral-myth-9398ca6cb528?sk=809147c7e6826ebe60408bf4808deeaa" data-type="link" data-id="https://medium.com/enrique-dans/openai-on-trial-the-end-of-silicon-valleys-moral-myth-9398ca6cb528?sk=809147c7e6826ebe60408bf4808deeaa" target="_blank" rel="noreferrer noopener">OpenAI on trial: the end of Silicon Valley’s moral myth</a>» </em></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/05/musk-contra-altman-el-juicio-que-esta-enterrando-el-idealismo-de-la-inteligencia-artificial.html/feed</wfw:commentRss>
			<slash:comments>21</slash:comments>
		
		
			</item>
		<item>
		<title>Después de la ilusión: en qué debe convertirse la inteligencia artificial empresarial</title>
		<link>https://www.enriquedans.com/2026/05/despues-de-la-ilusion-en-que-debe-convertirse-la-inteligencia-artificial-empresarial.html</link>
					<comments>https://www.enriquedans.com/2026/05/despues-de-la-ilusion-en-que-debe-convertirse-la-inteligencia-artificial-empresarial.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Mon, 11 May 2026 08:25:54 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[corporate]]></category>
		<category><![CDATA[Fast Company]]></category>
		<category><![CDATA[Large Language Model]]></category>
		<category><![CDATA[strategy]]></category>
		<category><![CDATA[TuringDream]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57865</guid>

					<description><![CDATA[En un artículo anterior, defendí que los grandes modelos de lenguaje no son arquitectura empresarial. El feedback y las respuestas que recibí fueron claras: ese argumento es difícil de rebatir. La pregunta más difícil es qué viene después: o sea, «si no es esto, entonces ¿qué?» Es la pregunta correcta. Porque el problema nunca fue  <a href="https://www.enriquedans.com/2026/05/despues-de-la-ilusion-en-que-debe-convertirse-la-inteligencia-artificial-empresarial.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-large is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/05/From-LLMs-to-next-phase-Dall·E.jpg"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/05/From-LLMs-to-next-phase-Dall·E-1024x1024.jpg" alt="IMAGE: A person walks across a narrow bridge from a dark, cluttered workspace into a bright, organized environment filled with interconnected systems, symbolizing the transition from ineffective AI tools to integrated, action-oriented enterprise systems " class="wp-image-57866" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/05/From-LLMs-to-next-phase-Dall·E-1024x1024.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/05/From-LLMs-to-next-phase-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/05/From-LLMs-to-next-phase-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/05/From-LLMs-to-next-phase-Dall·E-768x768.jpg 768w, https://www.enriquedans.com/wp-content/uploads/2026/05/From-LLMs-to-next-phase-Dall·E.jpg 1254w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>En un <a href="https://www.enriquedans.com/2026/05/el-emperador-esta-desnudo-los-llm-nunca-fueron-disenados-para-dirigir-una-empresa.html" target="_blank" rel="noreferrer noopener">artículo anterior</a>, defendí que los grandes modelos de lenguaje no son arquitectura empresarial. El <em>feedback</em> y las respuestas que recibí fueron claras: ese argumento es difícil de rebatir. La pregunta más difícil es qué viene después: o sea, <strong>«si no es esto, entonces ¿qué?»</strong></p>



<p>Es la pregunta correcta. Porque el problema nunca fue que la inteligencia artificial no funcionara. Funciona, claramente. El problema es que intentamos colocarla en la capa equivocada.</p>



<p></p>



<h3 class="wp-block-heading"><strong>Fallamos al decidir dónde poner la inteligencia artificial</strong></h3>



<p>Durante los dos últimos años, las empresas han invertido decenas de miles de millones en inteligencia artificial generativa. El resultado no es ambigüedad. Es claridad. Un cuerpo creciente de investigación, incluyendo <a href="https://aimagazine.com/news/mit-why-95-of-enterprise-ai-investments-fail-to-deliver" target="_blank" rel="noreferrer noopener">un estudio del MIT ampliamente citado</a>, muestra que alrededor del 95% de las iniciativas empresariales de inteligencia artificial generativa no logran producir un impacto de negocio medible, a pesar de una adopción muy extendida.</p>



<p>No es porque los modelos no funcionen: es porque fueron insertados en las organizaciones como herramientas, no como sistemas. Intentamos atornillar inteligencia a los flujos de trabajo, cuando lo que necesitamos son <strong>sistemas en los que la inteligencia sea el flujo de trabajo</strong>.</p>



<p></p>



<h3 class="wp-block-heading"><strong>De herramientas sin estado a sistemas persistentes</strong></h3>



<p>Los grandes modelos de lenguaje son, por diseño, sistemas sin estado: cada interacción empieza desde cero salvo que reconstruyamos artificialmente el contexto. Las empresas son lo contrario. Son sistemas con estado: acumulan decisiones, siguen relaciones, evolucionan en el tiempo y dependen de la continuidad. </p>



<p>Este desajuste no es una incomodidad menor. Es estructural. La investigación sobre fracasos de inteligencia artificial empresarial <a href="https://www.transparent.tech/mit-says-95-of-enterprise-ai-fails-heres-what-the-5-are-doing-right/" target="_blank" rel="noreferrer noopener">apunta de forma consistente al mismo problema</a>: los sistemas no fallan porque generen malas respuestas, sino porque <strong>no pueden integrarse en procesos continuos ni mantener contexto a lo largo del tiempo</strong>.</p>



<p>La inteligencia artificial empresarial no puede estar basada en sesiones. Tiene que recordar.</p>



<p></p>



<h3 class="wp-block-heading"><strong>De respuestas a resultados</strong></h3>



<p>Optimizamos la inteligencia artificial para responder preguntas. Pero las empresas necesitan sistemas que cambien resultados. Aquí es donde la brecha se vuelve evidente: un LLM puede generar una estrategia comercial convincente, pero no puede seguir si funcionó, adaptarse en función de los resultados, coordinar la ejecución entre equipos ni mejorar con el tiempo.</p>



<p>Eso no es una limitación de implementación: es una limitación de diseño.</p>



<p>La misma investigación del MIT describe una “brecha GenAI”: <a href="https://www.forbes.com/sites/jasonsnyder/2025/08/26/mit-finds-95-of-genai-pilots-fail-because-companies-avoid-friction/" target="_blank" rel="noreferrer noopener">organizaciones atrapadas en una alta adopción pero baja transformación</a>, precisamente porque los sistemas actuales no cierran el bucle entre acción y resultado.</p>



<p>Las respuestas no cambian las empresas. Los sistemas sí. </p>



<p></p>



<h3 class="wp-block-heading"><strong>De <em>prompts</em> a restricciones</strong></h3>



<p>Buena parte de la conversación actual sobre IA gira en torno a los <em>prompts</em>. Pero los <em>prompts</em> son solo una interfaz. Las empresas no operan mediante <em>prompts</em>: operan mediante restricciones, reglas de cumplimiento, permisos, umbrales de riesgo y límites operativos.</p>



<p>Y ahí es donde se rompen la mayoría de los sistemas de inteligencia artificial. Generan dentro de probabilidades. Las empresas operan dentro de restricciones.</p>



<p>Esta es una de las razones menos discutidas y más importantes por las que las iniciativas de inteligencia artificial empresarial se atascan. Incluso la investigación más amplia en inteligencia artificial muestra que <a href="https://www.rand.org/pubs/research_reports/RRA2680-1.html" data-type="link" data-id="https://www.rand.org/pubs/research_reports/RRA2680-1.html" target="_blank" rel="noreferrer noopener">los proyectos fallan cuando los sistemas no están alineados con restricciones reales, flujos de trabajo y contextos de decisión</a>.</p>



<p>Los <em>prompts</em> son UX. Las restricciones son arquitectura.</p>



<p></p>



<h3 class="wp-block-heading"><strong>De copilots a sistemas de acción</strong></h3>



<p>La metáfora dominante de los dos últimos años ha sido la del <em>«copilot»</em>. Suena atractiva, pero también es engañosa. Un copiloto sólo sugiere, una empresa necesita sistemas que actúen. La diferencia importa, porque sugerir es barato, pero ejecutar es difícil.</p>



<p>La ejecución exige </p>



<ul class="wp-block-list">
<li>Integración con sistemas de registro</li>



<li>Coordinación entre procesos</li>



<li>Responsabilidad sobre los resultados </li>



<li>Adaptación en el tiempo.</li>
</ul>



<p>Y ahí es precisamente donde colapsan la mayoría de los enfoques actuales. No porque estén mal implementados, sino porque nunca fueron diseñados para eso.</p>



<p></p>



<h3 class="wp-block-heading"><strong>El cambio de arquitectura del que casi nadie habla</strong></h3>



<p>¿Qué sustituye entonces a esto? No mejores <em>prompts</em>, ni modelos más grandes, y desde luego no más infraestructura. La siguiente fase de la inteligencia artificial empresarial estará definida por algo completamente distinto:</p>



<p>Sistemas que combinen: </p>



<ul class="wp-block-list">
<li>Estado persistente</li>



<li>Flujos de trabajo embebidos</li>



<li>Aprendizaje continuo a partir de resultados</li>



<li>Operación bajo restricciones </li>



<li>Integración con entornos reales.</li>
</ul>



<p>En otras palabras: sistemas que no solo generen lenguaje sobre el mundo, sino que operen dentro de él.</p>



<p>La investigación y la práctica están <a href="https://trullion.com/blog/why-95-of-ai-projects-fail-and-why-the-5-that-survive-matter/" target="_blank" rel="noreferrer noopener">convergiendo en la misma conclusión</a>: el éxito no viene de herramientas genéricas, sino de sistemas que se <strong>adaptan, aprenden y se integran en los flujos de trabajo</strong>.</p>



<p></p>



<h3 class="wp-block-heading"><strong>Por qué este cambio parecerá una discontinuidad</strong></h3>



<p>Todavía estamos al principio de esta transición. La mayoría de las organizaciones invierte en la capa visible: modelos, interfaces, infraestructura. Pero el verdadero cambio está ocurriendo una capa más abajo.</p>



<p>Y cuando se haga visible, no parecerá una mejora incremental: parecerá una discontinuidad. Porque no estamos pasando de una «inteligencia artificial peor» a una «inteligencia artificial mejor». Estamos pasando de herramientas que hablan a sistemas que actúan.</p>



<p></p>



<h3 class="wp-block-heading"><strong>La verdadera oportunidad</strong></h3>



<p>Esto no es el final de la inteligencia artificial empresarial: es el final de un malentendido. Los modelos de lenguaje por sí solos no son arquitectura empresarial, son una capa de interfaz. Una muy potente, pero completamente insuficiente por sí sola.</p>



<p>Las empresas que lo entiendan primero no solo desplegarán mejor la inteligencia artificial. Construirán algo que sus competidores no reconocerán&#8230; hasta que sea demasiado tarde.</p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>(This article was <a href="https://www.fastcompany.com/91532024/after-illusion-what-enterprise-ai-must-become" target="_blank" rel="noreferrer noopener">previously published on Fast Company</a>) </em></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/05/despues-de-la-ilusion-en-que-debe-convertirse-la-inteligencia-artificial-empresarial.html/feed</wfw:commentRss>
			<slash:comments>6</slash:comments>
		
		
			</item>
		<item>
		<title>La nueva interfaz de la vigilancia se llama agente</title>
		<link>https://www.enriquedans.com/2026/05/la-nueva-interfaz-de-la-vigilancia-se-llama-agente.html</link>
					<comments>https://www.enriquedans.com/2026/05/la-nueva-interfaz-de-la-vigilancia-se-llama-agente.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Sun, 10 May 2026 08:11:44 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[agentic]]></category>
		<category><![CDATA[agents]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[Big Tech]]></category>
		<category><![CDATA[control]]></category>
		<category><![CDATA[Google]]></category>
		<category><![CDATA[intimacy]]></category>
		<category><![CDATA[Meta]]></category>
		<category><![CDATA[OpenClaw]]></category>
		<category><![CDATA[privacy]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57858</guid>

					<description><![CDATA[Durante años, las grandes tecnológicas nos pidieron datos. Ahora quieren que les demos poderes. El salto de los asistentes conversacionales a los agentes no es una mejora incremental: es un cambio de naturaleza. Un chatbot responde, un agente actúa. Entra en tu correo, agenda reuniones, compra, reserva, reorganiza documentos, consulta repositorios, usa contraseñas, opera sobre  <a href="https://www.enriquedans.com/2026/05/la-nueva-interfaz-de-la-vigilancia-se-llama-agente.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-large is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/05/Agentic-platforms-Dall·E.jpg"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/05/Agentic-platforms-Dall·E-1024x1024.jpg" alt="IMAGE: A user sits at a computer while a glowing AI agent, controlled like a puppet by shadowy figures above, manages apps like Gmail, Google Drive, Facebook, Instagram, and WhatsApp, surrounded by flowing personal data that reveals how much the system knows about them " class="wp-image-57859" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/05/Agentic-platforms-Dall·E-1024x1024.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/05/Agentic-platforms-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/05/Agentic-platforms-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/05/Agentic-platforms-Dall·E-768x768.jpg 768w, https://www.enriquedans.com/wp-content/uploads/2026/05/Agentic-platforms-Dall·E.jpg 1254w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Durante años, las grandes tecnológicas nos pidieron datos. Ahora quieren que les demos poderes.</p>



<p>El salto de los asistentes conversacionales a los agentes no es una mejora incremental: es un cambio de naturaleza. Un <em>chatbot</em> responde, un agente actúa. Entra en tu correo, agenda reuniones, compra, reserva, reorganiza documentos, consulta repositorios, usa contraseñas, opera sobre servicios y, en definitiva, ejecuta acciones en tu nombre. Por eso la carrera actual no va simplemente de «hacer la vida más cómoda», sino de conquistar la capa más íntima de la vida digital.</p>



<p><a href="https://www.ft.com/content/5b48360c-53f2-444a-80a8-f7034750fd62?syn-25a6b1a6=1" target="_blank" rel="noreferrer noopener">Meta está desarrollando un asistente agéntico para sus más de tres mil millones de usuarios, capaz de realizar tareas cotidianas y diseñado para que los usuarios puedan compartir incluso información sanitaria o financiera con él</a>. La propia fuente citada en el artículo resumía el problema con una frase devastadora: hay un déficit de confianza «tan ancho como el Gran Cañón». <a href="https://www.businessinsider.com/google-ai-agent-openclaw-remy-gemini-assistant-2026-5" target="_blank" rel="noreferrer noopener">Google, por su parte, trabaja en agentes persistentes integrados en Gemini, concebidos como asistentes permanentes capaces de operar en nombre del usuario en todos los ámbitos de su vida digital</a>.</p>



<p>La explicación oficial será, como siempre, la conveniencia. Que el agente compre por nosotros, resuma correos, organice viajes, encuentre documentos o gestione calendarios. Y sí, todo eso puede ser extraordinariamente útil. Pero conviene no olvidar <a href="https://www.cnbc.com/2026/05/08/ai-agent-meta-google-agentic-wars-tech-download.html" target="_blank" rel="noreferrer noopener">quién está corriendo más deprisa para proporcionarlo</a>: precisamente Meta y Google, dos compañías cuya posición dominante se construyó sobre la captura masiva de datos personales, la inferencia conductual y la monetización publicitaria de nuestra vida cotidiana.</p>



<p>Aquí es donde entra <a href="https://en.wikipedia.org/wiki/OpenClaw" target="_blank" rel="noreferrer noopener">OpenClaw</a>, el catalizador de esta fiebre. Se trata de una plataforma agéntica abierta que permite a los usuarios crear sus propios agentes para automatizar tareas complejas. Su popularidad reciente no es casual: demostró que existe una demanda real de sistemas que no solo respondan, sino que actúen. Pero también puso de manifiesto algo mucho más interesante: que ese poder puede, al menos en parte, permanecer en manos del usuario.</p>



<p>A diferencia de las soluciones centralizadas de las grandes tecnológicas, OpenClaw se distribuye como <em>software</em> que el usuario puede ejecutar en su propio entorno, sea en un ordenador o en un espacio en la nube. Eso implica, con matices importantes, que los datos, las credenciales y el contexto operativo pueden permanecer bajo su control, dependiendo de cómo se configure y despliegue. No es una garantía absoluta de privacidad, por supuesto, pero sí un cambio de paradigma: el agente no tiene por qué ser necesariamente un intermediario corporativo: puede ser tuyo.</p>



<p>El problema es que OpenClaw no es para cualquiera. Su instalación, configuración y mantenimiento siguen estando claramente fuera del alcance del usuario medio. Requiere conocimientos técnicos, comprensión de permisos, integración con servicios y, sobre todo, una cierta cultura de autogestión tecnológica que está muy lejos de ser mayoritaria. Y ahí es exactamente donde Meta y Google han visto la oportunidad.</p>



<p><a href="https://investor.atmeta.com/investor-news/press-release-details/2026/Meta-Reports-Fourth-Quarter-and-Full-Year-2025-Results/default.aspx" target="_blank" rel="noreferrer noopener">Meta obtuvo en 2025 unos ingresos de 200,970 millones de dólares</a> impulsados por publicidad, con más impresiones y mayor precio medio por anuncio . Google sigue siendo, esencialmente, una gigantesca máquina de intermediación publicitaria, ahora reforzada por inteligencia artificial y por una integración cada vez más profunda de sus servicios. Cuando compañías con ese historial dicen que quieren crear «asistentes personales», la pregunta correcta no es qué tareas harán por nosotros, sino qué información nuestra capturarán mientras las hacen. Porque lo que estas compañías están intentando hacer no es solo construir agentes: es eliminar la fricción. Convertir algo que hoy es complejo, distribuido y potencialmente controlado por el usuario en un servicio sencillo, integrado, invisible&#8230; y centralizado. Lo que Zuckerberg plantea cuando habla de «una versión pulida que simplemente funcione» no es una mejora de usabilidad: es una reapropiación del modelo.</p>



<p>La historia se repite. La web abierta dio paso a plataformas cerradas porque eran más cómodas. El <em>software</em> instalable fue sustituido por servicios en la nube porque eran más accesibles. El correo autogestionado cedió ante Gmail porque funcionaba mejor. Y en cada transición, el usuario ganó facilidad y perdió control.</p>



<p>Ahora ocurre lo mismo con los agentes. OpenClaw representa una versión embrionaria de lo que podría ser un ecosistema descentralizado de agentes personales, pero su complejidad lo convierte en un producto de nicho. Meta y Google pretenden resolver ese problema&#8230; a cambio de convertir al agente en otro vector de extracción de datos.</p>



<p>Y los incentivos son claros. Los analistas citados por CNBC lo expresan sin ambigüedad: los agentes son una nueva infraestructura de ingresos, capaces de generar valor a través del comercio, la publicidad y la productividad . Más aún, crean <em>engagement</em>, aumentan la dependencia y refuerzan el <em>lock-in</em>. No solo saben más de ti: hacen más cosas por ti. Y cuanto más hacen, más difícil resulta prescindir de ellos.</p>



<p>Un agente es el sueño húmedo del capitalismo de vigilancia. No observa solo lo que publicamos o buscamos: observa intenciones antes de que se materialicen, sabe qué duda tenemos antes de decidir, qué compra estamos considerando antes de ejecutarla, qué problema intentamos resolver antes de formularlo completamente. Ya no hablamos de perfilar usuarios a partir de datos pasivos: hablamos de integrar un sistema activo en el núcleo de su comportamiento.</p>



<p>El riesgo no es únicamente que el agente se equivoque, aunque los ejemplos ya existen, como agentes que eliminan correos o ejecutan acciones no deseadas . El riesgo es estructural. Para funcionar, estos sistemas necesitan acceso continuo, permisos amplios y memoria persistente. Cada uno de esos elementos es una superficie de captura de datos. Y cada dato alimenta modelos cuyo objetivo no es servir al usuario, sino monetizar su comportamiento.</p>



<p>El precedente debería bastar para desconfiar. Las mismas empresas que ahora aspiran a gestionar nuestras acciones son las que durante años han explotado nuestra información con escasa transparencia y múltiples conflictos regulatorios. Pensar que, en este nuevo contexto, actuarán como guardianes neutrales de nuestra intimidad implica ignorar toda la evidencia acumulada durante años. No, en este contexto, los malos jamás se vuelven buenos.</p>



<p>Los agentes son <a href="https://cheatsheetseries.owasp.org/cheatsheets/AI_Agent_Security_Cheat_Sheet.html" target="_blank" rel="noreferrer noopener">sistemas capaces de razonar, planificar, usar herramientas, mantener memoria y actuar para cumplir objetivos</a>, y esa capacidad expande la superficie de riesgo más allá del <em>prompt injection</em> tradicional . <a href="https://noma.security/blog/open-ai-chatgpt-agent-a-cisos-guide/" target="_blank" rel="noreferrer noopener">Un agente conectado a navegación autenticada o a servicios como Gmail, Google Drive o GitHub puede filtrar datos o ejecutar acciones destructivas si recibe instrucciones maliciosas</a>. La cuestión no es si habrá incidentes: la cuestión es cuántos, con qué impacto y bajo qué régimen de responsabilidad. Pero como siempre, nadie se va a leer los términos de uso, así que dará igual.</p>



<p>La palabra clave aquí es «agencia». Delegar en un agente es ceder capacidad de acción. Y hacerlo en favor de una plataforma cuyo modelo de negocio depende de influir en nuestras decisiones introduce un conflicto fundamental. Cuando el agente decide qué comprar, qué priorizar o qué sugerir, lo hace dentro de un entorno diseñado por una empresa con intereses propios.</p>



<p>Por eso la carrera agéntica no es una evolución natural de la inteligencia artificial, sino una batalla por el control de la interfaz más crítica de todas: la que media entre intención y acción. Quien controle el agente controlará no solo los datos, sino las decisiones.</p>



<p>La comodidad será real. También lo fue la de las redes sociales gratuitas, la del correo gratuito o la del almacenamiento en la nube. Pero nunca fue gratis. Y ahora el precio puede ser aún mayor, porque no solo cedemos información: cedemos capacidad operativa.</p>



<p>La alternativa existe, aunque hoy sea imperfecta. Pasa por agentes que podamos ejecutar localmente, auditar, controlar y limitar. Por estándares abiertos, interoperabilidad real y modelos que no dependan de la vigilancia. OpenClaw apunta en esa dirección, pero su relativa complejidad aún lo mantiene fuera del alcance de la mayoría. Y precisamente por eso las grandes tecnológicas ven una oportunidad histórica.</p>



<p>No están simplificando la tecnología por altruismo: están rediseñando el punto de control. Meta y Google no compiten por darnos mejores herramientas, compiten por asegurarse de que, cuando deleguemos nuestras acciones en una máquina, esa máquina les pertenezca y la puedan controlar. Y en ese momento, la vigilancia dejará de ser algo que ocurre mientras usamos tecnología, y pasará a ser algo que actúa por nosotros al servicio de una <em>big tech</em>. Buena suerte.</p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is also openly available in English on my Medium page using this link, «<a href="https://medium.com/enrique-dans/for-years-big-tech-has-harvested-our-data-now-it-wants-us-to-hand-over-our-lives-9d24c8b77658?sk=d4f90f27f57b00ce3d6589e585ceb6f6" data-type="link" data-id="https://medium.com/enrique-dans/for-years-big-tech-has-harvested-our-data-now-it-wants-us-to-hand-over-our-lives-9d24c8b77658?sk=d4f90f27f57b00ce3d6589e585ceb6f6" target="_blank" rel="noreferrer noopener">For years, Big Tech has harvested our data. Now it wants us to hand over our lives</a>«</em></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/05/la-nueva-interfaz-de-la-vigilancia-se-llama-agente.html/feed</wfw:commentRss>
			<slash:comments>14</slash:comments>
		
		
			</item>
		<item>
		<title>La máquina de espiar no se arregla cambiando el botón: se apaga prohibiendo su modelo de negocio</title>
		<link>https://www.enriquedans.com/2026/05/la-maquina-de-espiar-no-se-arregla-cambiando-el-boton-se-apaga-prohibiendo-su-modelo-de-negocio.html</link>
					<comments>https://www.enriquedans.com/2026/05/la-maquina-de-espiar-no-se-arregla-cambiando-el-boton-se-apaga-prohibiendo-su-modelo-de-negocio.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Sat, 09 May 2026 09:09:25 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[advertising]]></category>
		<category><![CDATA[democracy]]></category>
		<category><![CDATA[manipulation]]></category>
		<category><![CDATA[Meta]]></category>
		<category><![CDATA[predatory]]></category>
		<category><![CDATA[social media]]></category>
		<category><![CDATA[social networks]]></category>
		<category><![CDATA[surveillance]]></category>
		<category><![CDATA[TikTok]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57852</guid>

					<description><![CDATA[Durante años hemos llamado «redes sociales» a algo que hace ya mucho tiempo dejó de serlo. La palabra red sugería relaciones, comunidades, conversación, vínculos entre personas. Pero lo que tenemos hoy en Facebook, Instagram, TikTok, X o YouTube no es una red social: es una infraestructura industrial de extracción de atención, alimentada por vigilancia masiva,  <a href="https://www.enriquedans.com/2026/05/la-maquina-de-espiar-no-se-arregla-cambiando-el-boton-se-apaga-prohibiendo-su-modelo-de-negocio.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-large is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/05/Social-media-surveillance-Dall·E.jpg"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/05/Social-media-surveillance-Dall·E-1024x1024.jpg" alt="IMAGE: A crowd of people stare at their phones while a giant smartphone looms above them, controlled by puppet-like hands and a glowing eye, symbolizing surveillance and manipulation " class="wp-image-57853" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/05/Social-media-surveillance-Dall·E-1024x1024.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/05/Social-media-surveillance-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/05/Social-media-surveillance-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/05/Social-media-surveillance-Dall·E-768x768.jpg 768w, https://www.enriquedans.com/wp-content/uploads/2026/05/Social-media-surveillance-Dall·E.jpg 1254w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Durante años hemos llamado «redes sociales» a algo que hace ya mucho tiempo dejó de serlo. La palabra red sugería relaciones, comunidades, conversación, vínculos entre personas. Pero lo que tenemos hoy en Facebook, Instagram, TikTok, X o YouTube no es una red social: es <a href="https://journalqd.org/article/view/9611/7965" target="_blank" rel="noreferrer noopener">una infraestructura industrial de extracción de atención, alimentada por vigilancia masiva, optimizada para mantenernos dentro el mayor tiempo posible y convertir cada gesto, pausa, desplazamiento, reacción o duda en un dato monetizable</a>.</p>



<p>El nuevo trabajo de <a href="https://maiklarooij.nl/" target="_blank" rel="noreferrer noopener">Maik Larooij</a> y <a href="https://www.pettertornberg.com/" target="_blank" rel="noreferrer noopener">Petter Törnberg</a>, <em>«<a href="https://arxiv.org/pdf/2508.03385">Can We Fix Social Media</a>?»</em>, resulta especialmente incómodo porque hace precisamente la pregunta que muchos reguladores siguen evitando: ¿podemos arreglar las redes sociales con pequeños ajustes de diseño? La respuesta es devastadora: los investigadores simulan una plataforma social con agentes basados en modelos de lenguaje y prueban intervenciones muy razonables: <em>feed</em> cronológico, ocultar métricas, promover contenido de puente, introducir diversidad ideológica. El resultado es que las mejoras son modestas, parciales o incluso contraproducentes: las cámaras de eco, la concentración de atención y la amplificación de voces extremas aparecen de nuevo, como si fueran propiedades estructurales del sistema y no simples errores de diseño. </p>



<p>Esto conecta con la tesis del <a href="https://arstechnica.com/science/2025/08/study-social-media-probably-cant-be-fixed/" target="_blank" rel="noreferrer noopener">artículo de Ars Technica sobre el estudio</a>: quizá las redes sociales, tal y como están construidas, simplemente no pueden arreglarse. No porque falten ingenieros brillantes, ni porque los usuarios sean especialmente estúpidos, ni porque no hayamos encontrado aún el algoritmo correcto, sino porque el mecanismo básico está podrido: crecimiento de red, reacción emocional, visibilidad, retroalimentación, polarización y más crecimiento. </p>



<p>Otro artículo de Ars Technica, sobre el supuesto <em>«<a href="https://arstechnica.com/science/2026/05/rip-social-media-what-comes-next-is-messy/" target="_blank" rel="noreferrer noopener">RIP social media</a>«</em>, apunta a una segunda transformación: la descomposición de la vieja plaza pública digital en espacios más fragmentados, privados, semiprivados, algorítmicos o mediados por inteligencia artificial. Pero que algo se fragmente no significa que se sane. La investigación de Törnberg sobre el uso de redes sociales en Estados Unidos entre 2020 y 2024 muestra un panorama de declive, fragmentación y polarización persistente: los usuarios casuales se retiran, los más polarizados permanecen, y la conversación visible se vuelve más estrecha, más extrema y menos representativa.</p>



<p>Este paper aún en <em>pre-print</em> del propio Törnberg, <em>«<a href="https://osf.io/preprints/socarxiv/6nue7_v1" target="_blank" rel="noreferrer noopener">Towards a post-social media studies</a>«</em>, lo formula con claridad: estamos entrando en una etapa posterior al paradigma clásico de las redes sociales. El contenido generado por usuarios deja de ser el centro, los grafos sociales pierden peso frente a sistemas de recomendación opacos, la conversación pública se desplaza hacia espacios cerrados o efímeros, y la inteligencia artificial empieza a convertirse no solo en intermediario, sino en medio de comunicación en sí mismo. Dicho de otra manera: el problema ya no es únicamente que las redes sociales funcionen mal, sino que el propio concepto de red social se está disolviendo en una maquinaria aún menos visible, aún menos auditable y aún más personalizada.</p>



<p>Por eso es tan absurdo que el debate político siga girando en torno a parches: prohibir el <em>scroll</em> infinito, poner etiquetas, pedir más moderadores, ocultar los <em>«likes»</em>, exigir controles de edad o confiar en que las plataformas diseñen voluntariamente entornos más sanos. Todo eso puede tener algún efecto marginal, pero no toca la raíz. Es como intentar combatir el tabaquismo obligando a cambiar el color del paquete, pero permitiendo a la industria seguir manipulando la nicotina para maximizar la dependencia. </p>



<p>La raíz es el modelo de vigilancia. La Federal Trade Commission estadounidense lo dijo con una claridad poco habitual en un regulador: <a href="https://www.ftc.gov/news-events/news/press-releases/2024/09/ftc-staff-report-finds-large-social-media-video-streaming-companies-have-engaged-vast-surveillance" target="_blank" rel="noreferrer noopener">las grandes plataformas sociales y de vídeo han desplegado una vigilancia masiva de los usuarios para monetizar su información personal, con controles de privacidad insuficientes y protecciones inadecuadas para menores y adolescentes</a>. No hablamos de una metáfora. Hablamos de una industria cuyo incentivo económico fundamental consiste en observar, inferir, clasificar, predecir y manipular. </p>



<p>Ese es el punto que Europa debe asumir de una vez. No se trata de prohibir empresas concretas, ni de castigar nombres propios, ni de construir un ministerio de la verdad, ni de identificar a toda la población para supuestamente proteger a los menores. Se trata de declarar ilegítimo un modelo de negocio basado en la vigilancia sistemática de las personas. El European Data Protection Board ya ha señalado que <a href="https://www.edpb.europa.eu/system/files/2024-04/edpb_opinion_202408_consentorpay_en.pdf" target="_blank" rel="noreferrer noopener">los modelos de «consentimiento o pago» de las grandes plataformas difícilmente pueden considerarse válidos cuando el consentimiento no es realmente libre</a>. La pregunta, por tanto, no es técnica: es puramente política.</p>



<p>Mientras una plataforma gane más cuanto más tiempo consiga retenernos, y mientras ese tiempo se traduzca en más datos, más perfiles y más segmentación publicitaria, cualquier discurso sobre bienestar digital será propaganda. El algoritmo no está ahí para informarnos mejor, ni para hacernos más felices, ni para fortalecer la democracia. Está ahí para maximizar una función de negocio. Y si la ira, el miedo, la envidia, la indignación o la pertenencia tribal funcionan mejor que la serenidad, la complejidad o el pensamiento crítico, el sistema aprenderá a producir exactamente eso. </p>



<p>Por eso la solución no puede consistir en pedir a Meta, TikTok, X o YouTube que sean «más responsables». Llevamos demasiados años escuchando esa farsa. La solución pasa por prohibir la publicidad comportamental basada en vigilancia, limitar drásticamente la recogida y reutilización de datos personales, imponer interoperabilidad real, exigir auditorías externas de los sistemas de recomendación y obligar a que las plataformas funcionen con modelos que no dependan de conocer al usuario mejor de lo que el usuario se conoce a sí mismo. </p>



<p>Habrá quien diga que eso destruiría internet gratis. No: destruiría una versión profundamente tóxica de internet financiada mediante una violación permanente de la privacidad. También se dijo que prohibir fumar en espacios cerrados destruiría la hostelería, que exigir cinturones de seguridad era paternalismo o que regular los vertidos industriales acabaría con la economía. Lo que ocurre siempre es lo mismo: cuando una industria ha normalizado una externalidad brutal, presenta cualquier intento de limitarla como una amenaza civilizatoria. </p>



<p>Las redes sociales actuales no son una infraestructura neutral contaminada por algunos malos actores. Son máquinas de extracción diseñadas para convertir la vida social en materia prima. Y cuando una máquina está construida para espiar, enganchar y polarizar, no se arregla puliendo la interfaz. Se arregla cambiando la ley que permite que esa máquina exista en esas condiciones. </p>



<p>La cuestión de fondo es muy sencilla: una sociedad democrática no puede delegar su conversación pública en empresas cuyo negocio mejora cuando esa conversación se degrada. Y cuanto antes dejemos de fingir que esto es un problema de diseño, de educación digital o de moderación de contenidos, antes podremos formular la única pregunta que realmente importa: ¿vamos a seguir permitiendo que la vigilancia sea el precio de participar en la vida social digital? </p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is also openly available in English on my Medium page using this link, «<a href="https://medium.com/enrique-dans/as-long-as-surveillance-pays-social-networks-will-remain-toxic-f24762df7a2d?sk=5f71979b80cac7398893421897e7765c" data-type="link" data-id="https://medium.com/enrique-dans/as-long-as-surveillance-pays-social-networks-will-remain-toxic-f24762df7a2d?sk=5f71979b80cac7398893421897e7765c" target="_blank" rel="noreferrer noopener">As long as surveillance pays, social networks will remain toxic</a>» </em></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/05/la-maquina-de-espiar-no-se-arregla-cambiando-el-boton-se-apaga-prohibiendo-su-modelo-de-negocio.html/feed</wfw:commentRss>
			<slash:comments>8</slash:comments>
		
		
			</item>
		<item>
		<title>Lo que Google llama consejo experto es gente opinando en internet</title>
		<link>https://www.enriquedans.com/2026/05/lo-que-google-llama-consejo-experto-es-gente-opinando-en-internet.html</link>
					<comments>https://www.enriquedans.com/2026/05/lo-que-google-llama-consejo-experto-es-gente-opinando-en-internet.html#comments</comments>
		
		<dc:creator><![CDATA[Enrique Dans]]></dc:creator>
		<pubDate>Fri, 08 May 2026 07:06:53 +0000</pubDate>
				<category><![CDATA[General]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[chatbots]]></category>
		<category><![CDATA[community]]></category>
		<category><![CDATA[Google]]></category>
		<category><![CDATA[knowledge economy]]></category>
		<category><![CDATA[Reddit]]></category>
		<category><![CDATA[social media]]></category>
		<category><![CDATA[truth]]></category>
		<guid isPermaLink="false">https://www.enriquedans.com/?p=57843</guid>

					<description><![CDATA[Google acaba de dar un paso muy revelador con su buscador: sus respuestas generadas mediante inteligencia artificial incorporarán más “perspectivas” procedentes de foros, blogs, redes sociales y, de manera muy destacada, Reddit, bajo una etiqueta tan sugerente como peligrosa: «expert advice». La idea plantea una pregunta incómoda: ¿desde cuándo una opinión votada por una comunidad  <a href="https://www.enriquedans.com/2026/05/lo-que-google-llama-consejo-experto-es-gente-opinando-en-internet.html" class="read-more">&#8230;</a>]]></description>
										<content:encoded><![CDATA[
<p></p>


<div class="wp-block-image">
<figure class="alignleft size-large is-resized"><a href="https://www.enriquedans.com/wp-content/uploads/2026/05/Reddit-as-knowledge-Dall·E.jpg"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.enriquedans.com/wp-content/uploads/2026/05/Reddit-as-knowledge-Dall·E-1024x1024.jpg" alt="IMAGE: A factory scene where Reddit users’ posts are turned into “expert advice” powering AI systems used by major tech companies " class="wp-image-57844" style="width:450px;height:auto" srcset="https://www.enriquedans.com/wp-content/uploads/2026/05/Reddit-as-knowledge-Dall·E-1024x1024.jpg 1024w, https://www.enriquedans.com/wp-content/uploads/2026/05/Reddit-as-knowledge-Dall·E-300x300.jpg 300w, https://www.enriquedans.com/wp-content/uploads/2026/05/Reddit-as-knowledge-Dall·E-150x150.jpg 150w, https://www.enriquedans.com/wp-content/uploads/2026/05/Reddit-as-knowledge-Dall·E-768x768.jpg 768w, https://www.enriquedans.com/wp-content/uploads/2026/05/Reddit-as-knowledge-Dall·E.jpg 1254w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>


<p>Google acaba de dar un paso muy revelador con su buscador: <a href="https://blog.google/products-and-platforms/products/search/explore-web-generative-ai-search/" target="_blank" rel="noreferrer noopener">sus respuestas generadas mediante inteligencia artificial incorporarán más “perspectivas” procedentes de foros, blogs, redes sociales y, de manera muy destacada, Reddit</a>, bajo una etiqueta tan sugerente como peligrosa: <em>«expert advice»</em>. La <a href="https://www.theverge.com/tech/924993/google-ai-search-mode-overviews-update-reddit-links" target="_blank" rel="noreferrer noopener">idea</a> plantea una <a href="https://www.engadget.com/2166393/google-ai-search-results-will-now-turn-to-reddit-for-expert-advice/" target="_blank" rel="noreferrer noopener">pregunta</a> incómoda: ¿desde cuándo una opinión votada por una comunidad anónima se convierte en «consejo experto»?</p>



<p>Reddit es muchas cosas. Es archivo, conversación, desahogo, recomendación, cultura de nicho, memoria colectiva y, en ocasiones, una fuente extraordinaria de información difícil de encontrar en otro sitio. Pero no es conocimiento en sentido académico. No es revisión por pares. No es metodología. No es trazabilidad. No es necesariamente experiencia. Es, en la mayoría de los casos, gente hablando, opinando, votando, corrigiéndose o reforzándose mutuamente, en comunidades con normas propias y sesgos muy concretos. Que de ahí pueda emerger valor no implica que todo lo que emerge de ahí sea valioso.</p>



<p>El problema empieza cuando Google decide envolver esa dinámica en el lenguaje de la autoridad. «Expert advice» suena muy distinto de «opiniones de desconocidos en internet». Y sin embargo, en muchísimos casos, eso es exactamente lo que es. Un <em>redditor</em> puede ser un experto, por supuesto. Pero también puede ser un adolescente aburrido, un empleado de una marca, un consultor de comunicación, un fanático, un <em>troll</em>, un <em>bot</em>, un competidor disfrazado o alguien que simplemente escribe muy bien sobre algo que no entiende, o que le pregunta a ChatGPT antes y lo pega ahí. La estructura de Reddit permite que algunas buenas respuestas afloren, pero también permite que determinadas narrativas se consoliden por repetición, carisma, oportunidad o manipulación.</p>



<p>La cuestión no es si Reddit tiene valor. Lo tiene, y mucho. La cuestión es si estamos confundiendo valor conversacional con autoridad epistemológica. En mi artículo «<a href="https://www.enriquedans.com/2026/01/cuando-los-algoritmos-mueven-oceanos-reddit-desplaza-a-tiktok-y-reconfigura-el-mapa-digital.html" target="_blank" rel="noreferrer noopener">Cuando los algoritmos mueven océanos</a>«, mi argumento era que el auge de Reddit no podía entenderse sin el papel de Google y de las compañías de inteligencia artificial redirigiendo tráfico, legitimidad y valor hacia la plataforma. </p>



<p>Ahora el círculo se cierra. Reddit ya no es simplemente una web con comunidades. Es una mina de contenido humano fresco para entrenar, actualizar y contextualizar sistemas de inteligencia artificial. En su <a href="https://www.sec.gov/Archives/edgar/data/1713445/000162828024006294/reddits-1q423.htm" target="_blank" rel="noreferrer noopener">documentación de salida a bolsa ante la SEC</a>, Reddit afirmaba tener más de mil millones de publicaciones y más de dieciséis mil millones de comentarios, y reconocía explícitamente que su contenido era relevante para los grandes modelos de lenguaje. También decía haber firmado acuerdos de licencia de datos por 203 millones de dólares con vencimientos de dos a tres años. <a href="https://apnews.com/article/google-reddit-ai-partnership-a7f131c7cb4225307134ef21d3c6a708" target="_blank" rel="noreferrer noopener">Associated Press<br />cifró el acuerdo con Google en unos sesenta millones de dólares anuales</a>, y <a href="https://openai.com/index/openai-and-reddit-partnership/" target="_blank" rel="noreferrer noopener">OpenAI anunció su propio acuerdo para acceder a la API de Reddit</a> e incorporar contenido de la plataforma en sus productos.</p>



<p>Dicho de otra manera: la valoración de Reddit no se explica únicamente por publicidad, comunidad o tráfico. Se explica, cada vez más, por una hipótesis especulativa: que sus usuarios seguirán produciendo indefinidamente, gratis, una materia prima que otros podrán empaquetar como inteligencia artificial, búsqueda, recomendación, análisis de sentimiento o «conocimiento humano actualizado». Reddit no vale lo que vale porque tenga fábricas, patentes revolucionarias o una tecnología especialmente difícil de replicar. Vale lo que vale porque millones de personas escriben allí sin cobrar, moderan sin cobrar, votan sin cobrar y ordenan sin cobrar un volumen descomunal de señales humanas que las máquinas necesitan desesperadamente para no alimentarse solo de contenido sintético.</p>



<p>Y ahí aparece la paradoja. En un internet cada vez más inundado de texto generado por máquinas, Reddit se revaloriza precisamente porque todavía parece humano. Pero cuanto más se revaloriza por esa razón, más incentivos aparecen para contaminarlo. Las marcas ya no miran Reddit como un foro incómodo donde los usuarios pueden criticarlas: lo miran como infraestructura reputacional. Reddit ofrece herramientas como <a href="https://support.reddithelp.com/hc/en-us/articles/47619216411284-Reddit-Pro-Feature-Trends" target="_blank" rel="noreferrer noopener">Reddit Pro Trends</a>, pensadas para que las empresas monitoricen palabras clave, comunidades y conversaciones en tiempo real. Su propia división comercial explica cómo convertir conversaciones en clientes mediante formatos publicitarios insertados en los espacios de discusión. Si un comentario en Reddit puede aparecer en Google, en una respuesta generada por inteligencia artificial o en la recomendación de un <em>chatbot</em>, entonces influir en Reddit deja de ser marketing social y pasa a ser optimización de la realidad percibida.</p>



<p>¿Está Reddit infiltrado por marcas y embajadores de marca? Evidentemente. Como cualquier espacio donde la opinión tiene impacto económico. La diferencia es que Reddit conserva una estética de autenticidad que lo hace mucho más valioso que un anuncio convencional. Una recomendación en Reddit parece espontánea, contextualizada, humana. Precisamente por eso vale más. Y precisamente por eso es más manipulable. El voto comunitario no elimina el sesgo: lo redistribuye. La moderación no elimina los intereses: los desplaza. La reputación no garantiza competencia: a veces solo garantiza veteranía, visibilidad o habilidad retórica.</p>



<p>El riesgo de todo esto es que terminemos construyendo una nueva capa de autoridad sobre una base que no fue diseñada para soportarla. Reddit puede ser un excelente punto de partida para explorar una cuestión, detectar experiencias reales, descubrir problemas recurrentes o entender cómo habla una comunidad sobre algo. Pero convertirlo en fuente privilegiada de «consejo experto» dentro de respuestas generadas por inteligencia artificial es otra cosa. Es pasar de «esto dicen algunas personas» a «esto merece aparecer como orientación relevante en la interfaz dominante de acceso al conocimiento». Y esa transición no es neutral: la decide Google, la monetiza Reddit, la aprovechan las compañías de inteligencia artificial y la alimentan los usuarios.</p>



<p>La pregunta más incómoda es si esos usuarios son conscientes del valor que están generando. Muchos seguramente sí, pero de una forma abstracta. Saben que participan en una plataforma comercial, pero no necesariamente interiorizan que cada comentario útil, cada comparación de productos, cada experiencia médica, laboral, financiera o educativa, cada historia personal y cada matiz aportado a una discusión puede acabar convertido en una señal para entrenar modelos, ordenar respuestas, mejorar productos o vender publicidad contextual. La participación voluntaria se ha transformado en un activo financiero. La conversación se ha convertido en inventario. La autenticidad, en <em>input</em>.</p>



<p>No se trata de demonizar Reddit. Sería absurdo. Reddit sigue siendo, en muchos contextos, muchísimo mejor que la basura dopaminérgica de otras plataformas. En Reddit se lee, se argumenta y se conserva memoria. Pero precisamente por eso conviene exigir más cuidado a quienes lo están reetiquetando como conocimiento. Una cosa es reconocer que Reddit contiene cierta inteligencia colectiva, pero otra, bastante más peligrosa, es asumir que esa inteligencia colectiva equivale a <em>expertise</em> real. Entre ambas hay una diferencia fundamental: la que separa una conversación interesante de una fuente fiable.</p>



<p>Estamos sobrevalorando Reddit en todos los sentidos: financieramente, epistemológicamente y culturalmente. Lo valoramos como empresa porque imaginamos que será una fuente inagotable de contenido humano para máquinas. Lo valoramos como fuente porque nos resulta más creíble que los resultados SEO escritos para engañar a Google. Y lo valoramos culturalmente porque, frente a la degradación general de la web, todavía parece un espacio donde la gente habla de verdad. Pero ninguna de esas tres valoraciones debería hacernos olvidar lo esencial: Reddit no es una universidad, ni una institución científica, ni una red profesional verificada, ni un sistema robusto de validación del conocimiento. Es una plaza pública con <em>karma</em>, moderadores, incentivos, sesgos, tribus, marcas, oportunistas y usuarios generosos.</p>



<p>La gran ironía es que Google, después de contribuir durante años a degradar la web con un modelo que premió el SEO industrial, ahora busca legitimidad en Reddit, uno de los pocos lugares donde todavía queda conversación humana reconocible. Pero al hacerlo, también lo expone a una presión nueva: si Reddit se convierte en fuente para la inteligencia artificial, Reddit dejará de ser simplemente Reddit. Pasará a ser un territorio estratégico que todos querrán influir, explotar o contaminar.</p>



<p>Y cuando una comunidad empieza a ser valorada no por lo que significa para sus miembros, sino por lo útil que resulta para alimentar máquinas, conviene empezar a preocuparse. Porque entonces la pregunta ya no es si Reddit contiene conocimiento: la pregunta es quién se está apropiando de él, con qué legitimidad, con qué compensación y con qué consecuencias para todos los demás.</p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>This article is also openly available in English on my Medium page using this link, «<a href="https://medium.com/enrique-dans/google-is-selling-reddit-as-knowledge-that-should-worry-us-0f9263b12dd5?sk=9f65a2447d8be6752f901dd156a3a2f8" data-type="link" data-id="https://medium.com/enrique-dans/google-is-selling-reddit-as-knowledge-that-should-worry-us-0f9263b12dd5?sk=9f65a2447d8be6752f901dd156a3a2f8" target="_blank" rel="noreferrer noopener">Google is selling Reddit as knowledge. That should worry us</a>» </em></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.enriquedans.com/2026/05/lo-que-google-llama-consejo-experto-es-gente-opinando-en-internet.html/feed</wfw:commentRss>
			<slash:comments>25</slash:comments>
		
		
			</item>
	</channel>
</rss>
