<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	xmlns:media="http://search.yahoo.com/mrss/">

<channel>
	<title>El Margen de la Ley :: El Blog de Audens</title>
	<atom:link href="https://www.audens.es/blog/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.audens.es/blog</link>
	<description>Abogados de Nuevas Tecnologías</description>
	<lastBuildDate>Wed, 06 May 2026 15:40:21 +0000</lastBuildDate>
	<language>es</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>
	<item>
		<title>La IA agéntica no tiene carta blanca</title>
		<link>https://www.audens.es/blog/la-ia-agentica-no-tiene-carta-blanca/</link>
					<comments>https://www.audens.es/blog/la-ia-agentica-no-tiene-carta-blanca/#respond</comments>
		
		<dc:creator><![CDATA[Leandro Núñez]]></dc:creator>
		<pubDate>Wed, 06 May 2026 08:00:00 +0000</pubDate>
				<category><![CDATA[Inteligencia artificial]]></category>
		<category><![CDATA[Agentes IA]]></category>
		<category><![CDATA[Análisis de riesgos]]></category>
		<category><![CDATA[Licencias de software]]></category>
		<category><![CDATA[Plataformas]]></category>
		<guid isPermaLink="false">https://www.audens.es/blog/?p=3272</guid>

					<description><![CDATA[Que una acción pueda automatizarse no significa que la plataforma sobre la que se ejecute permita ese tipo de interacción. A menudo, sus titulares introducen limitaciones mediante licencias y restricciones técnicas que no conviene ignorar.]]></description>
										<content:encoded><![CDATA[
<p>Hablarles, a estas alturas, de la utilidad de la inteligencia artificial agéntica para automatizar tareas sonaría a perogrullada. Todos hemos trasteado, en mayor o menor medida, con sistemas capaces de navegar por páginas web, rellenar formularios, realizar compras, reservar citas o ejecutar todo tipo de acciones de manera relativamente autónoma. Es indudable que la tecnología funciona, pero… ¿nos hemos planteado si <strong>puede utilizarse libremente sobre plataformas de terceros</strong>?</p>



<p>A veces nos olvidamos de una cuestión básica: las plataformas digitales también son software, y su utilización se encuentra sometida al cumplimiento de determinados términos y condiciones, plasmados en una licencia. Los titulares de estos servicios pueden delimitar cómo interactuamos con ellos y qué usos consideran admisibles; y pueden hacerlo tanto a nivel contractual como mediante la implementación de medidas técnicas orientadas a impedir usos no autorizados.</p>



<p>Como es natural, la gran mayoría de estas plataformas digitales fueron diseñadas para dar servicio a usuarios de carne y hueso. Usuarios que consumen publicidad, generan datos analíticos y pueden ser influidos a través del propio diseño de la interfaz. La proliferación de agentes automatizados altera por completo esa lógica; y probablemente por eso estamos viendo cómo cada vez más servicios introducen <strong>restricciones orientadas a limitar determinadas formas de automatización</strong>.</p>



<p>Pongámonos prosaicos. Imaginen que quieren comprar unas zapatillas de edición limitada que suelen agotarse en segundos, o monitorizar el stock de un determinado producto para ejecutar la compra en cuanto baje de un precio determinado. Técnicamente, resulta relativamente sencillo desplegar un agente IA capaz de automatizar esa operativa. El problema es que tendemos a asumir que, si el agente utiliza nuestras propias credenciales, su actividad constituye poco menos que una extensión natural de la nuestra. “Si yo tengo acceso legítimo a la plataforma, ¿qué diferencia hay?”. Pero las cosas no siempre son tan simples. Para muchos servicios digitales, un sistema automatizado capaz de interactuar persistentemente con su infraestructura no equivale a un usuario ordinario: <strong>se acerca más a un parásito que consume recursos sin ver un solo anuncio</strong>, y que rompe las reglas del juego para el resto de clientes.</p>



<p>Naturalmente, no toda automatización plantea los mismos problemas. Limitarnos a una interacción puntual presenta un escenario muy distinto a diseñar un sistema concebido para operar de forma persistente, masiva o coordinada sobre plataformas ajenas. Tampoco tiene la misma relevancia utilizar funcionalidades abiertamente disponibles, que desplegar mecanismos destinados a sortear bloqueos, captchas y otras limitaciones técnicas.</p>



<p>Desde el punto de vista jurídico, estas herramientas <strong>pueden generar conflictos</strong> relacionados con el incumplimiento de condiciones de uso, la afectación a bases de datos ajenas o la propia interferencia en la operativa de terceros. En determinados supuestos especialmente intensos, el problema puede desplazarse incluso hacia terrenos más delicados, como la vulneración de medidas técnicas de protección o la obstaculización grave del funcionamiento de un sistema informático. Palabras mayores; recogidas, incluso, en nuestro Código Penal.</p>



<p>A ello se añade un factor adicional: la escala. Una interacción individual puede resultar irrelevante; pero miles de agentes automatizados operando simultáneamente pueden generar una presión significativa sobre servicios ajenos, alterar su funcionamiento o incrementar notablemente sus costes operativos.</p>



<p>Evidentemente, estas tecnologías presentan utilidades perfectamente legítimas y un enorme potencial económico y organizativo; pero precisamente por ello conviene evitar aproximaciones ingenuas o excesivamente agresivas desde el inicio. A fin de cuentas, <strong>identificar ciertos riesgos antes del despliegue suele resultar bastante más sencillo que gestionar sus consecuencias después</strong>.</p>



<p>Antes de desplegar soluciones de IA agéntica, por tanto, merece la pena plantearse algunas preguntas básicas. ¿La plataforma donde queremos que corran permite realmente ese tipo de automatización? ¿Existen restricciones técnicas o contractuales? ¿Estamos automatizando una tarea razonable… o intentando forzar un entorno que claramente no desea ser automatizado?</p>



<p>La IA agéntica abre posibilidades enormemente interesantes, pero también introduce riesgos que muchas organizaciones y usuarios todavía no han terminado de dimensionar correctamente. Por eso conviene volver a la pregunta inicial: ¿por qué no hacerlo, si la máquina me deja? Pues porque, como recordaba el añorado Stefano Rodotà, <em>“no todo lo que es técnicamente posible es también socialmente y políticamente aceptable, éticamente admisible y jurídicamente lícito”.</em></p>



<p>Automatizar la compra de esas estupendas zapatillas puede parecer una idea brillante… hasta que alguien decida recordarnos que <strong>las plataformas también tienen reglas, abogados y una forma muy particular de expresar su descontento</strong>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.audens.es/blog/la-ia-agentica-no-tiene-carta-blanca/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<media:content url="https://www.audens.es/blog/wp-content/uploads/2026/05/ia-agentica.jpg" width="400" height="400" medium="image" type="image/jpeg" />	</item>
		<item>
		<title>Agentes de IA: cinco fallos típicos que pueden salir caros</title>
		<link>https://www.audens.es/blog/agentes-de-ia-cinco-fallos-tipicos-que-pueden-salir-caros/</link>
					<comments>https://www.audens.es/blog/agentes-de-ia-cinco-fallos-tipicos-que-pueden-salir-caros/#respond</comments>
		
		<dc:creator><![CDATA[Marcos Judel]]></dc:creator>
		<pubDate>Mon, 15 Dec 2025 07:48:00 +0000</pubDate>
				<category><![CDATA[Inteligencia artificial]]></category>
		<category><![CDATA[AEPD]]></category>
		<category><![CDATA[AESIA]]></category>
		<category><![CDATA[Agentes IA]]></category>
		<category><![CDATA[Gobernanza]]></category>
		<category><![CDATA[Reformas legales]]></category>
		<category><![CDATA[RGPD]]></category>
		<guid isPermaLink="false">https://www.audens.es/blog/?p=3257</guid>

					<description><![CDATA[Los agentes de IA ya actúan dentro de procesos reales. Este artículo resume cinco errores frecuentes en su despliegue, desde el control del dato y los sesgos hasta la explicabilidad, la supervisión humana y la gobernanza, y por qué el riesgo suele estar en el proceso y en la falta de gobernanza previa.]]></description>
										<content:encoded><![CDATA[
<p>Parece mentira, pero ya estamos dejando atrás la IA generativa y entrando en <a href="https://www.europapress.es/portaltic/empresas/noticia-ia-agentica-redefine-interaccion-personas-tecnologia-35-empresas-ya-explora-20251120130053.html#google_vignette">la IA agéntica y el 35% de las empresas ya la emplean</a>. Y esto cambia, otra vez (un poco en realidad), la conversación. Ya no hablamos solo de usar un modelo para redactar un texto, resumir documentos y extraer conclusiones,  o generar imágenes para redes sociales. Hablamos de <strong>sistemas capaces de actuar con cierta autonomía dentro de procesos reales</strong>.</p>



<p>Las posibilidades son muchas y muy tangibles que van desde gestionar el correo y la agenda, priorizar potenciales clientes, a responder mensajes o comentarios en redes sociales, hasta ejecutar tareas en herramientas internas, generar y enviar facturas o propuestas, producir contenido, o asistir en contextos más delicados como la gestión de alumnos o pacientes. Todo ello a una velocidad y escala que ningún equipo humano puede igualar (al menos en rapidez).</p>



<p><strong>Precisamente ahí está la tentación, la miel en el panal: ahorrar tiempo en tareas de bajo valor a un coste marginal</strong>. Basta pasar cinco minutos en LinkedIn o YouTube para sentir que o automatizas todo o estás tirando tu tiempo a la trituradora de la felicidad y tranquilidad. Y ahí es donde creo que está el riesgo de todos estos mensajes, lo que no se cuenta (porque no se sabe). No porque la IA sea peligrosa en abstracto, sino por cómo se integra y se gobierna. Se habla mucho de beneficios, como si un agente fuese una capa más de software que simplemente hace cosas, pero rara vez se aborda como lo que es: <strong>un actor dentro de un proceso del que alguien responde</strong>. <strong>Trabaja con información</strong> (personal, empresarial, confidencial),<strong> infiere conclusiones y produce efectos</strong> en clientes, empleados, operaciones y, en más ocasiones de las que uno piensa, en derechos de terceros.</p>



<p>Con esa premisa, merece la pena mirar el despliegue con una visión más amplia que la del tutorial rápido. Porque los problemas no suelen venir del diseño del uso y de las expectativas puestas en él. Y se repiten con una regularidad casi incómoda.</p>



<p><strong>1. Creer que todo se queda en casa</strong><br>El primer error es asumir, casi por inercia, que los datos se procesan dentro del entorno de la empresa. En la práctica, muchas arquitecturas implican llamadas a servicios externos, procesamiento en infraestructuras del proveedor, subencargados y, en algunos casos, flujos que cruzan fronteras.</p>



<p>El problema es que <strong>el dato deja de estar donde se cree</strong>. Un ejemplo habitual es automatizar el correo para hacer seguimiento de propuestas o priorizar oportunidades, lo que implica tratar datos personales y, a menudo, información especialmente sensible (know-how, pricing, estrategia comercial o propiedad intelectual), en sistemas que dan acceso amplio a tercer al buzón, con procesamiento por otros terceros y, posiblemente, con transferencias internacionales de datos fuera de Europa (lo que ya sabemos que es un riesgo).</p>



<p>Cuando esa información sale de la esfera de control propio, ya no se está hablando solo de seguridad de la información y se abren riesgos mucho más grandes si hay datos personales. O dicho de otro modo, <strong>cuando el dato sale, el riesgo legal y operativo aumenta, porque el control se reduce</strong>.</p>



<p><strong>2. Automatizar un sesgo y llamarlo eficiencia</strong><br>El segundo error suele venir tapado dentro de la “optimización”, ya que <strong>el agente no inventa criterio, aprende patrones</strong>, que vienen de datos históricos, reglas implícitas y decisiones previas que, muchas veces, nadie se paró a cuestionar.</p>



<p>Pensemos en agentes para filtrar candidatos, priorizar leads, segmentar clientes o decidir a quién se le ofrece una condición u otra. En el dashboard todo es bonito y parece razonable: sube la conversión, baja el tiempo de respuesta, el proceso se ordena y se ahorra el tiempo prometido. Pero el problema es que automatizar no solo acelera, también fija el sesgo. Si el embudo ha premiado determinados perfiles, canales o zonas, el agente tenderá a replicarlo, y si el dato de partida está <em>contaminado</em>, el resultado no será neutral.</p>



<p>Además, hay un matiz adicional que suele olvidarse y es que a veces ni siquiera son sesgos propios. Son patrones heredados del modelo, del proveedor o de datos de terceros. Reglas que operan dentro del proceso sin que esté claro de dónde vienen ni por qué pesan en las decisiones.</p>



<p>Cuando el <strong>agente IA se usa en decisiones que afectan a personas, la consecuencia deja de ser estadística en el dashboard y pasa a ser jurídica y reputacional</strong>. La cuestión es que normalmente solo se detecta cuando alguien lo denuncia desde fuera o cuando el patrón ya es visible a escala. Y en ese punto el problema no es que el agente se equivoque un día con una persona, sino que ya se está equivocando en serie, en base a la <em>autoridad</em> que se le ha concedido. Lo delicado no es que exista sesgo. Es no saber cuál es, ni cuándo se activa.</p>



<p><strong>3. Delegar decisiones sin poder explicarlas</strong><br>El tercer error aparece cuando el agente empieza a decidir cosas relevantes y nadie dentro de la organización puede explicar por qué ha decidido lo que ha decidido. No porque el sistema falle o tenga un bug, sino porque funciona como una caja negra muy cómoda: entra información, sale una acción, y <strong>mientras todo parece ir bien y se ahorra el tiempo prometido a bajo coste, todo es correcto. Pues no.</strong></p>



<p>Esto ocurre cuando se usan agentes para priorizar clientes, rechazar solicitudes, clasificar incidencias, decidir qué contenido se muestra a quién o activar alertas automáticas. Desde dentro, la excusa es muy previsible: «lo ha calculado el sistema», «es lo que recomienda el modelo», «sale del scoring». El problema es que, cuando alguien afectado pregunta por qué ha ocurrido algo, esa respuesta deja de ser suficiente.</p>



<p>Ahí es donde se produce el choque con la realidad jurídica y organizativa. Porque si no se puede explicar mínimamente la lógica de una decisión, tampoco se puede sostener, ni defender. Ni frente a un cliente, ni frente a un empleado, ni frente a al regulador. Hay que hacerse una pregunta incómoda, pero inevitable si no puedes explicar por qué el sistema decide como lo hace, ¿de verdad sigues siendo tú quien toma la decisión? Dependiendo de la respuesta, lo que era una ventaja operativa se convierte en una dependencia difícil de defender.</p>



<p><strong>4. Delegar la decisión y olvidar la responsabilidad</strong><br>Otro de los errores más comunes al desplegar agentes de IA es pensar que basta con añadir una mera validación humana al final del proceso para estar cubiertos, algo así como un checkbox, un botón que alguien debe pulsar para acreditar que se ha revisado el resultado <em>por si acaso</em>. Sobre el papel suena razonable, aunque muchas veces es solo una coartada.</p>



<p>Cuando un agente de IA realiza un <em>scoring</em>, una priorización o una recomendación y ese resultado se utiliza de forma determinante para tomar decisiones que afectan a personas, como conceder un servicio, descartar un perfil u ofrecer unas condiciones, el proceso funciona como una decisión automatizada, aunque formalmente exista un paso humano posterior. Esto es lo que ha dejado claro el <a href="https://eur-lex.europa.eu/legal-content/ES/TXT/HTML/?uri=CELEX:62021CJ0634">TJUE en el asunto Schufa</a>: <strong>si el resultado automático es decisivo, no estamos ante un mero apoyo, sino ante el núcleo de la decisión automatizada</strong>.</p>



<p>El RGPD no prohíbe la automatización, pero sí exige algo muy concreto: intervención humana real, explicabilidad y posibilidad de impugnación. Y en este contexto «real» significa significativo. O dicho de otro modo, que alguien pueda entender, cuestionar y corregir el resultado con criterio al final del proceso. No sirve darle siempre al botón sugerido por la IA. Esto tiene consecuencias jurídicas que conviene haber previsto antes, no cuando llegue la primera reclamación. Porque quien tendrá que explicarlo y sostenerlo no será el agente: será la empresa.</p>



<p><strong>5. Desplegar sin gobernanza previa</strong><br>El quinto error es el que suele estar detrás de todos los anteriores: desplegar IA como si fuera una funcionalidad más del <em>stack</em>, sin un marco de gobernanza previo. Se integra, se prueba, funciona, se pone en producción y se ha ahorrado tiempo y dinero. Pero si se deja fuera la gobernanza previa, entran dos variables que suelen llegar juntas: el riesgo reputacional y el sancionador.</p>



<p>Aquí aplican principalmente dos marcos regulatorios a la vez. <strong>Por un lado, el Reglamento de IA</strong>: si el agente se utiliza en empleo, educación, crédito, seguros, acceso a servicios esenciales o decisiones que afectan de forma relevante a personas, es fácil caer en supuestos de alto riesgo. Ahí se exigen obligaciones reforzadas de gestión del riesgo, documentación, calidad y gobernanza de datos, registros y trazabilidad, y supervisión humana efectiva. La <a href="https://aesia.digital.gob.es/es/guias">Agencia Española de Supervisión de Inteligencia Artificial (AESIA) acaba de publicar unas guías</a> interesantes relacionadas con estos temas y que trataré más adelante. <strong>Por otro lado, el Reglamento General de Protección de Datos:</strong> si hay datos personales, aplican base jurídica, minimización, transparencia, limitación de finalidad y seguridad. Y si el uso implica decisiones automatizadas con efectos jurídicos o similares, entran también las garantías de la supervisión humana en decisiones automatizadas y el derecho a entender y cuestionar el resultado. Lo importante es que <strong>estas obligaciones no compiten, sino que se acumulan, igual que las sanciones.</strong></p>



<p>Sin gobernanza, se operar a ciegas, pues no se sabe qué agentes hay realmente desplegados, qué datos tratan, en qué proveedores se apoyan, qué decisiones influyen, qué trazabilidad existe, quién puede parar el sistema o cómo se sostiene una decisión cuando alguien la impugna. Y ahí llegan los sustos, a veces en forma de quejas, a veces en forma de brechas, a veces en forma de procedimiento sancionador.</p>



<p><strong>Al final, los cinco errores anteriores responden al mismo patrón: se despliega rápido y se gobierna tarde.</strong><br>La solución, por supuesto, no es sencilla ni rápida, ni se puede delegar en un agente de IA. Pasa por construir el modelo cuanto antes y empezando por los cimientos: primero hacer un inventario real de usos de IA (no me cansaré de decirlo); luego clasificar por riesgo y contexto de uso y terminar con las acciones de control antes de producción (revisar bases jurídicas y transparencia cuando hay datos personales, evaluaciones de impacto cuando proceda, contratos y supervisión de proveedores, seguridad y minimización, y supervisión humana capaz de intervenir con criterio, no solo de validar) son algunas de las cosas a tener en cuenta según el caso de uso.</p>



<p>La diferencia entre automatizar con cabeza y automatizar a ciegas no está en el modelo que se elija, sino en si se puede explicar, controlar y sostener lo que ese modelo hace, y hacerlo dentro del marco normativo europeo, cuando el negocio ya depende de ello. <strong>La regulación no viene a quitar la miel, sino a recordar que el panal tiene reglas, y que, sin control desde el diseño, los pinchazos suelen suelen venir si si se entra al panal con mano desnuda</strong>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.audens.es/blog/agentes-de-ia-cinco-fallos-tipicos-que-pueden-salir-caros/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<media:content url="https://www.audens.es/blog/wp-content/uploads/2025/12/AgentesIA.jpg" width="200" height="200" medium="image" type="image/jpeg" />	</item>
		<item>
		<title>El Black Friday no perdona fallos: guía jurídica para no estrellarte</title>
		<link>https://www.audens.es/blog/el-black-friday-no-perdona-fallos-guia-juridica-para-no-estrellarte/</link>
					<comments>https://www.audens.es/blog/el-black-friday-no-perdona-fallos-guia-juridica-para-no-estrellarte/#respond</comments>
		
		<dc:creator><![CDATA[Laura Cebrián]]></dc:creator>
		<pubDate>Thu, 20 Nov 2025 08:16:00 +0000</pubDate>
				<category><![CDATA[Comercio Electrónico]]></category>
		<category><![CDATA[Consumidores y usuarios]]></category>
		<category><![CDATA[Avisos legales]]></category>
		<category><![CDATA[Black Friday]]></category>
		<category><![CDATA[Cyber Monday]]></category>
		<category><![CDATA[LSSI]]></category>
		<category><![CDATA[Sanciones]]></category>
		<guid isPermaLink="false">https://www.audens.es/blog/?p=3246</guid>

					<description><![CDATA[El Black Friday multiplica ventas… y también los errores jurídicos. Precios, desistimientos, información al consumidor o plazos mal definidos pueden convertir la campaña en un foco de incidencias. En este artículo repasamos por qué llegar preparado marca la diferencia.]]></description>
										<content:encoded><![CDATA[
<p>Desde 2010, de la mano de grandes marcas de Estados Unidos, en España se celebra el ya conocido Black Friday cada último viernes de noviembre, <a href="https://efe.com/economia/2025-11-19/black-friday-estira-crece-ocupa-todo-noviembre-consumidor-cauto/" rel="noreferrer noopener" target="_blank">aunque cada vez se estira más</a>. Este fenómeno, originado en el colapso circulatorio que se producía en la ciudad de Philadelphia por las multitudes que salían a ver escaparates tras la noche de Acción de Gracias, se ha convertido en un desahogo para cada vez más consumidores que aprovechan esta fecha para adelantar sus compras navideñas o permitirse algún que otro capricho a un precio inferior al habitual.</p>



<p><strong>Cada año, cuando llega el Black Friday, no solo se aceleran las ventas: también lo hacen los errores.</strong> La escalada publicitaria por comunicar ofertas, actualizar precios y llegar antes que la competencia provoca que afloren fallos que, en cualquier otra semana, pasarían algo más desapercibidos.&nbsp;Este reclamo publicitario, cada vez más extendido (y en conjunto con el “Cyber Monday”), provoca que durante estos días afloren errores en los procesos de venta online que, en muchos casos, tienen su origen en las prisas, el copia-pega de condiciones mal adaptadas o la ausencia de una revisión jurídica adecuada y que <strong>pueden provocar incidencias importantes</strong>.</p>



<p>En un entorno donde la presión por lanzar promociones y llamar la atención con descuentos es máxima, <strong>los e-commerce suelen enfrentarse a un enemigo silencioso: el detalle normativo</strong>. No es algo nuevo, pero el Black Friday actúa como una lupa que amplifica cualquier descuido. Y basta un error menor como una descripción ambigua, un precio mal actualizado, una política de desistimiento incompleta, para desencadenar un conflicto que, en plena campaña, puede convertirse en un problema operativo y reputacional.</p>



<p>Y es que hay que ponerse en los zapatos del comprador. Lo que en tienda física se suple con la simple inspección del artículo, verlo, tocarlo, probarlo, en Internet depende exclusivamente de lo que la web comunica. Por eso<strong> la ley exige que la descripción sea completa, precisa y verificable</strong>. En estas fechas, cualquier ambigüedad sobre características esenciales, compatibilidades o limitaciones, suele resolverse a favor del consumidor.</p>



<p>Pero sin duda, <strong>el precio es el protagonista indiscutible del Black Friday y también es una fuente habitual de problemas</strong>. Las llamadas “falsas rebajas” (incrementos previos del precio para simular descuentos mayores) son <a href="https://elpais.com/economia/2025-11-17/consumo-investigara-posibles-rebajas-fraudulentas-de-las-empresas-durante-el-black-friday.html" rel="noreferrer noopener" target="_blank">vigiladas por las autoridades</a> y las <a href="https://www.ocu.org/consumo-familia/compras-online/noticias/precios-black-friday-25" rel="noreferrer noopener" target="_blank">organizaciones de consumidores y usuarios</a>. Y cada vez tienen más herramientas a su disposición para comprobarlo en segundos. Esto, además de ser una práctica éticamente cuestionable, ha sido <a href="https://www.dsca.gob.es/es/comunicacion/notas-prensa/justicia-respalda-sanciones-consumo-falsas-rebajas-durante-black-friday" rel="noreferrer noopener" target="_blank">objeto de sanciones por la Administración de Consumo y confirmadas judicialmente</a>, como ha señalado el Tribunal Superior de Justicia de Madrid en distintas resoluciones que avalan el depósito de más de 100.000€ en multas a varias empresas por ese motivo.</p>



<p>Los <strong>plazos de entrega y devolución también concentran buena parte de las reclamaciones</strong>. El vendedor debe indicar un plazo realista, no dependiente de su voluntad ni de la de terceros. Y el derecho de desistimiento (14 días naturales, salvo excepciones en determinados productos o servicios digitales) debe estar explicado sin rodeos. En campañas de pico, una política mal redactada o un proceso de devolución confuso puede traducirse en una avalancha de incidencias.</p>



<p>El Black Friday no solo mide la capacidad logística o comercial de un e-commerce; también pone a prueba su madurez jurídica. <strong>Quien llega bien preparado reduce riesgos y transmite confianza</strong>. Quien improvisa descubre, casi siempre demasiado tarde, que acaba dedicando más tiempo a gestionar incidencias que a vender.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.audens.es/blog/el-black-friday-no-perdona-fallos-guia-juridica-para-no-estrellarte/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<media:content url="https://www.audens.es/blog/wp-content/uploads/2025/11/Black-Friday-2025.jpg" width="200" height="200" medium="image" type="image/jpeg" />	</item>
		<item>
		<title>Cinco millones de razones para tomarse en serio la publicidad de criptoactivos</title>
		<link>https://www.audens.es/blog/cinco-millones-de-razones-para-tomarse-en-serio-la-publicidad-de-criptoactivos/</link>
					<comments>https://www.audens.es/blog/cinco-millones-de-razones-para-tomarse-en-serio-la-publicidad-de-criptoactivos/#respond</comments>
		
		<dc:creator><![CDATA[Marcos Judel]]></dc:creator>
		<pubDate>Mon, 17 Nov 2025 07:42:00 +0000</pubDate>
				<category><![CDATA[Blockchain]]></category>
		<category><![CDATA[Publicidad]]></category>
		<category><![CDATA[CNMV]]></category>
		<category><![CDATA[Criptomonedas]]></category>
		<category><![CDATA[Plataformas]]></category>
		<category><![CDATA[Publicidad engañosa]]></category>
		<category><![CDATA[Sanciones]]></category>
		<guid isPermaLink="false">https://www.audens.es/blog/?p=3232</guid>

					<description><![CDATA[La multa de cinco millones a X por permitir publicidad de un chiringuito financiero marca un giro claro: el regulador ya no solo persigue al estafador, sino también a quien amplifica su mensaje. En un entorno donde proliferan los fraudes con criptoactivos, las plataformas dejan de ser meros intermediarios para convertirse en actores responsables. Un análisis sobre responsabilidad digital, supervisión y la nueva frontera entre publicidad y estafa.]]></description>
										<content:encoded><![CDATA[
<p>La reciente <a href="https://www.expansion.com/mercados/2025/11/13/6915908e468aeba4798b4574.html">multa de cinco millones de euros impuesta por la Comisión Nacional del Mercado de Valores (CNMV) a X</a> (sí, X, y no tengo claro cuántos años más seguiremos añadiendo “la antigua Twitter”), no es un episodio aislado ni un gesto puntual del supervisor. Es, más bien, la consecuencia lógica de un proceso que lleva años gestándose: la progresiva aproximación de las plataformas digitales al perímetro de responsabilidad del sector financiero, especialmente cuando se convierten en vehículos para la difusión de fraudes, estafas o <strong>publicidad opaca sobre criptoactivos</strong>. Lo relevante de esta sanción no es su importe (pese a tratarse de una de las mayores de la historia de la CNMV), sino el mensaje que transmite:&nbsp;<strong>la era del “yo solo soy un intermediario neutral” se ha terminado</strong>.</p>



<p>El expediente sancionador detalla que X no comprobó si <a href="https://www.cnmv.es/webservices/verdocumento/ver?e=H%2f2MMJSpBz%2fhVVr%2fls3xyobgIfO3RtNU2TGg1f2UJVUILCnUAEn6Pt63MwWh%2bqV8">Quantum AI</a>, una de las entidades anunciadas en su plataforma, estaba autorizada para prestar servicios de inversión ni si figuraba en la lista de entidades no autorizadas por la propia CNMV, también conocida como <a href="https://www.cnmv.es/portal/advertenciaslistado?tipoAdv=1&amp;lang=es">Lista de Chiringuitos Financieros</a> (una de esas listas en la que es mejor no estar). Y que no lo hizo, además, tras un requerimiento formal del supervisor. Por lo visto, la plataforma permitió campañas de un actor no autorizado, sujeto a múltiples advertencias, que empleaba incluso la imagen de personajes públicos para dotar de credibilidad a una supuesta aplicación de inversiones que prometían rentabilidades improbables. Nada nuevo en el universo de los chiringuitos financieros, salvo un matiz importante: <strong>esta vez, el foco del supervisor ya no está solo en quien se promociona, sino en quien le da altavoz</strong>.</p>



<p>Este movimiento encaja con lo que ya anticipaba en este mismo blog en <a href="https://www.audens.es/blog/criptomonedas-mas-reguladas/">2020</a> y <a href="https://www.audens.es/blog/criptomonedas-publicidad-a-examen/">2021</a>: <strong>cada vez que un mercado se llena de prácticas opacas, el regulador acaba reaccionando</strong>, y el péndulo suele pasarse al otro lado de forma brusca. Entonces lo veíamos con la publicidad de wallets no autorizados, con ICOs improvisadas, con plataformas opacas o con la escalada de supuestas inversiones milagrosas que acababan en querellas, pérdidas y titulares. Hoy la reacción es más amplia, más directa y más orientada a proteger al pequeño inversor en un entorno donde la línea entre publicidad y captación fraudulenta se vuelve peligrosamente fina.</p>



<p>Las plataformas digitales han asumido durante años que no estaban sometidas al mismo nivel de escrutinio que los actores financieros tradicionales. No ofrecían servicios de inversión; simplemente mostraban publicidad ajena. Pero <strong>la CNMV ha dejado claro que ese planteamiento ya no basta</strong>. Cuando una plataforma amplifica promesas que rayan la estafa, facilita el acceso a operadores no autorizados y desoye requerimientos formales,&nbsp;<strong>no puede escudarse en la neutralidad técnica</strong>. No en un mercado donde los fraudes en línea baten récords, donde los usuarios confían en la reputación de la plataforma más que en la de los anunciantes, y donde las estafas se mimetizan con noticias reales mediante el uso de personajes públicos, logotipos de medios y técnicas cada vez más sofisticadas.</p>



<p>En esa lógica, la multa a X es coherente con la tendencia regulatoria europea: responsabilizar a quienes ostentan poder real sobre la difusión del mensaje. El Reglamento MiCA, la futura reforma de la Ley del Mercado de Valores, las normas sobre publicidad financiera o incluso el nuevo marco de diligencias reforzadas para proveedores de servicios digitales apuntan en la misma dirección:&nbsp;<strong>la supervisión ya no se limita al origen del criptoactivo o del servicio financiero, sino también al canal que lo promueve</strong>. Y es difícil discutir la necesidad de este enfoque cuando las cifras de fraude financiero online crecen a doble dígito y buena parte de esos engaños se propaga precisamente a través de plataformas globales cuyo negocio depende de la publicidad.</p>



<p>Lo llamativo es que la situación se parece mucho a la que describía en aquellos artículos: un ecosistema que avanza más rápido que las normas, usuarios atraídos por la promesa de beneficios fáciles, operadores sin licencia actuando desde jurisdicciones exóticas, y una percepción de impunidad que se alimenta del anonimato tecnológico. La diferencia está en que ahora <strong>las autoridades tienen más herramientas para intervenir y menos paciencia</strong> ante la inacción de intermediarios clave. Y si antes el mensaje era que “nadie regala duros a cuatro pesetas”, hoy habría que añadir que&nbsp;<strong>tampoco debería regalarlos una plataforma que monetiza cada clic sin verificar quién está detrás</strong>.</p>



<p>Cierro con una idea que enlaza bien con aquella reflexión de 2021: <strong>los mercados solo funcionan cuando hay confianza</strong>. Cuando esta se erosiona, la respuesta suele ser más regulación, más sanciones y más controles. Esta multa es un recordatorio de que la transparencia y la diligencia no son un deseo del regulador, sino un requisito para sostener un entorno donde la innovación financiera pueda convivir con la protección del inversor en criptomonedas o en productos financieros convencioanles. Y también, por qué no decirlo, de que los chiringuitos financieros siguen ahí fuera… y de que el verdadero progreso será cuando no necesitemos recordarlo cada cierto tiempo.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.audens.es/blog/cinco-millones-de-razones-para-tomarse-en-serio-la-publicidad-de-criptoactivos/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<media:content url="https://www.audens.es/blog/wp-content/uploads/2020/07/Criptoanuncio.jpg" width="200" height="200" medium="image" type="image/jpeg" />	</item>
		<item>
		<title>Claves para un uso responsable de la IA en el entorno laboral</title>
		<link>https://www.audens.es/blog/claves-para-un-uso-responsable-de-la-ia-en-el-entorno-laboral/</link>
					<comments>https://www.audens.es/blog/claves-para-un-uso-responsable-de-la-ia-en-el-entorno-laboral/#respond</comments>
		
		<dc:creator><![CDATA[Marcos Judel]]></dc:creator>
		<pubDate>Thu, 06 Nov 2025 18:30:01 +0000</pubDate>
				<category><![CDATA[Inteligencia artificial]]></category>
		<category><![CDATA[Protección de Datos]]></category>
		<category><![CDATA[Gobernanza]]></category>
		<category><![CDATA[Reformas legales]]></category>
		<category><![CDATA[RGPD]]></category>
		<category><![CDATA[Sanciones]]></category>
		<guid isPermaLink="false">https://www.audens.es/blog/?p=3219</guid>

					<description><![CDATA[El uso de la IA en recursos humanos exige transparencia, trazabilidad y control. Analizamos las nuevas obligaciones legales y su impacto en las empresas.]]></description>
										<content:encoded><![CDATA[
<p>La inteligencia artificial ya forma parte de la gestión de personas. Se usa para seleccionar candidatos, medir rendimientos, asignar tareas o controlar horarios. Pero su avance plantea una cuestión incómoda: ¿cuándo una herramienta de eficiencia se convierte en un instrumento de vigilancia?</p>



<p>En los últimos años, el marco normativo ha empezado a responder. En España, el artículo 64.4.d) del Estatuto de los Trabajadores —tras su modificación en 2021— reconoce el derecho de los representantes de las personas trabajadoras a ser informados “<em>de los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones que puedan incidir en las condiciones de trabajo, el acceso y mantenimiento del empleo, incluida la elaboración de perfiles</em>”. En aplicación de este precepto, la vicepresidenta segunda y ministra de Trabajo, Yolanda Díaz, ha anunciado una campaña de <a href="https://www.europapress.es/economia/laboral-00346/noticia-diaz-anuncia-campana-inspeccion-trabajo-vigilar-uso-algoritmos-grandes-tecnologicas-20251106120947.html">inspección dirigida a las grandes plataformas tecnológicas para comprobar cómo emplean los algoritmos en la gestión laboral</a>.</p>



<p>En paralelo, el Reglamento General de Protección de Datos (RGPD) impone principios de <strong>minimización,  transparencia, proporcionalidad y supervisión humana</strong> en las decisiones automatizadas que tengan efectos jurídicos o significativos sobre las personas.</p>



<p>Y el nuevo <strong>Reglamento Europeo de Inteligencia Artificial (IA Act)</strong> refuerza esta línea al calificar como <strong>sistemas de alto riesgo aquellos que intervienen en procesos de contratación, evaluación o despido</strong>, imponiendo obligaciones reforzadas de documentación, explicabilidad y control humano.</p>



<p>La conclusión es nítida: <strong>la normativa no prohíbe la IA en recursos humanos, pero sí exige gobernarla con rigor y trazabilidad</strong>.</p>



<p>La cuestión no es local. La AEPD, en su <a href="https://www.aepd.es/memorias/memoria-aepd-2023.pdf">Memoria de 2023</a>, ya advirtió del riesgo de opacidad en la toma de decisiones automatizadas en el ámbito laboral y de la necesidad de reforzar la información a los trabajadores sobre el uso de algoritmos. También en su <a href="https://www.aepd.es/guias/la-proteccion-de-datos-en-las-relaciones-laborales.pdf">Guía sobre tratamientos de datos en relaciones laborales</a> subraya que las herramientas basadas en IA deben respetar los principios del artículo 22 del RGPD y garantizar siempre la posibilidad de intervención humana. En la misma línea, la CNIL francesa ha publicado recomendaciones específicas sobre la transparencia en algoritmos de evaluación y selección, alertando sobre su potencial discriminatorio; y el Comité Europeo de Protección de Datos (CEPD) ha recordado que las evaluaciones automatizadas en el empleo requieren garantías reforzadas de información, revisión y supervisión efectiva. En conjunto, el mensaje de las autoridades es claro: <strong>la automatización sin control no es compatible con los derechos fundamentales.</strong></p>



<p><strong>Dos planos de cumplimiento: quienes desarrollan y quienes utilizan IA</strong></p>



<p>Las obligaciones varían según el rol que tenga cada uno. Los <strong>desarrolladores o comercializadores de sistemas de IA</strong> destinados a la gestión de personas deben <strong>demostrar el cumplimiento de los requisitos de transparencia, explicabilidad y respeto al RGPD y al IA Act</strong>. Esto implica documentar la lógica de los algoritmos, realizar evaluaciones de riesgo, mitigar sesgos y garantizar la posibilidad real de intervención humana. En definitiva, incorporar el cumplimiento desde el diseño.</p>



<p>Las <strong>empresas que adquieren o utilizan soluciones IA no pueden limitarse a confiar ciegamente en su proveedor</strong>. Deben conocer cómo funciona el sistema, qué datos utiliza y para qué decisiones se aplica. La diligencia mínima pasa por revisar los contratos, exigir evidencias de cumplimiento, incorporar cláusulas de responsabilidad y realizar auditorías periódicas. El principio de responsabilidad proactiva del RGPD obliga también aquí: usar IA de terceros no exime de responder por sus efectos.</p>



<p>Y si además cuentan con representación legal de los trabajadores, la obligación de transparencia será doble:&nbsp;<strong>frente a la autoridad y frente al comité de empresa</strong>, como ya empieza a verse en las primeras actuaciones inspectoras anunciadas por el Ministerio de Trabajo.</p>



<p><strong>Riesgos y oportunidades para las empresas tecnológicas</strong></p>



<p>El riesgo no radica en usar algoritmos, sino en no entender su alcance. Muchas compañías integran soluciones de IA sin analizar su impacto jurídico o ético, lo que puede traducirse en decisiones opacas, discriminatorias o desproporcionadas. También en conflictos con empleados, sanciones administrativas o daños reputacionales.</p>



<p>Un algoritmo de selección que descarte candidatos por edad o localización, o un sistema que mida la productividad según el tiempo frente a pantalla, puede vulnerar la igualdad, la intimidad o incluso el derecho a la desconexión… máxime si no hay un verdadero control por parte de un humano (uno inteligente, si se me permite el guiño).</p>



<p>Por el contrario, <strong>una gestión algorítmica bien diseñada puede convertirse en una&nbsp;ventaja competitiva real</strong>. Las empresas que establezcan políticas claras sobre el uso de la IA demostrarán transparencia, responsabilidad y capacidad de anticiparse a las exigencias regulatorias. En un mercado donde la confianza tecnológica es un valor escaso, la gobernanza de la inteligencia artificial y la protección de datos será un signo de madurez corporativa.</p>



<p><strong>Claves para una gestión responsable</strong></p>



<p>En mi opinión, el cumplimiento se construye sobre tres ejes esenciales.</p>



<p>Primero,&nbsp;<strong>inventario y auditoría</strong>: identificar qué sistemas algorítmicos se utilizan, qué datos tratan y con qué finalidad. Este mapa permite conocer los riesgos y aplicar medidas correctoras. Tanto desarrolladores como usuarios deben mantenerlo actualizado y revisarlo periódicamente.</p>



<p>Segundo, <strong>gobernanza</strong>: definir políticas internas sobre el uso de IA con criterios de transparencia, revisión y supervisión humana. La gobernanza empieza en el diseño, pero debe extenderse a la implantación y al uso, <a href="https://www.audens.es/blog/la-ia-generativa-bajo-la-lupa-por-que-la-proteccion-de-datos-es-clave-para-su-futuro/">en coherencia con el RGPD y con otras normas sectoriales</a>, como ya he dicho otras veces.</p>



<p>Y tercero,&nbsp;<strong>formación y cultura</strong>: coordinar a RRHH, tecnología y cumplimiento, pero también&nbsp;<strong>formar a quienes emplean la tecnología y a quienes están sujetos a ella</strong>. Sin conocimiento, la IA deja de ser una herramienta y se convierte en un riesgo.</p>



<p><strong>Mirando hacia adelante</strong></p>



<p>El reto no es solo técnico ni jurídico, sino cultural. La IA puede hacer el trabajo más justo y eficiente, pero solo si se usa con criterio y respeto a los derechos fundamentales. La supervisión algorítmica ha pasado de ser una recomendación a convertirse en una prioridad en la que la gobernanza de la IA nunca más será opcional.</p>



<p>Las empresas que lo entiendan antes serán las que mejor capitalicen la confianza. En un futuro donde los algoritmos decidirán cada vez más, <strong>lo verdaderamente diferencial será quién se atreva a explicar bien sus sistemas</strong> y demostrar que están limpios de polvo y paja.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.audens.es/blog/claves-para-un-uso-responsable-de-la-ia-en-el-entorno-laboral/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<media:content url="https://www.audens.es/blog/wp-content/uploads/2025/11/Controllaboral.jpg" width="200" height="200" medium="image" type="image/jpeg" />	</item>
		<item>
		<title>La IA generativa bajo la lupa: ¿por qué la protección de datos es clave para su futuro?</title>
		<link>https://www.audens.es/blog/la-ia-generativa-bajo-la-lupa-por-que-la-proteccion-de-datos-es-clave-para-su-futuro/</link>
					<comments>https://www.audens.es/blog/la-ia-generativa-bajo-la-lupa-por-que-la-proteccion-de-datos-es-clave-para-su-futuro/#respond</comments>
		
		<dc:creator><![CDATA[Marcos Judel]]></dc:creator>
		<pubDate>Tue, 01 Jul 2025 15:37:17 +0000</pubDate>
				<category><![CDATA[Inteligencia artificial]]></category>
		<category><![CDATA[Protección de Datos]]></category>
		<category><![CDATA[AEPD]]></category>
		<category><![CDATA[Gobernanza]]></category>
		<category><![CDATA[RGPD]]></category>
		<guid isPermaLink="false">https://www.audens.es/blog/?p=3214</guid>

					<description><![CDATA[La investigación a ChatGPT por parte de la AEPD marca un punto de inflexión: la IA generativa está bajo examen. Cumplir con el RGPD y el futuro Reglamento de Inteligencia Artificial no es una opción, sino la clave para garantizar innovación, seguridad jurídica y confianza en la nueva era digital.]]></description>
										<content:encoded><![CDATA[
<p>La irrupción de la inteligencia artificial generativa, con modelos como ChatGPT a la cabeza, ha transformado radicalmente el panorama tecnológico y empresarial. Sin embargo, esta revolución no está exenta de desafíos, especialmente en lo que respecta a la protección de datos personales. Recientemente, la <a href="https://www.vozpopuli.com/actualidad/proteccion-de-datos-aumenta-la-presion-sobre-chatgpt-se-reune-hasta-siete-veces-para-investigarla.html">Agencia Española de Protección de Datos (AEPD) ha intensificado su escrutinio sobre ChatGPT</a>, una situación que, más allá de los detalles de la investigación, pone de manifiesto una cuestión fundamental: la necesidad imperante de que los sistemas de IA operen en estricto cumplimiento con la normativa de protección de datos y el emergente Reglamento de Inteligencia Artificial de la Unión Europea.</p>



<p>La investigación a ChatGPT no es un hecho aislado, sino un reflejo de la <strong>creciente preocupación por cómo los sistemas de IA manejan la información personal</strong>. La razón principal de este escrutinio radica en la propia naturaleza de estos sistemas: la IA generativa aprende y evoluciona a partir de grandes volúmenes de datos, que pueden incluir datos personales. Y cuando un sistema trata datos personales —ya sea porque los utiliza en su entrenamiento, porque procesa entradas del usuario, o porque genera resultados que afectan a personas identificables— entran en juego todos los principios y obligaciones del Reglamento General de Protección de Datos. Y es que, precisamente, el RGPD establece desde 2018 un marco normativo sólido y exigente, aplicable a cualquiera que trate datos personales: desde la multinacional más innovadora hasta la pyme más modesta.</p>



<p>En este marco, ya sabemos que no basta con cumplir formalmente. <strong>El RGPD exige una actitud proactiva y preventiva</strong> por parte de quienes diseñan, desarrollan o ponen en marcha soluciones basadas en datos personales. La protección de datos desde el diseño y por defecto no es una etiqueta decorativa, sino una obligación legal que implica integrar medidas técnicas y organizativas desde las primeras fases del proyecto. Asimismo, la evaluación de impacto en protección de datos es un instrumento clave cuando se introducen tecnologías nuevas o tratamientos innovadores que pueden afectar significativamente a los derechos de las personas. </p>



<p><strong>A este contexto se suma ahora el Reglamento de Inteligencia Artificial</strong> de inminente aplicación completa, que establece requisitos específicos para los sistemas de IA según el nivel de riesgo que impliquen y que complementa al RGPD, y en el caso de modelos que tratan datos personales —especialmente si son considerados de alto riesgo— <strong>obliga a una doble verificación</strong>: por un lado, el <strong>cumplimiento de obligaciones específicas como la evaluación de riesgos, la trazabilidad, la supervisión humana o la documentación técnica</strong> de los sistemas de IA; por otro, la <strong>compatibilidad con los principios de protección de datos</strong>; por otro, </p>



<p>Por tanto, <strong>cuando se trate de sistemas de inteligencia artificial</strong> que entren en el ámbito de aplicación del Reglamento de IA, especialmente aquellos clasificados como de alto riesgo, deberán cumplirse una serie de obligaciones específicas que van más allá del marco del RGPD. Entre ellas, <strong>destaca la obligación de realizar (por parte del desarrollador) y revisar (por parte del usuario del despliegue) una evaluación de impacto en los derechos fundamentales</strong>, que permita identificar y mitigar los posibles efectos adversos del sistema IA sobre las personas; <strong>garantizar elementos como la trazabilidad del sistema, la supervisión humana efectiva, la calidad del conjunto de datos utilizado y la disponibilidad de documentación técnica</strong> suficiente para acreditar el cumplimiento. Todo ello con un enfoque preventivo, orientado a reforzar la seguridad jurídica y la confianza en el despliegue de tecnologías cada vez más influyentes y al alcance de todos y hasta de forma gratuita.</p>



<p>Ahora bien, cuando estos sistemas IA utilizan datos personales —ya sea en su fase de entrenamiento, durante su funcionamiento o en los resultados que generan— entran también en juego las obligaciones generales del RGPD. En estos casos, será necesario asegurar que los datos son exactos, pertinentes y limitados a lo estrictamente necesario para la finalidad del tratamiento. Habrá que <strong>establecer medidas de seguridad técnicas y organizativas adecuadas</strong>, garantizar el ejercicio efectivo de los derechos de los interesados —como el acceso, la rectificación o la oposición— y <strong>aplicar los principios de protección de datos desde el diseño y por defecto</strong>. Asimismo, deberá existir una base jurídica válida para cada tratamiento concreto, y modelos de <strong>gobernanza</strong> que integren la dimensión jurídica del dato personal como un eje central del sistema.</p>



<p>El creciente interés de las autoridades de control por los sistemas de IA generativa —como demuestra el caso de ChatGPT— refleja una evolución natural del marco regulador hacia una mayor vigilancia del uso de estas tecnologías. </p>



<p>Cumplir con el RGPD y con el Reglamento de IA <strong>no debería entenderse como una carga</strong> para el sector tecnológico, sino como una condición imprescindible para su consolidación. Las empresas que integren estos requisitos desde el diseño, que documenten adecuadamente su cumplimiento y que asuman una responsabilidad activa, no solo minimizarán riesgos legales o reputacionales, sino que también se posicionarán como referentes de una innovación responsable, sostenible y plenamente alineada con los valores europeos. Esa <strong>apuesta por la legalidad y la confianza es, además, una ventaja competitiva en un mercado cada vez más exigente</strong>. </p>



<p>Ahora bien, el equilibrio es fundamental:<strong> una aplicación excesivamente rígida de las normas y un exceso de burocracia podría acabar asfixiando el desarrollo tecnológico en Europa</strong>, en un momento en que la competencia global no da tregua. La clave está en aplicar la regulación con inteligencia, reforzando los derechos fundamentales sin frenar la capacidad de innovar.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.audens.es/blog/la-ia-generativa-bajo-la-lupa-por-que-la-proteccion-de-datos-es-clave-para-su-futuro/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<media:content url="https://www.audens.es/blog/wp-content/uploads/2024/09/desarrollo-de-codigo.jpg" width="200" height="200" medium="image" type="image/jpeg" />	</item>
		<item>
		<title>La sobrerregulación europea&#8230;</title>
		<link>https://www.audens.es/blog/la-sobrerregulacion-europea/</link>
					<comments>https://www.audens.es/blog/la-sobrerregulacion-europea/#respond</comments>
		
		<dc:creator><![CDATA[Audens]]></dc:creator>
		<pubDate>Wed, 29 Jan 2025 10:00:00 +0000</pubDate>
				<category><![CDATA[Protección de Datos]]></category>
		<category><![CDATA[Colaboraciones]]></category>
		<category><![CDATA[Diario La Ley]]></category>
		<category><![CDATA[Reformas legales]]></category>
		<category><![CDATA[Unión Europea]]></category>
		<guid isPermaLink="false">https://www.audens.es/blog/?p=3207</guid>

					<description><![CDATA[Europa lidera la regulación en privacidad e IA, pero ¿a qué precio? Marcos Judel reflexiona sobre el reto de equilibrar derechos fundamentales e innovación para evitar que la hiperregulación frene el desarrollo tecnológico.]]></description>
										<content:encoded><![CDATA[
<p>Artículo publicado por <a href="https://www.audens.es/marcos-judel.php">Marcos Judel</a> en Diario La Ley:</p>


<div class="wp-block-image">
<figure class="aligncenter size-full"><a href="https://diariolaley.laleynext.es/Content/Documento.aspx?params=H4sIAAAAAAAEAEVQwWrDMAz9mvo44jSU7uBLkx4K6Zp0YWynodgiMXi2sexs_fs569gEOujp6fGeIowkeMFAxgSmcVLw7X6d9IIDjOvKBYXhcBMFiy6CueJ6UPJHRrP7fIJFTxC1swcIYggJmVbntn9GI85oUxe0ldqD4eV7wfNOiWYoclV7vuMVWzBQPhYvekIbkc16mtvc8a4FRJoaiCCaSz28dcdNWTXDZjseXxkhBDl3MKFoNUXIxpKJoBxdvLZZ9AHIfzFpMi9LYA0GrfpzSS0kK-c-YbjdIfMPnJRo-18ZBt6b29WZHPyH5x3lR6WPbPhkawguUU5bfAObKK1VSwEAAA==WKE" target="_blank" rel="noreferrer noopener"><img fetchpriority="high" decoding="async" width="400" height="382" src="https://www.audens.es/blog/wp-content/uploads/2025/03/sobrerregulacion.png" alt="" class="wp-image-3208" srcset="https://www.audens.es/blog/wp-content/uploads/2025/03/sobrerregulacion.png 400w, https://www.audens.es/blog/wp-content/uploads/2025/03/sobrerregulacion-300x287.png 300w" sizes="(max-width: 400px) 100vw, 400px" /></a></figure>
</div>


<p class="has-text-align-right"><a href="https://cincodias.elpais.com/legal/2024-05-27/el-profesional-de-la-privacidad-imprescindible-en-la-era-de-la-inteligencia-artificial.html" target="_blank" rel="noreferrer noopener">Lea el artículo completo [+]</a></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.audens.es/blog/la-sobrerregulacion-europea/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<media:content url="https://www.audens.es/blog/wp-content/uploads/2025/03/sobrerregulacion.png" width="400" height="382" medium="image" type="image/png" />	</item>
		<item>
		<title>Blockchain, IA y supresión de datos personales</title>
		<link>https://www.audens.es/blog/blockchain-ia-y-supresion-de-datos-personales/</link>
					<comments>https://www.audens.es/blog/blockchain-ia-y-supresion-de-datos-personales/#respond</comments>
		
		<dc:creator><![CDATA[Marcos Judel]]></dc:creator>
		<pubDate>Fri, 20 Dec 2024 18:16:28 +0000</pubDate>
				<category><![CDATA[Blockchain]]></category>
		<category><![CDATA[Inteligencia artificial]]></category>
		<category><![CDATA[AEPD]]></category>
		<category><![CDATA[Gobernanza]]></category>
		<category><![CDATA[Reformas legales]]></category>
		<category><![CDATA[RGPD]]></category>
		<category><![CDATA[Smart contracts]]></category>
		<guid isPermaLink="false">https://www.audens.es/blog/?p=3196</guid>

					<description><![CDATA[La AEPD ha publicado una nota técnica sobre blockchain y RGPD que intenta reconciliar dos mundos opuestos: la inmutabilidad frente al derecho a la supresión. Sin embargo, la irrupción de la inteligencia artificial añade una capa de complejidad que pone a prueba el equilibrio entre innovación, cumplimiento normativo y competitividad.]]></description>
										<content:encoded><![CDATA[
<p>La tecnología <strong>blockchain</strong> emergió como una herramienta revolucionaria con aplicaciones que van mucho más allá de las criptomonedas, como por ejemplo los <em>smart contracts</em> que permiten automatizar el cumplimiento de acuerdos sin intermediarios, la gestión de cadenas de suministros, la gestión de derechos de autor o los sistemas de voto electrónico para ciertas operaciones. Su característica principal es que se trata de un <strong>sistema distribuido</strong>, algo que ofrece ventajas importantes como la <strong>seguridad y la inmutabilidad de los registros</strong>, ya que ya que los datos no se almacenan en un único servidor, sino que se replican en múltiples nodos de la red. De esto ya he hablado en <a href="https://www.audens.es/blog/category/blockchain/">otras entradas del blog</a>.</p>



<p>Al no existir una autoridad central que controle la blockchain, surgen dudas o impedimentos sobre quién es responsable en caso de fallos o usos indebidos, o en cómo aplicar las normas de los estados cuando todo está tan distribuido, como por ejemplo, la protección de datos personales en las redes blockchain. Es un oxímoron, pues <strong>mientras que la blockchain garantiza la inmutabilidad de los datos, el Reglamento General de Protección de Datos establece derechos como la rectificación o la supresión</strong>.</p>



<p>La Agencia Española de Protección de Datos (AEPD) ha publicado recientemente una nota técnica titulada&nbsp;<em>“<a href="https://www.aepd.es/guias/nota-tecnica-blockchain.pdf">Blockchain y protección de datos: hacia un tratamiento compatible con el RGPD</a>”</em>, en la que analiza cómo alinear el uso de la tecnología blockchain con los requisitos del RGPD así como proporcionar pautas para diseñar soluciones que cumplan con las normativas europeas en materia de privacidad y protección de datos. O por lo menos lo intenta.</p>



<p>Según la Agencia, las soluciones basadas en blockchain <strong>deberían implementar estrategias técnicas como el cifrado, el uso de <em>hashes</em> o referencias externas</strong>, para limitar el acceso a los datos personales de forma preventiva sin comprometer la integridad del sistema. Es decir, que la mejor solución es evitar que los datos personales se incluyan directamente en la blockchain; así, no habrá necesidad de suprimir ni modificar nada. O como diría mi abuela: <em>muerto el perro, se acabó la rabia</em>.</p>



<p>Sin embargo, en su análisis, la AEPD también admite que estas soluciones no resuelven completamente las tensiones entre la tecnología blockchain y el RGPD, precisamente por que estas medidas deberían aplicarse al más puro estilo del<strong> principio de la privacidad desde el diseño y por defecto</strong>.  Para ello, la Agencia sugiere explorar esquemas de gobernanza que permitan asignar roles claros dentro de la red blockchain.</p>



<p>En mi opinión hay dos problemas claros de difícil solución. El primero es que <strong>la blockchain es descentralizada desde el diseño y por defecto</strong> y tratar de controlarla legalmente con las herramientas actuales no va a servir de nada sin una regulación especial al efecto. Por supuesto, no es algo fácil y hay que pensarlo bien, pues cuanta más regulación existe, más lejos de ella se montan estas redes, lo que supone un riesgo para los derechos y libertades de las personas, y también para su patrimonio. Actualmente, localizar a los titulares de algunas redes o sistemas que usan esta tecnología es tremendamente complicado cuando se quieren perseguir estafas o robos con criptomonedas, no digamos ya para rectificar un dato personal.</p>



<p>El segundo es <strong>el impacto de la Inteligencia artificial en la blockchain</strong>. De hecho, creo que la AEPD no ha considerado que la IA que puede complicar aún más las cosas. En los últimos años, la inteligencia artificial está permitiendo desarrollar aplicaciones cada vez más sofisticadas en el ámbito del blockchain, como el análisis de grandes volúmenes de datos generados por estas infraestructuras, <strong>facilitando la extracción y análisis de datos personales dentro de una red blockchain</strong>, aumentando los riesgos de reidentificación, incluso en datos que inicialmente han sido cifrados o anonimizados.</p>



<p>En mi opinión, la nota técnica de la AEPD representa un avance para abordar los retos que plantea la blockchain en el cumplimiento del RGPD pero pone de manifiesto que aún estamos ante un terreno complejo y abierto. Siempre he defendido que el equilibrio entre innovación y cumplimiento normativo es crucial para impulsar la competitividad y el desarrollo de los negocios, pero lo cierto es que la blockchain es mayoritariamente utilizada por personas que invierten o confían en sistemas y redes poco adecuadas, ubicadas en países como Singapur, Hong Kong, las Islas Cook o San Vicente y las Granadinas u <a href="https://www.cnmv.es/Portal/advertenciaslistado.aspx?tipoAdv=1">otros chiringuitos financieros</a>, entre otros motivos, por la falta de incentivos para desarrollarse en Europa y debido a su hiperregulación, habría que atajar esta situación y puede que solo a base de legislar y sancionar no sea el camino adecuado. <strong>El equilibrio es complicado, pero no imposible</strong>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.audens.es/blog/blockchain-ia-y-supresion-de-datos-personales/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<media:content url="https://www.audens.es/blog/wp-content/uploads/2024/12/blockchain.jpg" width="200" height="200" medium="image" type="image/jpeg" />	</item>
		<item>
		<title>Reglamento IA: de la teoría a la práctica</title>
		<link>https://www.audens.es/blog/reglamento-ia-de-la-teoria-a-la-practica/</link>
					<comments>https://www.audens.es/blog/reglamento-ia-de-la-teoria-a-la-practica/#respond</comments>
		
		<dc:creator><![CDATA[Marcos Judel]]></dc:creator>
		<pubDate>Thu, 12 Dec 2024 10:00:00 +0000</pubDate>
				<category><![CDATA[Inteligencia artificial]]></category>
		<category><![CDATA[Gobernanza]]></category>
		<category><![CDATA[Reformas legales]]></category>
		<category><![CDATA[Reglamento IA]]></category>
		<category><![CDATA[RGPD]]></category>
		<guid isPermaLink="false">https://www.audens.es/blog/?p=3077</guid>

					<description><![CDATA[Análisis del Reglamento de Inteligencia Artificial de la UE: sistemas prohibidos, categorías de alto riesgo, obligaciones normativas, gobernanza interna y el impacto de su aplicación plena en 2026.]]></description>
										<content:encoded><![CDATA[
<p>La inteligencia artificial (IA) lleva más de tres décadas transformando sectores clave, desde la industria y las telecomunicaciones hasta la medicina y la educación. Sin embargo, el auge de la IA generativa y su reciente democratización han supuesto una revolución, planteando no solo nuevas oportunidades, sino también desafíos inéditos en términos de regulación y cumplimiento normativo. Gracias a la <strong>publicación del Reglamento IA de la Unión Europea</strong> (<a href="https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=OJ%3AL_202401689">Reglamento 2024/1689 de 13 de junio de 2024</a>) el pasado 12 de julio en el Diario Oficial de la UE, contamos con normas armonizadas para garantizar un uso ético y seguro de los sistemas de inteligencia artificial. Este marco regulatorio <strong>afecta tanto a desarrolladores y comercializadores de IA como a cualquier empresa que utilice estas tecnologías</strong>: de ahí que sea crucial entender los<strong> puntos clave</strong> de esta normativa y cómo pueden impactar en los negocios, para poder tomar las decisiones adecuadas desde este mismo momento.</p>



<p>El Reglamento IA tiene como objetivo establecer un estándar legal común para<strong> asegurar un uso ético y seguro de los sistemas de inteligencia artificial</strong> (con especial énfasis en aquellos que presenten un riesgo para la salud, la seguridad o los derechos fundamentales) <strong>desde su desarrollo, comercialización y utilización</strong>. De hecho, el legislador busca un enfoque equilibrado que garantice que la tecnología se utilice de manera responsable sin eliminar su potencial beneficio, en una industria en auge donde Europa no puede permitirse quedar por detrás de otras potencias.</p>



<p>El RIA es una norma compleja, llena de excepciones y salvedades, por lo que abordarla con detalle en un post es imposible. De todas formas, a modo de resumen, (la norma tiene 180 considerandos,&nbsp;113 artículos, 13 anexos y&nbsp;419 páginas) quiero destacar varios aspectos clave a tener en cuenta:</p>



<p>En primer lugar, se trata de una <strong>norma de producto</strong>, es decir, sus obligaciones principales recaen en los «<em>sistemas basados en máquinas</em>» de IA, con el fin de preservar derechos de las personas, la democracia, el Estado de Derecho y la protección del medio ambiente, mediante obligaciones a fabricantes, distribuidores y usuarios. Para favorecer esta protección, se ha establecido un <strong>ámbito de aplicación tremendamente amplio</strong>, pues se aplicará también a sistemas IA creados o desplegados fuera de la UE cuando se introduzcan en nuestro mercado único europeo, o cuando cuando los resultados de salida generados por el sistema de IA se utilicen en Europa.</p>



<p>En segundo lugar, <strong>se prohíben directamente determinados sistemas de IA</strong> por considerarlos contrarios a los valores democráticos de la UE (aunque con algunas excepciones). Esto incluye el empleo de técnicas subliminales para alterar el comportamiento de una persona de manera perjudicial, el tratar de aprovechar vulnerabilidades de grupos específicos o el uso por autoridades públicas para evaluar o clasificar la fiabilidad de personas según su conducta social, con posibles consecuencias negativas. El uso de estos sistemas puede conllevar multas de hasta 30 millones de euros o, en el caso de empresas, de hasta el 6% de su volumen de negocio total anual mundial del ejercicio financiero anterior. ¡Y las multas del RGPD nos parecían altas!</p>



<p>Además, el Reglamento IA especifica una serie de <strong>sistemas de alto riesgo sobre los que recaen obligaciones específicas</strong>. Podríamos englobarlos en dos categorías: <strong>los sistemas consistentes en componentes de seguridad de productos, o que son productos en sí mismos</strong>, como los integrados en máquinas, juguetes, ascensores, equipos radioeléctricos, equipos de embarcaciones de recreo, productos sanitarios, automoción o aviación, entre otros; y los <strong>que se consideran de alto riesgo por su finalidad</strong>, como los que se utilizan para la identificación biométrica y la categorización de personas físicas, la determinación del acceso o la asignación de personas a centros de educación o formación, la evaluación de acceso, la gestión, evaluación, contratación o despido del personal, así como aquellos relacionados con infraestructuras críticas, la aplicación de leyes, la administración de justicia o el acceso a servicios públicos esenciales, entre otros. Para todos quienes están desarrollando o utilizando estos sistemas, <strong>la norma prevé una amplia batería de obligaciones</strong>.</p>



<p>También se establecen <strong>normas para el resto de los sistemas de IA</strong>, tanto comunes como aquellos que puedan implicar un riesgo sistémico, basadas en obligaciones de transparencia, evaluación de riesgos y protección de ciberseguridad, así como un <strong>continuo recordatorio del cumplimiento del Reglamento General de Protección de Datos cuando se emplee información personal</strong> en dichos modelos o sistemas, o tengan incidencia en su entrenamiento o uso posterior.</p>



<p>Destaca también que la norma establece mecanismos de control, vigilancia y supervisión del mercado, así como obligaciones de colaboración con las autoridades de control. Este punto va a resultar complejo en la práctica, pues <strong>en España habrá varios organismos con competencias en la materia, dependiendo del tipo de sistema IA que se use y su finalidad</strong>. De forma general, la supervisión corresponderá a la<a href="https://www.boe.es/diario_boe/txt.php?id=BOE-A-2023-18911"> AESIA, con sede en A Coruña</a>; pero en función del sistema IA, su composición, finalidad y uso, podrán entrar en juego otras agencias y reguladores, como la <a href="https://www.aepd.es/prensa-y-comunicacion/blog/sistema-de-inteligencia-artificial-solo-un-algoritmo-o-varios-algoritmos">AEPD en lo concerniente a datos personales</a>, la <a href="https://www.aemps.gob.es">Agencia Española de Medicamentos y Productos Sanitarios</a> o en la <a href="https://www.seguridadaerea.gob.es">Agencia Estatal de Seguridad Aérea</a>, por ejemplo.</p>



<p>A modo de conclusión, me gustaría destacar dos ideas. En primer lugar, el Reglamento IA exige un <strong>enfoque integral que permita evaluar el grado de implicación de la inteligencia artificial</strong> en las organizaciones. Para ello, será <strong>imprescindible establecer modelos de gobernanza de IA</strong> a nivel interno que integren aspectos técnicos, procesos y organización. Esto implica no solo <strong>inventariar</strong> todos los sistemas que se empleen (incluidos aquellos integrados en aplicaciones de terceros), sino también<strong> analizar su interacción con normativas clave como la de protección de datos, la propiedad intelectual o la reciente <a href="https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=CELEX%3A32024L2853&amp;qid=1734006373839">Directiva (UE) 2024/2853</a>, sobre responsabilidad por daños</strong> causados por productos defectuosos. Solo mediante un modelo de gobernanza interna adecuado, las organizaciones podrán identificar, gestionar y mitigar los riesgos asociados a estos sistemas, sentando así una base sólida para un uso responsable y estratégico de la inteligencia artificial.</p>



<p>La segunda, y quizás la más importante, es aprender de la experiencia de la entrada en vigor del Reglamento General de Protección de Datos en 2016 y su plena aplicación en 2018 y es que <strong>este nuevo Reglamento IA</strong> <strong>será de plena aplicación a los dos años, el 2 de agosto de 2026. Y dos años pasan muy rápido</strong>. </p>



<p>En este sentido, resulta imprescindible participar en espacios donde se debate y analiza esta norma en profundidad, como a través de los foros y eventos de la <a href="http://www.apep.es">Asociación Profesional de Profesionales de la Privacidad (APEP)</a>, o en actualizarse con programas formativos como <a href="https://www.audens.es/sala-de-prensa/audens-imparte-un-curso-sobre-el-reglamento-de-inteligencia-artificial/">el curso que estamos impartiendo junto a Aranzadi La Ley</a>. Reforzar el entendimiento técnico y estratégico será esencial para que empresas y profesionales logren convertir esta regulación en un aliado para la innovación y la confianza. Y como sucedió con el RGPD, los próximos años marcarán el ritmo de la transformación digital en Europa. Permítanme cerrar este post como terminé uno escrito el <a href="https://www.audens.es/blog/anteproyecto-lopd-volumen-1/">29 de junio de 2017, sobre la inminente aplicación del RGPD</a>: <strong><em>tempus fugit</em>!</strong></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.audens.es/blog/reglamento-ia-de-la-teoria-a-la-practica/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<media:content url="https://www.audens.es/blog/wp-content/uploads/2024/12/cuenta-atras.jpg" width="200" height="200" medium="image" type="image/jpeg" />	</item>
		<item>
		<title>Directiva NIS2: ciberseguridad elevada&#8230;</title>
		<link>https://www.audens.es/blog/directiva-nis2-ciberseguridad-elevada/</link>
					<comments>https://www.audens.es/blog/directiva-nis2-ciberseguridad-elevada/#respond</comments>
		
		<dc:creator><![CDATA[Audens]]></dc:creator>
		<pubDate>Tue, 03 Dec 2024 08:00:00 +0000</pubDate>
				<category><![CDATA[Nuevas tecnologías]]></category>
		<category><![CDATA[Ciberseguridad]]></category>
		<category><![CDATA[Reformas legales]]></category>
		<guid isPermaLink="false">https://www.audens.es/blog/?p=3201</guid>

					<description><![CDATA[Marcos Judel opina sobre el retraso en la transposición de la norma en España, y destaca cómo las empresas deben adaptar sus procesos para anticiparse a posibles sanciones y fortalecer su resiliencia.]]></description>
										<content:encoded><![CDATA[
<p>Artículo publicado por <a href="https://www.audens.es/marcos-judel.php" data-type="link" data-id="https://www.audens.es/marcos-judel.php">Marcos Judel</a> en Channel Partner:</p>


<div class="wp-block-image">
<figure class="aligncenter size-full"><a href="https://www.channelpartner.es/opinion/directiva-nis2-ciberseguridad-elevada-a-prioridad-estrategica/"><img decoding="async" width="400" height="382" src="https://www.audens.es/blog/wp-content/uploads/2024/12/channel-partner.png" alt="" class="wp-image-3203" srcset="https://www.audens.es/blog/wp-content/uploads/2024/12/channel-partner.png 400w, https://www.audens.es/blog/wp-content/uploads/2024/12/channel-partner-300x287.png 300w" sizes="(max-width: 400px) 100vw, 400px" /></a></figure>
</div>


<p class="has-text-align-right"><a href="https://www.channelpartner.es/opinion/directiva-nis2-ciberseguridad-elevada-a-prioridad-estrategica/" data-type="link" data-id="https://www.channelpartner.es/opinion/directiva-nis2-ciberseguridad-elevada-a-prioridad-estrategica/" target="_blank" rel="noreferrer noopener">Lea el artículo completo [+]</a></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.audens.es/blog/directiva-nis2-ciberseguridad-elevada/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<media:content url="https://www.audens.es/blog/wp-content/uploads/2024/12/channel-partner.png" width="400" height="382" medium="image" type="image/png" />	</item>
	</channel>
</rss>
