La gran paradoja de los Modelos de Lenguaje (LLMs) como GPT o Llama es que, una vez entrenados, la información se vuelve parte de su red neuronal, como un recuerdo en un cerebro humano. Hasta hoy, si querías que una IA dejara de hablar de ti, las empresas solo podían poner “parches” o filtros.
Pero con la entrada en vigor de las cláusulas de transparencia y privacidad de la Ley de IA de la UE este 2026, el listón ha subido: las empresas deben garantizar que los datos de entrenamiento puedan ser revocados, lo que está forzando el nacimiento del “Machine Unlearning” (desaprendizaje automático).
Si un ciudadano ejerce su derecho al olvido, la tecnológica debe ser capaz de demostrar que ese dato específico ya no influye en las respuestas del modelo, bajo pena de multas que podrían alcanzar el 7% de su facturación global.

El olvido algorítmico
¿Cómo planean las empresas cumplir con esta ley este 2026 sin tener que borrar y reentrenar todo el modelo (lo cual costaría millones)?
Lo primero es el olvido selectivo (Sharding & Slicing). Las empresas están dividiendo sus datos de entrenamiento en “rebanadas” independientes. Si un usuario pide ser borrado, solo se reentrena la pequeña porción del modelo que contenía esa información, ahorrando energía y tiempo.
Luego, la Edición Directa de Pesos. Se están probando algoritmos de “edición de memoria” que localizan exactamente dónde se almacena un concepto en la red neuronal y “apagan” esas conexiones específicas, de forma similar a una microcirugía cerebral.
Y también, auditorías de trazabilidad. La nueva ley exige que cada dato usado para entrenar una IA de “alto riesgo” tenga un registro claro. Si no pueden rastrear de dónde vino la información, no pueden operarla en territorio europeo.

Cronograma de la Ley de IA: El reloj de la privacidad
| Febrero 2026 | Guías para IA de Alto Riesgo. | Definición de qué sistemas deben ser auditados. |
| Agosto 2026 | Plena Aplicación de la Ley. | Derecho exigible de borrado en modelos GPAI. |
| Noviembre 2026 | Marca de agua obligatoria. | Todo contenido generado por IA debe ser identificable. |
| Agosto 2027 | Reglas para productos regulados. | IA en salud y justicia bajo control total. |
El Efecto Espejo: Cómo la Ley de IA Europea está dictando las reglas en América Latina
Al igual que ocurrió con el GDPR (privacidad de datos), las empresas tecnológicas globales (Google, OpenAI, Meta) prefieren estandarizar sus procesos. Si Europa les obliga a incluir un botón de “Derecho al Olvido” o a marcar el contenido generado por IA, lo más probable es que esa función termine apareciendo en las versiones de sus apps para Chile o México.
Pero más allá de la voluntad de las empresas, los gobiernos latinos están en plena carrera legislativa usando el borrador europeo como manual.
El caso de Chile: Liderazgo regional
Chile está a la vanguardia. Para este marzo y abril de 2026, el proyecto de ley que regula la IA en Chile (Boletín N° 16.821-19) sigue avanzando en el Senado.
- Inspiración Europea: El proyecto chileno copia la estructura de niveles de riesgo de la UE. Divide la IA en “Riesgo Inaceptable” (prohibida), “Alto Riesgo” (regulada) y “Riesgo Mínimo”.
- Derechos Fundamentales: Al igual que en la UE, la ley chilena busca proteger la dignidad y la igualdad, prohibiendo sistemas de “puntuación social” o manipulación subliminal que cause daño.

Brasil: El gigante regulador
Brasil aprobó en su Senado el proyecto de ley 2338/2023. Al ser el mercado más grande de la región, su decisión de alinearse con los estándares europeos obliga a que cualquier desarrollador de IA en Latam tenga que mirar hacia Brasilia para saber qué puede o no puede hacer.
¿Qué estamos “importando” de la ley europea?
| Característica | Ley de IA Unión Europea | Proyectos en América Latina (2026) |
|---|---|---|
| Clasificación de Riesgo | Sí, 4 niveles estrictos. | Adoptada por Chile y Brasil. |
| Derecho al Olvido | Obligatorio (Machine Unlearning). | En discusión bajo leyes de Protección de Datos. |
| Transparencia (Marcado IA) | Obligatorio desde agosto 2026. | Propuesto en Chile y México. |
| Multas GIGANTES | Hasta el 7% de facturación global. | Proporcionalmente menores, pero significativas. |
Un estándar global, una realidad local
América Latina ha dejado de ser el “lejano oeste” donde la tecnología se probaba sin filtros. Este 6 de abril de 2026, estamos viendo cómo el bloque latinoamericano utiliza la fuerza regulatoria de Europa para no quedarse atrás.
Sin embargo, el desafío es nuestro: ¿podremos aplicar estas leyes sin frenar la innovación de nuestras propias startups locales? El equilibrio entre seguridad y progreso se está cocinando ahora mismo en Valparaíso y São Paulo.
¿Es posible olvidar de verdad?
Este es el mayor choque entre la ingeniería y la ley. Por un lado, tenemos modelos diseñados para retener y conectar todo; por el otro, una ley que exige el derecho a la inexistencia digital.
Este 2026 será el año en que descubriremos si el “Machine Unlearning” es una realidad técnica o simplemente una utopía legal. Lo que está claro es que la era en la que las IAs devoraban datos sin consecuencias ha terminado. Ahora, el usuario tiene el interruptor del olvido en su mano.





