SANTO DOMINGO, RD. – Un reciente estudio de la Universitat Rovira i Virgili (URV) de Tarragona, España, ha puesto en evidencia las limitaciones del desaprendizaje en modelos de inteligencia artificial (IA). La investigación advierte sobre la urgente necesidad de desarrollar nuevos métodos que garanticen la eliminación de datos sensibles o personales de estos sistemas.
Los investigadores analizaron la efectividad de las técnicas de desaprendizaje en modelos de lenguaje extensos como ChatGPT, Mixtral, Bard o Copilot. El objetivo de estas técnicas es suprimir información personal, incorrecta o discriminatoria. Sin embargo, el estudio concluye que no existe una fórmula que asegure el olvido total de los datos, a menos que se reentrene el modelo desde cero sin la información que se desea eliminar.
Según los autores, esta limitación entra en conflicto directo con el derecho al olvido, un principio fundamental del Reglamento General de Protección de Datos de la Unión Europea, que exige la supresión de datos personales si el interesado así lo solicita.
Las grandes compañías que gestionan estos modelos de IA entrenan sus sistemas con volúmenes masivos de información para optimizar su rendimiento, lo que complica enormemente la identificación y eliminación selectiva de datos específicos.
Desafíos y futuras soluciones para el desaprendizaje
Los investigadores distinguen dos enfoques para lograr el desaprendizaje. La primera vía consiste en reentrenar completamente el modelo, lo cual implica un costo computacional muy elevado. La segunda opción, más eficiente, busca eliminar solo partes concretas del conocimiento sin rehacer el sistema desde cero. Sin embargo, esta última no ofrece garantías plenas de un borrado total.
Un desafío adicional es que no se conoce con precisión cómo se almacena la información dentro de estos modelos, ni siquiera por parte de sus propios desarrolladores.
El estudio de la URV concluye que será fundamental diseñar nuevas formas de entrenar los modelos de IA pensando desde el inicio en el desaprendizaje. Esto podría incluir estrategias como fragmentar los datos de manera que sea posible suprimir partes específicas del conocimiento sin comprometer la totalidad del modelo ni su funcionalidad.





