Universidades, IA y datos personales

División de Sistemas Informáticos

La expansión de la inteligencia artificial dentro de las universidades ha transformado la manera en que se gestionan procesos académicos, administrativos y de investigación. Sistemas utilizados para evaluar desempeño estudiantil, apoyar admisiones o generar análisis predictivos requieren trabajar con grandes cantidades de información personal, situación que ha incrementado la preocupación sobre cómo resguardar esos datos.

En este contexto, mecanismos como la anonimización y la seudonimización han cobrado relevancia como herramientas fundamentales para reducir riesgos de privacidad y garantizar un uso más seguro y responsable de la IA.

Actualmente, organismos internacionales y autoridades especializadas en protección de datos coinciden en que no puede existir una inteligencia artificial confiable sin mecanismos sólidos para resguardar la identidad de las personas. El desafío ya no solo consiste en recopilar información, sino en reducir al mínimo el riesgo de que un individuo pueda ser identificado dentro de una base de datos utilizada para entrenar o ejecutar sistemas algorítmicos.

En el entorno universitario, la anonimización implica transformar los datos de manera irreversible para impedir que una persona pueda ser reconocida, incluso si se combina esa información con otras fuentes disponibles.

Universidades, IA y datos personales

Cuando este procedimiento se realiza correctamente, los datos dejan de considerarse personales; este tipo de técnicas suele utilizarse en estadísticas institucionales, proyectos de datos abiertos o entrenamiento de modelos de inteligencia artificial donde no es necesario rastrear al individuo.

Por su parte, la seudonimización funciona de forma distinta, en este caso, los identificadores personales son reemplazados por códigos o claves que permanecen bajo control de la institución. Aunque la identidad no sea visible directamente, la información todavía se considera dato personal porque existe la posibilidad de revertir el proceso.

Esta práctica es frecuente en investigaciones académicas, sistemas de analítica predictiva o plataformas de IA que requieren seguimiento individual de estudiantes o usuarios.

Las universidades con mayor avance en gobernanza digital ya no trabajan únicamente con medidas aisladas de protección, ya que han comenzado a establecer procedimientos completos que incluyen la clasificación de datos, la identificación de variables sensibles y la evaluación constante del riesgo de reidentificación antes de utilizar información en sistemas de inteligencia artificial.

Entre las medidas más utilizadas se encuentran la eliminación de campos identificables, la generalización de datos mediante rangos o agrupaciones y técnicas más complejas diseñadas para dificultar el reconocimiento de individuos dentro de grandes conjuntos de información, además, varias instituciones documentan cada etapa del proceso como parte de sus mecanismos de responsabilidad institucional.

En el caso de la seudonimización, las prácticas más avanzadas incluyen la separación física de las claves de identificación, controles estrictos de acceso y auditorías permanentes sobre el uso de los datos durante el entrenamiento o funcionamiento de modelos de IA. Estas medidas son especialmente relevantes en sistemas considerados de alto riesgo, como aquellos que buscan predecir deserción escolar, desempeño académico o asignación de apoyos estudiantiles.

Algunas universidades internacionales también han incorporado políticas internas que conectan privacidad, ética e inteligencia artificial dentro de sus procesos académicos y administrativos.

No solo establecen criterios claros para determinar cuándo un dato puede considerarse anónimo, sino que además desarrollan capacitaciones y lineamientos específicos para investigadores y desarrolladores.

En contraste, gran parte de las instituciones de educación superior en América Latina todavía carecen de protocolos formales para este tipo de tratamiento de datos, la ausencia de procedimientos especializados puede derivar en problemas legales, afectaciones reputacionales y obstáculos para implementar inteligencia artificial de manera legítima y segura.

Las universidades que buscan integrar inteligencia artificial de forma responsable necesitan avanzar hacia modelos institucionales más robustos, capaces de garantizar protección de datos, transparencia y control sobre los riesgos asociados al uso de información personal.