El Comité Europeo de Protección de Datos (CEPD) ha emitido un dictamen sobre el uso de datos personales en la creación de modelos de inteligencia artificial (IA), destacando la importancia del Reglamento General de Protección de Datos (RGPD) para asegurar una IA responsable. El dictamen aborda cuestiones como la anonimización de los modelos, el uso del interés legítimo como base jurídica y las implicaciones del tratamiento ilegal de datos. Se enfatiza la necesidad de evaluar caso por caso el anonimato y se ofrecen criterios para que las autoridades evalúen las expectativas razonables de los usuarios sobre el uso de sus datos.
El Comité Europeo de Protección de Datos (CEPD) ha emitido un nuevo dictamen que aborda el uso de datos personales en el desarrollo e implementación de modelos de inteligencia artificial (IA). Esta decisión, tomada en Bruselas, se centra en cuestiones críticas como la anonimización de los modelos de IA y la legitimidad del interés en su utilización.
La evaluación del CEPD incluye tres aspectos fundamentales: primero, cuándo y cómo se pueden considerar anónimos los modelos de IA; segundo, si el interés legítimo puede ser una base jurídica para su desarrollo; y tercero, las implicaciones del uso de datos personales tratados de manera ilegal. Además, se analiza el uso de datos tanto de primera como de tercera parte.
Este dictamen fue solicitado por la Autoridad Irlandesa de Protección de Datos con el objetivo de establecer una armonización normativa a nivel europeo. Para ello, el CEPD organizó un evento con partes interesadas y mantuvo diálogos con la Oficina de IA de la UE, buscando recopilar opiniones sobre estas tecnologías que están evolucionando rápidamente y que tienen un impacto significativo en la sociedad.
Talus, presidente del CEPD, afirmó: «Las tecnologías de IA pueden aportar muchas oportunidades y beneficios a diferentes industrias y ámbitos de la vida. Necesitamos asegurarnos de que estas innovaciones se realicen de manera ética, segura y que beneficien a todos. El CEPD quiere apoyar la innovación responsable en materia de IA garantizando la protección de los datos personales y respetando plenamente el Reglamento General de Protección de Datos (RGPD).»
En relación al anonimato, el dictamen establece que las Autoridades Nacionales deben evaluar cada caso individualmente para determinar si un modelo es verdaderamente anónimo. Para lograr esto, es necesario que sea poco probable identificar a las personas cuyos datos fueron utilizados o extraer información personal mediante consultas al modelo. Se proporciona una lista no exhaustiva de métodos para demostrar este anonimato.
El CEPD también presenta ejemplos prácticos sobre cómo utilizar la IA para mejorar servicios como la ciberseguridad, destacando que estos pueden fundamentarse en el interés legítimo siempre que se demuestre su necesidad estricta y se respete el equilibrio entre derechos.
Además, se incluyen criterios para ayudar a las Autoridades a determinar si las personas pueden esperar ciertos usos razonables respecto a sus datos personales. Estos criterios consideran factores como la disponibilidad pública de los datos, la naturaleza del vínculo entre el individuo y quien trata los datos, así como el contexto en que se recopilaron.
En caso de que un modelo sea desarrollado utilizando datos personales tratados ilegalmente, esto podría afectar su legalidad a menos que haya sido debidamente anonimizado. Este aspecto resalta la importancia del cumplimiento normativo en el ámbito tecnológico actual.
Teniendo presente la diversidad y rápida evolución de los modelos de IA, este dictamen busca ofrecer orientaciones claras sobre varios elementos relevantes para un análisis caso por caso. Además, el CEPD está trabajando en directrices adicionales que abordarán cuestiones más específicas relacionadas con prácticas como el raspado web.
Nota para los editores:
*Un dictamen bajo el artículo 64, apartado 2, aborda una cuestión general o tiene efectos en más de un Estado miembro.
El Comité Europeo de Protección de Datos (CEPD) ha aprobado un dictamen sobre el uso de datos personales para el desarrollo y la implantación de modelos de IA, examinando aspectos como el anonimato de los modelos y el uso del interés legítimo como base jurídica.
El dictamen aborda cuándo y cómo pueden considerarse anónimos los modelos de IA, el uso del interés legítimo para desarrollar o utilizar estos modelos, y las implicaciones del tratamiento ilegal de datos personales en su desarrollo.
Para que un modelo sea considerado anónimo, debe ser muy poco probable identificar directa o indirectamente a las personas cuyos datos se utilizaron para crear el modelo, y no se deben poder extraer datos personales del modelo a través de consultas.
Las APD deben considerar varios factores al evaluar si el interés legítimo es adecuado, incluyendo ejemplos prácticos y una prueba de tres pasos para determinar la necesidad del tratamiento y el equilibrio de derechos.
Los criterios incluyen la disponibilidad pública de los datos, la naturaleza de la relación entre la persona y el responsable del tratamiento, y la conciencia de las personas sobre el uso de sus datos personales en línea.
Desarrollar un modelo de IA con datos tratados ilegalmente podría afectar la legalidad de su despliegue, a menos que el modelo haya sido debidamente anonimizado.