Clasificación del riesgo de los sistemas de IA, según la nueva ley
Como ya anunciamos en su día, la Unión Europea ha aprobado un acuerdo provisional sobre el reglamento que regula el uso de la Inteligencia Artificial (IA). Esta legislación, aún pendiente de ratificación, pretende proteger los derechos humanos y garantizar la seguridad pública, marcando un equilibrio entre innovación y ética en la creciente digitalización global.
Veridas, empresa tecnológica española especializada en identidad digital y biometría, explica el riesgo regulado en las aplicaciones específicas de sistemas de IA. Este enfoque no evalúa la tecnología en sí misma, sino sus usos específicos, clasificándolos en categorías distintas.
Clasificación según el riesgo
- Prohibidas: esta categoría incluye aquellos sistemas de IA que representan una amenaza directa a la seguridad pública, los derechos fundamentales o la privacidad. Su uso está estrictamente prohibido.
- Alto Riesgo: aquí se clasifican los sistemas de IA que podrían tener un impacto considerable en la privacidad individual o en los derechos humanos. Estos sistemas están sujetos a estrictos controles y medidas de protección.
- Bajo Riesgo: finalmente, los sistemas que no se ajustan a las categorías anteriores se consideran de bajo riesgo. Es importante destacar que esta clasificación no es explícita, sino más bien por exclusión. En esta categoría prima la capacidad de decisión de los ciudadanos de forma libre, informada, voluntaria e inequívoca.
“La ratificación del Reglamento de Inteligencia Artificial marca un paso crucial en la regulación de la IA y la biometría. En Veridas, hemos estado a la vanguardia en el desarrollo y aplicación de tecnologías que verifican y autentican la identidad de manera segura y respetuosa. Nuestras soluciones tecnológicas son privadas y seguras por defecto y desde el diseño, y persiguen el objetivo de dar a los ciudadanos la posibilidad de acreditar su identidad por quiénes son”, ha indicado Leire Arbona, directora de Legal y Cumplimiento en Veridas.
Sistemas de reconocimiento biométrico: un enfoque en consentimiento y riesgo
Este Reglamento de la IA introduce una importante distinción en el uso de tecnologías biométricas, enfocándose en el conocimiento y consentimiento del usuario como criterio clave para su clasificación. Las aplicaciones que involucran una participación activa y consciente del usuario, demostrando su conocimiento y aprobación, se considerarán de bajo riesgo. Este enfoque destaca la importancia del consentimiento en la era digital.
Por otro lado, la Identificación Biométrica Remota (RBI), concepto que implica la no participación activa del usuario y comúnmente asociada a la vigilancia masiva, se clasifica como de alto riesgo. Además, cuando esos sistemas de RBI se emplean en tiempo real en espacios abiertos al público y con fines policiales, su uso quedará prohibido salvo en supuestos muy excepcionales en los que, en todo caso, deberían aplicarse medidas de seguridad adicionales.
Entre las aplicaciones consideradas de bajo riesgo, se incluyen la verificación biométrica para la apertura de cuentas y el control de acceso físico a edificios y recintos de forma voluntaria.
Biometría: integrando la privacidad desde el diseño
Ante esta situación, Veridas destaca las tecnologías biométricas actuales, respaldadas por la IA y clasificadas de bajo riesgo, no solo son confiables por su categorización, sino también por sus características inherentes de privacidad y seguridad:
- Privacidad garantizada: los vectores biométricos utilizados no revelan la identidad directa del individuo.
- Irreversibilidad: imposible recuperar la imagen facial original a partir del vector, garantizando la seguridad de los datos.
- Exclusividad y no interoperabilidad: los vectores faciales son únicos para cada sistema, evitando el uso cruzado entre diferentes fabricantes.
- Cifrado avanzado: protección de datos a través de una encriptación robusta y única.
- Revocabilidad: posibilidad de actualizar o cancelar el vector facial, asegurando adaptabilidad en caso de compromiso de datos.
- Equidad y sin sesgo: compromiso con la precisión equitativa para todos los grupos, asegurando un tratamiento justo y ético.
- Respeto por la privacidad: diseñados para no incluir ni permitir inferir datos sensibles.
La entrada Clasificación del riesgo de los sistemas de IA, según la nueva ley es original de MuyPymes
Muy PYMES
Enlace: Clasificación del riesgo de los sistemas de IA, según la nueva ley
No hay comentarios