Nueva Ley de Inteligencia Artificial: ¿qué opinan las startups especializadas?

El año 2023 se despedía con, entre otras cosas, la aprobación de la primera regulación integral de IA del mundo, realizada por la Unión Europea. Aunque, como advierten nuestros compañeros de MCPRO, aún falta la ratificación por parte del Parlamento Europeo y del Consejo de la UE y no se espera que esté vigente hasta 2026.

La bautizada como IA Act se presentó por primera vez hace más de dos años, por lo que se trata de un avance sin precedentes para que los desarrolladores de sistemas de IA, como ChatGPT, comiencen a cumplir requisitos básicos de transparencia (salvo que fuesen gratuitos y de código abierto). La normativa se ha enfocado en aspectos clave como la vigilancia biométrica y las características de los modelos funcionales.

Pero, ¿cómo se han tomado este borrador las startups españolas que trabajan o se basan en la Inteligencia Artificial? Desde MuyPymes hemos querido hablar con algunas de ellas para que nos den su visión profesional sobre qué aspectos les gusta más y cuáles menos, así como lo que echan en falta de esta primera normativa.

Sergio Álvaro

Sergio Álvaro Povedano, Country Manager de Contents.com en España y Portugal.

«El gran problema de la ley es que no se está llevando a cabo a nivel global»

Para mí la parte más atractiva de la ley es el apoyo drástico que ha recibido la IA Generativa, pero «con vigilancia», para nosotros es algo que era fundamental y que desde nuestros inicios hemos tenido en cuenta en todos nuestros desarrollos. Lo mejor de esta ley se encuentra en las prohibiciones del uso de esta tecnología en determinados campos, pues para algunos usos de la IA, el riesgo se considera inaceptable por su amenaza potencial para los derechos de los ciudadanos y la democracia.

La inteligencia artificial (IA), que antes sólo estaba al alcance de los expertos, ha empezado a ser común entre la gente gracias a desarrollos como Open AI, Google’s Gemini y el próximo IA de WhatsApp. Esta mayor accesibilidad, sin embargo, ha traído consigo preocupaciones sobre los posibles peligros de la IA.

Personalidades influyentes como Elon Musk y Bill Gates han expresado su inquietud en este sentido, especialmente en lo que respecta al manejo incorrecto de esta sofisticada tecnología. La IA puede ofrecer beneficios significativos, pero también puede ser una amenaza si se utiliza de manera inadecuada.

Por otro lado, lo peor ley radica en tres aspectos fundamentales:

  1. De cara al emprendimiento, nuevos desarrollos e implementación de esta tecnología; pues va a ser un freno enorme, e incluso vamos a desechar proyectos antes de inventarlos, algo que va a chocar frontalmente con la evolución de esta tecnología. De hecho, la ley para regular la IA en Europa ya está generando discrepancias dentro del sector, pues varios actores del mismo señalan que puede frenar la innovación y la competitividad de las empresas europeas tal y como han comentado los altos comisionados de países tan importantes como son Francia e Italia.
  2. Se deja una puerta abierta para que determinados sectores puedan utilizar sistemas de vigilancia biométrica, como es el sector de la seguridad ciudadana o la seguridad nacional, algo que desde mi punto de vista atenta gravemente contra el derecho a la privacidad. Por supuesto es importante, pero ¿dónde está el límite?, y esto es lo que me lleva al tercer punto.
  3. El gran problema de la ley de regulación de la IA es que no se está llevando a cabo a nivel global, una ley unificada entre todos los países y sus diferentes actores, lo que puede implicar una fuga de talento enorme entre países que ejerzan una ley más severa frente a otros que lo sean menos.

¿Echas algo en falta?

Lo que más echo en falta es una verdadera regulación que combata el sesgo de una forma mucho más concreta. Los modelos de IA generativa centrados en la generación de texto, como GPT, se denominan modelos de lenguaje grande (LLM). Se han entrenado con una gran cantidad de textos, incluidos los de varias épocas, incluso de siglos atrás. Estos datos de formación pueden contener obras de figuras influyentes que defendieron la esclavitud o que tenían puntos de vista racistas.

Por ende, esto implica que se puedan producir diferentes tipos de sesgos, por lo que debería estar mucho más presente este tema en la nueva ley. Abordar estos y otros tipos de discriminación en los conjuntos de datos de entrenamiento es crucial para desarrollar modelos de IA justos y precisos que representen las perspectivas de diferentes poblaciones.

Contents.com es una plataforma de Inteligencia Artificial generativa que ayuda a crear textos, audios, vídeos y animaciones, asegurando el máximo estándar de calidad, lo que le permite marcar la diferencia dentro del campo de las plataformas de IA.

juli

Juli Climent Querol, director del área de Inteligencia Artificial de ASHO.

«Echo en falta una mención específica de la IA en la salud»

Lo mejor de esta ley es la creación de un organismo europeo que se dedique a velar por el cumplimiento, y sobre todo, la actualización de lo que corresponde un riesgo o no en IA, más aun teniendo en cuenta la creación del foro consultivo mediante el cual la sociedad civil en su conjunto (pymes, academia, etc…) pueda hacer valer sus preocupaciones e intereses.

Esto es importante, sobre todo a nivel internacional. Por ejemplo, la Unión Europea aprobó que en su mercado sólo se podría utilizar cargador de USB tipo C, y si bien compañías como Apple en un principio se negaban, la perspectiva de perder el mercado europeo les hizo fabricar los iPhone con este cargador, lo que provocó a su vez que por un tema de costes cambiaran a USB C internacionalmente.

El objetivo de la UE es hacer que su normativa se expanda internacionalmente, y eso pasa por crear las estructuras necesarias para su cumplimiento en su propio territorio.

Sin embargo, lo peor es que, a nivel global, la ley pone una piedra fundacional que es necesaria, pero hasta que no pase un determinado tiempo hay cabos abiertos que entiendo que se deberán concretar. Por ejemplo, la ley no aplica a seguridad nacional y defensa, pero me asalta la duda de qué sucedería en caso de una tecnología desarrollada inicialmente para defensa que luego da el salto al uso civil, como podría ser el GPS.

Esto permite que con el paraguas de la seguridad nacional se puedan crear empresas que justifiquen un periodo de desarrollo más corto en su producto, con limitado potencial en defensa pero alto en uso civil, haciendo que la competencia entre agentes privados no funcione como debería.

¿Echas algo en falta?

La falta de mención específica a la IA en salud. Si bien es cierto que esta norma hace referencia tangencialmente a la salud al hacer mención a los servicios esenciales, durante los próximos años veremos que la sanidad será uno de los sectores que más beneficiados se verá por el avance de esta tecnología.

Sabiendo eso, y más aun teniendo en cuenta que de su uso se pueden derivar consecuencias en la salud, considero que merecería una mención especial en la ley.

ASHO es la empresa líder a nivel nacional en la prestación de servicios de codificación de altas hospitalarias y codificación automática de procesos ambulatorios mediante IA: Urgencias, Consultas Externas, Hospital de Día. 

Adriana Botelho

Adriana Botelho, CEO y Co-Fundadora de Keepcoding.

«Una fortaleza clave de esta ley radica en su enfoque diferenciado según el nivel de riesgo»

Una fortaleza clave de esta ley radica en su enfoque diferenciado según el nivel de riesgo de la inteligencia artificial. Clasificar los sistemas en categorías de riesgo inaceptable, alto riesgo y riesgo limitado permite una regulación adaptada a las potenciales amenazas, proporcionando un marco específico y detallado para cada caso.

Además, la transparencia exigida a la IA generativa, como ChatGPT, destaca la importancia de la revelación del contenido generado por IA, tan importante hoy en día, y la prevención de contenidos ilegales. Aunque no abarca todos los temas que hay sobre la mesa actualmente, esta ley nos proporciona algo más de claridad en cuanto al desarrollo y aplicación de IA.

Por otro lado, esta ley tiene varios vacíos legales que dejan ver que aún queda mucho por avanzar en lo respecta a la normativa sobre IA. Por ejemplo, deja de lado algunas de las prohibiciones que se habían aprobado en el Parlamento Europeo, como el uso de sistemas de reconocimiento facial y biométrico en espacios públicos. Todas esas lagunas permiten la posibilidad de que ciertas aplicaciones de la IA evadan las regulaciones, lo que podría llevar a abusos o mal uso de la tecnología. Además, no queda del todo claro cómo o con qué recursos se garantizará la supervisión y cumplimiento de esta ley.

¿Echas algo en falta?

Si bien es la primera regulación sobre IA y aún queda mucho camino por recorrer, es importante tener en cuenta medidas más rigurosas, que no estrictas, para asegurar su debida aplicación. La normativa debería ser más clara y detallada en su enfoque hacia las innovaciones emergentes en la IA, que avanzan continuamente y requieren una adaptación constante. Sí, la ley AI Act es el primer paso, pero aún necesitamos llenar los detalles para asegurarnos de que funcione correctamente en la práctica, especialmente a medida que la tecnología evoluciona.

Keepcoding es un centro de formación de alto rendimiento en programación y tecnología.

Marc Assens

Marc Assens, Chief Technology Officer (CTO) y Co-Fundador de Happy Scribe.

«Los valores de riesgo establecidos en la ley están bien diseñados»

Lo mejor de esta ley es que es necesaria. En Happy Scribe trabajamos con IA cada día y vemos su avance como algo positivo, pero somos conscientes de que puede ser peligroso, especialmente cuando es utilizada de manera incorrecta por grandes corporaciones o gobiernos. Valoramos que los niveles de riesgo establecidos en esta regulación estén bien diseñados, ofreciendo un marco necesario para prevenir su mal uso y promover un desarrollo de la IA responsable y seguro.

Por otro lado, esta ley podría complicar las operaciones de pequeñas empresas, incluida la nuestra, favoreciendo a las grandes con más recursos. Es importante analizar los detalles. Actualmente, la propuesta de regulación se alinea con nuestras prácticas de calidad en IA, por lo que con suerte el impacto será mínimo. Pero seguimos atentos a las especificaciones finales.

¿Echas algo en falta?

La ley podría mejorar en su apoyo al desarrollo de la IA. Mientras sugiere explorar nuevas ideas, necesita ofrecer un apoyo más concreto o programas que impulsen la creación de IA beneficiosa para todos. Esto equilibraría mejor la regulación con el fomento de innovaciones positivas en el campo de la inteligencia artificial.

Happy Scribe utiliza inteligencia artificial para convertir rápidamente audio y vídeo en texto, asegurando la privacidad y seguridad de la información personal. 

La entrada Nueva Ley de Inteligencia Artificial: ¿qué opinan las startups especializadas? es original de MuyPymes


Muy PYMES
Enlace: Nueva Ley de Inteligencia Artificial: ¿qué opinan las startups especializadas?

No hay comentarios

Debes estar autenticado para publicar un comentario.

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR