El Gobierno aprueba la norma para el buen uso de la IA, que obliga a etiquetar contenidos creados con esta tecnología

0
11

Ignasi Belda, nuevo director de la Agencia de Supervisión de Inteligencia Artificial El resto de casos los estudiará la Aesia. Constituida el año pasado y con sede en A Coruña, el organismo está dirigido por Ignasi Belda y planea contratar hasta 2026 al menos 80 expertos de varias disciplinas que deberán revisar la adecuación de distintas aplicaciones de IA a la normativa.

López ha recordado que, tal y como establece el Reglamento Europeo de la IA, quienes incumplan la normativa afrontarán multas de hasta 35 millones de euros y/o entre el 5% y el 7% de la facturación mundial.

Adaptación del marco europeo

El Reglamento Europeo de IA, considerado el más avanzado del mundo en este asunto, tiene un enfoque pionero. Con el objetivo de no quedarse obsoleto, el reglamento clasifica las distintas aplicaciones de IA disponibles en función de su riesgo y, en función de ello, establece distintos requisitos y obligaciones. Estos van desde el uso sin restricciones, por ejemplo, un filtro de spam o un recomendador de contenidos, hasta la prohibición total. Estos casos, más graves, se refieren a aquellas aplicaciones “que trasciendan la conciencia de una persona o técnicas deliberadamente manipuladoras”, las que exploten sus vulnerabilidades o las que infieran emociones, raza u opiniones políticas de las personas.

Entre ambos extremos se sitúan las llamadas tecnologías de “alto riesgo”, sujetas a una supervisión permanente. Se encuadran en esta categoría los sistemas de identificación biométrica remota, que un amplio sector del Parlamento quería prohibir terminantemente; los sistemas de categorización biométrica o el reconocimiento de emociones. También los sistemas que afecten a la seguridad de las infraestructuras críticas y los relacionados con la educación (evaluación de comportamientos, sistemas de admisión y exámenes), el empleo (selección de personal) y la prestación de servicios públicos esenciales, la aplicación de la ley o la gestión de la migración.

El Reglamento establece también que se deberán realizar informes periódicos para actualizar esta clasificación, de manera que, cuando surjan nuevas aplicaciones no contempladas en el documento, se determine en qué categoría se encuadra (uso sin restricciones, uso sujeto a restricciones o prohibición).

Eso mismo pasó, por ejemplo, con la IA generativa, la tecnología que está detrás de herramientas como ChatGPT: su irrupción se produjo cuando la negociación del reglamento estaba ya muy avanzada. Se discutió si hacer mención específica de ella o no. Finalmente, se incluyó y se estableció que los llamados modelos fundacionales tendrán que cumplir criterios de transparencia, como especificar si un texto, una canción o una fotografía se han generado a través de IA, así como garantizar que los datos que se han empleado para entrenar a los sistemas respetan los derechos de autor.

El documento no estableció, sin embargo, cómo se debía llevar a cabo esa señalización de los contenidos elaborados por IA, ni cómo garantizar que respetasen los derechos de autor. Estas dos cuestiones claves tampoco se han concretado en el anteproyecto presentado hoy.