movi-image-europa-liderazgo-inteligencia-artificial-1
Envíanos sugerencias
Transformación digital
4 min de tu tiempo

Europa toma el liderazgo para regular la inteligencia artificial

14/05/2021

Ve la luz la primera regulación europea para garantizar el uso ético de la inteligencia artificial

Una inteligencia artificial (IA) competitiva, pero segura. Ese es el objetivo de la Comisión Europea que ha presentado recientemente su primer marco jurídico para convertir a Europa en el centro mundial de una IA “digna de confianza”. La ambición es alcanzar el equilibrio entre la protección de los ciudadanos y de las empresas y adaptar el continente a la nueva era digital en la que esta tecnología dibujará el futuro de cómo las personas viven y trabajan.

“La IA es una oportunidad fantástica para Europa. Nuestros ciudadanos se merecen tecnologías en las que puedan confiar. Las nuevas normas se sostienen sobre altos estándares”, celebró Ursula von der Leyen, presidenta del Ejecutivo comunitario. La transformación digital es, junto a la transición ecológica, la columna vertebral del Fondo de Recuperación Europeo, también conocido como Next Generation EU. En torno a 134.000 millones de euros, el 20% de los 750.000 millones de euros de este plan, irán destinados a promover las inversiones en materia digital. Además, la Comisión contempla la inversión de 1.000 millones de euros anuales para el desarrollo de la IA en torno a sus programas Europa Digital y Horizonte Europa. Por su parte, el Plan de Recuperación, Transformación y Resiliencia español (PRTR) presentado recientemente contempla 500 millones de euros para la estrategia nacional de IA.

El Plan de Recuperación, Transformación y Resiliencia español contempla 500 millones de euros para la estrategia nacional de IA

La clave de la propuesta es la prohibición de los sistemas de identificación biométrica, es decir, a través del iris del ojo, de la huella digital o de los rasgos faciales, en lugares públicos, con la excepción de causas justificadas como la desaparición de un menor o en el marco de una investigación terrorista. “Nuestras normas, que están pensadas para el futuro y son un impulso para la innovación, intervendrán cuando sea estrictamente necesario. Esto es, cuando estén en juego la seguridad y los derechos fundamentales de los ciudadanos europeos”, matizó Margrethe Vestager, vicepresidenta de la Comisión Europea.

Bruselas sostiene que son muchos los beneficios que esta tecnología puede aportar a la sociedad, pero no olvida los riesgos que entraña en torno a la opacidad de muchos algoritmos y la falta de una legislación para hacer con ella un uso ético. Por ello, ha desvelado esta normativa que permitirá homologar la respuesta jurídica en los 27 Estados miembros evitando así una posible disrupción del mercado único. “La IA es un medio, no un fin. Existe desde hace décadas, pero ha alcanzado nuevas capacidades alimentadas por la potencia informática. Tiene un enorme potencial en ámbitos tan diversos como la salud, el transporte, la energía, la agricultura, el turismo o la ciberseguridad, pero también entraña varios riesgos”, afirmó Thierry Breton, comisario de Mercado Interior.

Puede interesarte: Por qué las compañías que usen Inteligencia Artificial estarán mejor posicionadas en el nuevo escenario global


Código de riesgos

La Unión Europea (UE) prohibirá todos los sistemas considerados una amenaza para la seguridad. La propuesta divide el alcance de la regulación en función de cuatro niveles de riesgo: inadmisible, alto, limitado y mínimo. En el primer caso, se prohibirá el uso de la IA que suponga un riesgo para la seguridad o para los derechos de las personas a través de la manipulación del comportamiento humano. Por ejemplo, juguetes con voz que inciten a los menores a malas praxis. 

Será considerada como alto riesgo la IA que pueda suponer un peligro en las áreas de infraestructuras críticas como el transporte, en el sector educativo (en el caso de la puntuación de exámenes, por ejemplo), en el ámbito sanitario, (en operaciones realizadas por robots) o en programas de contratación de personas que automaticen la llegada de currículums. Todos ellos pasarán por estrictos controles de seguridad antes de aterrizar en los mercados. Los riesgos limitados hacen referencia a los productos de interacción entre máquinas y personas, como es Alexa o Siri. También los conocidos como deepfakers tendrán que dejar claro que no son reales. Los consumidores tendrán que ser totalmente conscientes de que están tratando con un robot. 

Se prohibirá el uso de la IA que ponga en riesgo la seguridad o los derechos de las personas a través de la manipulación del comportamiento humano

Y por último es riesgo mínimo, y por tanto elude cualquier regulación, aquella tecnología empleada en videojuegos o filtros para eliminar correos no deseados (el denominado spam). El grueso de los sistemas de IA utilizados a día de hoy en la UE corresponde a esta última categoría. Las multas por incumplimiento de esta normativa se fijan en el 6% de los ingresos anuales de la compañía y en un máximo de 30 millones de euros.

Puede interesarte: La tecnología al servicio de la empresa en la ‘nueva normalidad’

Los Gobiernos nacionales serán los responsables de supervisar la puesta en marcha de las nuevas normas, aunque contarán con el apoyo de un nuevo Comité Europeo de Inteligencia Artificial que facilitará la coordinación y su aplicación. Ahora es el turno del Consejo y del Parlamento Europeo, que deben fijar su postura al respecto y llegar a un acuerdo en los conocidos como trílogos para que se convierta en legislación europea. 

Fotografía de Yuyeung Lau en Unsplash
-Categorías y etiquetas-
up