La Unión Europea aprueba la primera ley de Inteligencia Artificial del mundo

La votación del Parlamento Europeo sobre la ley de Inteligencia Artificial (IA) marca un hito significativo en la regulación de esta tecnología a nivel mundial.
|

El pasado miércoles, 13 de marzo, tuvo lugar la aprobación de un marco regulatorio sin precedentes en relación a las nuevas tecnologías. Tras más de 30 horas de debate y negociaciones, la Comisión Europea concluyó un acuerdo en el que se fijaba la primera normativa para conseguir frenar los riesgos que supone el avance de la Inteligencia Artificial.


Normativa inteligencia artificial Europa Union europea ley aprobacion regulacion


La propuesta por parte de la Comisión Europea en 2021 sentó las bases para un marco regulatorio que abordara los desafíos éticos, legales y sociales, planteados por el uso de esta nueva tecnología.


Tras intensas negociaciones, durante el mes de diciembre del año pasado se logró un acuerdo político entre el Consejo y el Parlamento Europeo, en que se asentaron las bases para dar luz verde a esta innovadora y pionera legislación. 


¿Qué se espera de esta ley?


De esta ley se espera que aborde temas de ámbito éticos, legales y sociales vinculados a la Inteligencia Artificial, incluyendo aspectos técnicos como supervisión de algoritmos, protección de datos, responsabilidad de los desarrolladores y programadores y sobre todo se espera que aporte garantía y seguridad en el uso de la misma y su aplicación en los diferentes sectores.


Pero, sin duda sus dos objetivos principales son garantizar la seguridad y el respeto a los derechos fundamentales sin dejar de lado la innovación y el natural crecimiento y avance de las nuevas tecnologías.


Esta iniciativa europea es el primer paso para conseguir influenciar al resto de países y regiones en cuanto a la regulación de la Inteligencia Artificial a nivel mundial.


Sin duda, según los expertos, lo ideal sería una normativa común válida para todos los países del mundo, pues la tecnología avanza a un ritmo vertiginoso y sin tener en cuenta frontera alguna.


¿Cuándo entra en vigor?


Como veníamos diciendo, tras años de debate y negociaciones al fin se hacía realidad la aprobación de un marco regulatorio consistente para mantener a raya el avance tecnológico, concretamente de la Inteligencia Artificial.


La primera regulación internacional de Inteligencia Artificial del mundo ha sido establecida, clasificando los niveles de riesgo y las restricciones correspondientes según la escala. La Comisión Europea ha definido dos objetivos principales para esta normativa: en primer lugar, asegurar que la inteligencia artificial utilizada en territorio europeo sea segura y respete los derechos de los ciudadanos; en segundo lugar, fomentar la inversión y la innovación en este ámbito.


Se espera que entre en vigor a partir de 2026.


Propiedad intelectual derechos autor Cryptoveritas 360 area legal


Principal objetivo: respetar los derecho humanos como prioridad


La premisa de la ley se centra en promover la excelencia y la innovación tecnológica al mismo tiempo que garantiza la protección de los derechos humanos. La Unión Europea reconoce el potencial de la inteligencia artificial para el progreso de las sociedades, pero subraya la necesidad de regularla para mitigar posibles riesgos.


¿De qué manera pueden vulnerar los derechos humanos las nuevas tecnologías? Pues bien estas son alguna de las formas en las que pueden hacerlo:


1. Vigilancia masiva: La tecnología puede ser utilizada para monitorear y rastrear a las personas sin su consentimiento, lo que viola su derecho a la privacidad.


2. Discriminación algorítmica: Los algoritmos de inteligencia artificial pueden contener sesgos inherentes que resultan en decisiones discriminatorias en áreas como el empleo, la vivienda o la justicia, violando los derechos a la igualdad y la no discriminación.


3. Manipulación de la información: La desinformación y la manipulación de contenido en línea pueden socavar la libertad de expresión y el acceso a la información veraz, esenciales para la participación democrática.


4. Uso de la fuerza letal autónoma: El desarrollo de armas autónomas letales, como drones armados controlados por IA, plantea serias preocupaciones sobre la violación del derecho a la vida y el derecho internacional humanitario.


5. Explotación laboral: La automatización y la inteligencia artificial pueden resultar en la pérdida de empleos, la precarización laboral y la explotación de los trabajadores, lo que socava los derechos laborales y económicos.


6. Invasión de la autonomía: La creciente integración de la tecnología en la vida cotidiana puede erosionar la autonomía personal, desde la dependencia excesiva de algoritmos para la toma de decisiones hasta la manipulación de comportamientos a través de técnicas de persuasión digital.


En definitiva, las nuevas tecnologías pueden vulnerar los derechos humanos cuando se utilizan de manera irresponsable, opaca o sin salvaguardas o proteger los derechos fundamentales de las personas. Para ello es necesario establecer marcos regulatorios y éticos sólidos como esta ley de Inteligencia Artificial, para garantizar que la tecnología se desarrolle y utilice de manera compatible con los principios de derechos humanos.


Estafas Web plataformas criptomonedas afectados In Diem Abogados España Madrid Sevilla Marbella Málaga (2)


¿Cómo plantea la Comisión Europea esta nueva legislación?


La Comisión Europea, propone un enfoque basado en el riesgo, para ello establece cuatro niveles de riesgo para clasificar sistemas de inteligencia artificial. ¿Cuáles son estos niveles?


Nivel 1. Riego Mínimo.


En este nivel se vinculan la gran mayoría de sistemas de IA utilizados actualmente. Son aquellos cuyo uso no pone en riesgo la seguridad de los usuarios ni vulnera sus derechos fundamentales.


Nivel 2. Riesgo específico para la transparencias


Los sistemas que se vinculan a este nivel, necesitan cumplir una serie de requisitos y obligaciones. Son aquellos en los que se detecta riesgo por parte de la IA.


Nivel 3. Alto riesgo


En este nivel se agrupan aquellos sistemas IA que puede producir un impacto negativo en la seguridad de los usuarios y por tanto puede vulnerar los derechos fundamentales de estos.


Nivel 4. Riesgo inadmisible


Este nivel queda reservado para algunos casos muy específicos. Se trata de aquellos sistemas que contravienen los valores de la UE al poner en peligro los derecho fundamentales de los usuarios. Quedaría prohibido su uso dentro de la Unión Europea.


Sin duda esta nueva normativa Europea sobre la ley de Inteligencia Artificial (IA) marca un hito significativo en la regulación de esta tecnología a nivel mundial.


Agencia Española de Supervisión de Inteligencia Artificial


Con motivo de los últimos acontecimientos del mundo tecnológico, la aceleración del desarrollo de la Inteligencia Artificial y su uso totalmente descontrolado, se considera oportuno crear la Agencia Española de Supervisión de Inteligencia Artificial.


Se trata de una Agencia especializada en la gestión y liderazgo del ecosistema tecnológico de Inteligencia Artificial de nuestro país.


Descubre su funcionamiento y objetivos aquí.

Comentarios