top of page

Uruguay y la Inteligencia Artificial: un paso importante para la regulación

Daniel Lage Etchart: Doctorando en TICs (UDC) Master en Derecho Digital e Inteligencia Artificial (UDC) Master en Banca y Mercados Financieros (UDC) Escribano Público (UDELAR)



Pixaby


Uruguay ha dado un paso significativo en la regulación de la Inteligencia Artificial (IA) con la promulgación de la ley 20.212, específicamente en sus artículos 74 y 75. Estos establecen los principios rectores para la formulación de regulaciones por parte de la Agencia de Gobierno Electrónico y Sociedad de la Información y del Conocimiento (AGESIC) junto a la Unidad Reguladora y Control de Datos Personales (URCDP) cuando se trata de IA basada en datos personales.


La estrategia propuesta se sustenta en principios fundamentales como equidad, no discriminación, responsabilidad, rendición de cuentas, transparencia, auditoría e innovación segura. Estos principios, alineados con la Propuesta de Reglamento de Inteligencia Artificial de la Unión Europea (RIA), reflejan el compromiso de Uruguay con un desarrollo ético de la IA, respetando la dignidad humana y los fundamentos democráticos de gobierno.


El RIA se erige sobre la base de un sistema de semáforo que categoriza los sistemas de IA en función de su nivel de riesgo y el daño que pueden generar. El objetivo primordial es proteger los derechos fundamentales, la seguridad y la salud de las personas frente a las posibles consecuencias negativas de la IA.


El esquema de tres niveles de riesgo establecido por el RIA clasifica los sistemas de IA en:


Sistemas Prohibidos: representan el nivel más alto de riesgo y, por lo tanto, se encuentran totalmente prohibidos. Estos sistemas presentan un potencial de daño o riesgo significativo para los individuos o la sociedad en general, y se considera que su uso no es compatible con los principios éticos y legales que rigen la regulación de la IA.


Sistemas de Alto Riesgo: los sistemas de IA en esta categoría se someten a un riguroso control tanto ex ante como ex post. Estos controles buscan garantizar que se cumplan los requisitos de seguridad y ética antes de su despliegue y asegurar un monitoreo continuo para identificar y abordar posibles problemas y riesgos en su funcionamiento.


Estos sistemas incluyen: 


- Identificación biométrica y categorización de personas físicas -remota, en tiempo real o diferido-. - Gestión y funcionamiento de infraestructuras esenciales.

- Educación y formación profesional.

- Empleo, gestión de los trabajadores y acceso al autoempleo.

- Acceso y disfrute de servicios públicos y privados esenciales y sus beneficios.

- Asuntos relacionados con la aplicación de la ley.

- Gestión de la migración, el asilo y el control fronterizo.

- Administración de justicia y procesos democráticos. Es importante destacar que la Comisión Europea tiene la facultad de modificar y actualizar estas categorías, siempre que cuente con la aprobación del Parlamento o el Consejo, pero no puede agregar nuevas categorías.


Sería deseable que la regulación uruguaya sea más flexible que la europea y permita al Supervisor agregar nuevas categorías porque en el campo la IA la novedad es la regla. A vía de ejemplo: sistemas de IA como ChatGPT no se tuvieron en cuenta en el año 2020 cuando se presentó el RIA -por la sencilla razón de que no existían-, situación que se corrige en la enmiendas que ha presentado el Parlamento Europeo.


Sistemas de Bajo Riesgo: se establece la necesidad de transparencia en su desarrollo y funcionamiento. Aunque presentan un riesgo menor, la comprensión de cómo operan estos sistemas y las decisiones que generan es esencial para usuarios y partes afectadas.


Por otro lado, la regulación uruguaya también enfrenta el reto de equilibrar la innovación tecnológica con la imposición de cargas regulatorias éticas. Pequeños emprendimientos de IA podrían verse afectados, no por falta de voluntad para cumplir con la regulación, sino por la dificultad de asumir los costos asociados. Existe el riesgo de que las grandes tecnológicas, con mayores recursos, obtengan una ventaja competitiva, creando desigualdades en ese entorno.


En el diseño institucional, la posibilidad de un organismo supervisor de IA, similar al implementado en España, deberá debatirse. Aunque técnicamente no parece necesario debido a que la URCDP puede asumir este papel porque ya está trabajando en IA basada en datos. Es deseable que el regulador, además de ser técnicamente independiente, también lo sea políticamente. La influencia de las grandes tecnológicas sobre las autoridades políticas requiere una autonomía robusta para garantizar decisiones imparciales.

La vigilancia humana en sistemas de IA de alto riesgo, aunque fundamental en la propuesta europea, plantea desafíos. Investigaciones sugieren que en algunos casos puede ser un simple placebo o puede dar lugar al desplazamiento de la responsabilidad del proveedor de un sistema impreciso hacia el usuario.


Este tipo de regulaciones no solo da origen al Derecho de la IA sino también a la Ética como Servicio. Profesionales de Derecho especializados en IA jugarán un papel central en la implementación de principios éticos desde el origen hasta el despliegue de los sistemas de IA y más allá. Su desafío será no solo comprender la regulación sino también interpretar los algoritmos que respaldan la IA.


Quedan muchos desafíos en la futura regulación de la IA en Uruguay, para lo cual será esencial contar con la opinión de los operadores privados de IA, quienes aplicarán estas regulaciones en la práctica.


Finalmente, la decisión de Uruguay de legislar sobre la IA es valiosa en un contexto global con regulaciones escasas. Este paso refleja un compromiso con la ética, la protección de derechos humanos y el fomento de la innovación en un campo en constante evolución. 


O Resumo Semanal - Edición Nº 583 - 8 de febrero

Fuente: elobservador-com 5.02.2024

3 visualizaciones
bottom of page