El Círculo Legal de ICARE realizó el jueves 27 de junio el encuentro “Inteligencia Artificial: Proyecto de Ley de Regulación de sus Sistemas”, en la Sede ICARE.

Gonzalo Smith, presidente del Círculo Legal, abrió este encuentro orientado a profundizar en los contenidos, alcances y desafíos del proyecto de ley elaborado por el gobierno que busca regular los usos de la inteligencia artificial y clasifica sus riesgos en cuatro niveles.

Asimismo, el foco estuvo en conocer las regulaciones adoptadas en otros países como China, Estados Unidos y la Unión Europea para comparar las medidas establecidas y las propuestas.

“Este proyecto de ley declara buscar la regulación de los distintos usos de los sistemas de inteligencia artificial para impulsar el desarrollo, la utilización y adopción de esta tecnología con el propósito de promover procesos de innovación y, al mismo tiempo, reguardar los derechos fundamentales de las personas; todo lo anterior en base a clasificación de riesgos”, afirmó.

La actividad contó con dos destacados invitados que compartieron su visión desde la ciencia y las políticas públicas:

John Atkinson — Ingeniero Civil y Máster en Ciencias de la Computación de la Universidad Técnica Federico Santa María y PhD en Inteligencia Artificial de la Universidad de Edimburgo (Escocia). Es Profesor Titular de la Facultad de Ingeniería y Ciencias de la Universidad Adolfo Ibáñez.

Aisén EtcheverryMinistra de Ciencia, Tecnología, Conocimiento e Innovación de Chile. Abogada de la Universidad de Chile y Magíster en Derecho de la Universidad de San Francisco (EE.UU.).

IA, Innovación y Regulación: ¿Cómo mantenemos el balance?

La presentación del académico y PhD en Inteligencia Artificial entregó su visión desde la ciencia e impacto en la legislación en trámite.

Comenzó explicando que los problemas que se resuelven con computadores “son una receta de cocina o procedimientos. En términos técnicos, es un algoritmo”. Por lo mismo, el resultado siempre es el mismo, pero con distintas consecuencias que pueden ser personales o regulatorias. “No existen algoritmos éticos, pero sí tradicionales”, acotó.

Atkinson considera que la inteligencia artificial puede ser autónoma porque tiene seis capacidades: percepción y visión, razonamiento, comprensión del lenguaje, colaboración, actuación y aprendizaje.

Esta última capacidad es el foco principal de las regulaciones. Sin embargo, en su opinión, el problema regulatorio ocurre por la confrontación de los principios éticos de diseño con la ética de las máquinas.

“Hay muchas propuestas regulatorias que dicen que tenemos que regular sistemas o herramientas en vez de regular usos. Si trato de regular los sistemas, quedo muy dependiente de la tecnología que va cambiando y de la lógica interna, aun cuando el uso sea siempre el mismo”, explicó.

Acerca de los problemas con la clasificación de riesgos, el académico detalló cinco: complejidad y dinamismo, ambigüedad e incertidumbre, interrelaciones complejas, desafíos éticos y sociales, y falsa seguridad

“Cuando uno clasifica riesgos, ¿qué pasa con la complejidad dinámica de los sistemas que está cambiando si ya no es un algoritmo tradicional? Uno no puede controlar y regular el sistema. Es más eficiente regular el uso”, señaló.

Asimismo, rescató las buenas prácticas de la Unión Europea que desde 2017 busca ser un hub tecnológico. Sin embargo, enfatizó que el exceso de regulación ha limitado la competitividad e innovación. De hecho, solo dos empresas están en el ranking de las 30 mejores del mundo: ASML (Holanda) y SAP (Alemania).

Por último, entregó sus consideraciones con miras a la propuesta legislativa que está en trámite:

  1. Se requiere regulación y/o normativas.
  2. Hay que entender más lo que implica la IA y lo que no para poder regularla.
  3. Focos en los usos y no en las herramientas.
  4. Incentivar la innovación considerando la realidad nacional
  5. Conexión del plan de IA con la propuesta regulatoria: por un lado, la política incentiva, pero la regulación castiga.
Descargue su presentación acá.

Objetivos de la política pública

La ministra Etcheverry presentó la cronología del proyecto de ley desde su inicio en 2019 hasta la entrega de la Política Nacional de IA al Presidente Boric en abril de este año.

La necesidad de tener una política en esta materia responde a dos motivos principales. Por un lado, es importante para la vida en común y, por otro, para impulsar el grado de avance de la tecnología.

“Si bien las regulaciones son del uso de una tecnología, tienen mucho que ver con lo que como sociedad consideramos un uso pertinente de la tecnología”, explicó la ministra.

A su vez, destacó que Chile lidera el Índice Latinoamericano de Inteligencia Artificial (ILIA), que midió las áreas estratégicas, el capital humano y la infraestructura, entre otros elementos, en doce países de la región.

“Desde el Gabinete Pro Empleo y Crecimiento estamos tomando la inteligencia artificial como un acelerador de productividad en agricultura, construcción y transporte, porque está demostrado que sirve”, detalló.

La ministra también explicó cuál es foco de la política. “Es una regulación en base a principios, pero que entrega una parte importante de la ejecución a la potestad regulatoria y lo hace con una gobernanza público-privada”.

También mencionó que la aplicación del proyecto de ley abarca cuatro ámbitos:

  1. Proveedores que introduzcan en el mercado o pongan en servicio sistemas de IA en el territorio nacional.
  2. Los implementadores de sistemas de IA que se encuentren domiciliados en el territorio nacional.
  3. Los proveedores e implementadores de sistemas de IA que se encuentren domiciliados en el extranjero, cuando la información de salida generada por el sistema de IA se utilice en Chile.
  4. Los importadores y distribuidores de sistemas de IA, así como los representantes autorizados de los proveedores de sistemas de IA, cuando dichos importadores, distribuidores o representantes autorizados se encuentren domiciliados en el territorio nacional.

Además, los riesgos están clasificados en evidente, limitado, alto riesgo e inaceptable. Estos serán fiscalizados por la Agencia de Protección de Datos Personales, además del Consejo Asesor Técnico de la IA que comprende la iniciativa.

Finalmente, la ministra Etcheverry detalló las medidas diseñadas para fomentar la innovación, las infracciones y sanciones.

Descargue su presentación acá.