+41 41 521 80 00 | info@lexcellence.swiss

Open jobs!

La regulación de la innovación: ¿cómo regulan los países la IA para promover la innovación y proteger los derechos de los ciudadanos?

 

La inteligencia artificial se utiliza a nuestro alrededor, aunque no seamos conscientes de ello. Según el informe realizado por el Comité de Tecnología del Consejo Nacional de Ciencia y Tecnología (NSTC) realizado para la oficina presidencial, los principales usos de la IA son los siguientes:

 

  • En la salud, la IA se utiliza para predecir complicaciones médicas y determinar tratamientos que reduzcan los costes.
  • En el transporte, se implementa en aplicaciones virtuales para la gestión del tráfico. Estas aplicaciones son utilizadas por personas que utilizan el transporte individual o colectivo, público o privado. 
  • En áreas relacionadas con la seguridad y el derecho marítimo internacional, los países utilizan barcos autónomos, equipados con sensores y herramientas que recogen información de los océanos.

 

Como vemos, nuestros datos pueden estar en riesgo, por lo que los países deben hacer regulaciones de IA para proteger a sus ciudadanos.

 

Está por verse si será Suiza o Estados Unidos quien tome la delantera en la emergente industria de la IA. Ambos han creado numerosas regulaciones de IA con éxito.

 

Estados Unidos

 

1. Aviones y dispositivos capaces de permanecer en el espacio aéreo de Estados Unidos. 

 

Estos objetos ya están regulados por el Departamento de Transporte sobre Vehículos Automatizados y Sistemas de Aeronaves no Tripuladas. 

 

Este departamento supervisa el cumplimiento de las normas de seguridad y calidad de las aeronaves, así como los espacios definidos en los que pueden utilizarse.

 

El riesgo que representa una aeronave o un dron es grande ya que todos nuestros datos biométricos pueden ser captados y utilizados para observar las zonas donde se planea un ataque.

 

2. Decálogo para las agencias

 

El gobierno estadounidense ha cambiado su posición sobre la IA y ha presentado recientemente un decálogo que marca las pautas para que sus agencias regulen el desarrollo y el uso de la IA en el ámbito privado.

 

Los principios han sido publicados por la Oficina de Política Científica y Tecnológica de Estados Unidos. Se basan en tres objetivos: garantizar la participación pública, limitar la extralimitación normativa y promover una IA fiable, justa, transparente y segura. Según la interpretación del MIT, los 10 principios son los siguientes:

 

  • Confianza pública en la IA. El gobierno debe promover aplicaciones de IA fiables, sólidas y de confianza.
  • Participación pública. La sociedad debe tener la oportunidad de hacer aportaciones en todas las fases del proceso de desarrollo de las normas de IA.
  • Integridad científica y calidad de la información. Las decisiones políticas deben basarse en la ciencia. 
  • Evaluación y gestión de riesgos. Las agencias deben decidir qué riesgos son aceptables y cuáles no.
  • Beneficios y costes. Las agencias deben sopesar las repercusiones sociales de todas las normativas propuestas.
  • Flexibilidad. Cualquier enfoque debe ser capaz de adaptarse a los rápidos cambios y actualizaciones de las aplicaciones de IA.
  • Trato justo y no discriminación. Las agencias deben garantizar que los sistemas de IA no sean discriminatorios.
  • Divulgación y transparencia. La sociedad sólo confiará en la inteligencia artificial cuando sepa cuándo y cómo se utiliza.
  • Seguridad y protección. Las agencias deben mantener seguros todos los datos utilizados por los sistemas de IA.
  • Coordinación interinstitucional. Las agencias deben hablar entre sí para ser coherentes y predecibles en las políticas relacionadas con la IA.

 

Estas medidas se aplican al sector privado, pero no a la IA utilizada por el gobierno federal o los organismos policiales como el FBI. Sin embargo, cualquier propuesta de regulación por parte de una agencia federal debe demostrar que se adhiere a los principios reguladores presentados.

 

Suiza

 

El Consejo Federal adoptó las directrices para la inteligencia artificial. Desarrolladas por el grupo de trabajo interdepartamental sobre Inteligencia Artificial bajo la dirección del Departamento Federal de Economía, Educación e Investigación (DEFR), estas directrices proporcionan un marco orientativo para la administración federal.

 

Como tecnología básica, la inteligencia artificial (IA) es un componente importante de la rápida digitalización. Tiene un gran potencial de crecimiento e innovación y ya se está aplicando con éxito en muchos ámbitos. En este contexto, el Consejo Federal quiere garantizar las mejores condiciones marco posibles a este respecto. Al mismo tiempo, tiene que responder adecuadamente a los retos que plantea la IA.

 

El Consejo Federal encargó al DEFR la elaboración de directrices basadas en el informe "Retos de la inteligencia artificial", en colaboración con el Departamento Federal de Medio Ambiente, Transportes, Energía y Comunicaciones (DETEC) y el grupo de trabajo interdepartamental sobre Inteligencia Artificial. Estas directrices proporcionan a la administración federal y a los organismos responsables de las tareas administrativas de la Confederación un marco general y deberían garantizar una política coherente en materia de IA.

 

Condiciones marco favorables y el ser humano en el centro

 

El marco orientador consta de las siete directrices siguientes (presentadas brevemente aquí):

 

  • Poner a las personas en primer lugar: La dignidad y el bienestar de cada individuo, así como el interés público, deben estar en el centro de cualquier desarrollo y uso de sistemas de inteligencia artificial. Se presta especial atención a la protección de los derechos fundamentales en el uso de la IA.
  • Condiciones propicias para el desarrollo y el uso de la IA: La Confederación sigue velando por que se den las condiciones perfectas para que las empresas aprovechen las oportunidades que ofrece la IA para mejorar la creación de valor y el desarrollo sostenible. Suiza debe seguir posicionándose como uno de los principales lugares de investigación, aplicación y explotación comercial de la IA.
  • Transparencia, trazabilidad y explicabilidad: Los procesos de toma de decisiones basados en la IA deben diseñarse de manera que sean identificables y verificables.
  • Responsabilidad: para determinar la responsabilidad por daños, accidentes o violaciones de la ley, es necesario establecer claramente la responsabilidad relacionada con el uso de la IA.  La responsabilidad no debe delegarse en las máquinas.
  • Seguridad: por su diseño, los sistemas de inteligencia artificial deben ser seguros, robustos y resistentes para que puedan aportar valor a la sociedad y no puedan ser objeto de abuso o mal uso.
  • Participación activa en la gobernanza de la IA: Para Suiza, es esencial participar activamente en la gobernanza mundial de la IA e implicarse en el desarrollo de normas y estándares internacionales en el ámbito de la IA para proteger los intereses y valores del país.
  • Participación de todas las partes interesadas nacionales e internacionales: Suiza debe comprometerse a garantizar que los procesos de toma de decisiones sobre la gobernanza de la IA incluyan a todas las partes interesadas.

 

Además, se formulan directrices específicas para las políticas educativas y científicas y para la aplicabilidad de las normas jurídicas relacionadas con la IA.

 

LATAM

 

Esta es una de las regiones que más tiempo está tardando en crear nuevas regulaciones para la IA. Por el momento, los países que ya han creado algunas regulaciones son:

  1. México
  2. Chile
  3. Brasil 
  4. Argentina 
  5. Colombia
  6. Ecuador 
  7. Costa Rica 
  8. Paraguay 
  9. Perú

 

Aunque, como se mencionó anteriormente, esta es una de las regiones menos avanzadas en términos de IA, toda LATAM tiene un documento común

 

1Las tres leyes de la inteligencia artificial:

 

Estas leyes se aplican a cualquier robot que se considere inteligente. Estas tres leyes establecen que 

 

  1. Un robot no dañará a un ser humano ni, por inacción, permitirá que un ser humano sea dañado.
  2. Un robot obedecerá las órdenes dadas por los humanos, excepto si estas órdenes entran en conflicto con la Primera Ley.
  3. Un robot debe proteger su propia existencia siempre que no entre en conflicto con la Primera o la Segunda Ley

 

Sin embargo, Oren Etizoni, director del Instituto Allen de Inteligencia Artificial, en una entrevista comentó que están en proceso de implementar nuevas leyes que regulen la inteligencia artificial, las cuales incluirán los siguientes postulados:

 

  1. La inteligencia artificial debe estar sujeta a todas las leyes que se aplican a sus operadores humanos para evitar actividades ilegales, ya sea una IA de uso privado, empresarial o gubernamental. También sería necesario modificar las leyes vigentes para que no se pueda practicar el traspaso de la responsabilidad a la IA.
  2. La IA debe dejar siempre claro que no es humana. Las IA son cada vez más capaces de producir mejor información, incluida la falsa, y por lo tanto, las leyes deben garantizar la transparencia en el uso de la IA. 
  3. La IA no puede almacenar o difundir información confidencial sin el permiso claramente establecido de la persona que la generó, sobre todo teniendo en cuenta que ya hay productos en el mercado como el Amazon Echo, que puede escuchar constantemente nuestras conversaciones. 

 

Estas innovaciones legales suenan bastante interesantes, pero habrá que esperar a ver qué instituciones jurídicas las regulan.

 

También es de vital importancia que los líderes latinoamericanos contribuyan a redefinir el papel del individuo en su interacción con las herramientas de inteligencia artificial. En el marco del foro "Conferencia Internacional de Autoridades de Protección de Datos y Privacidad" se destaca la importancia del consentimiento informado, que abarca los casos en que las personas proporcionan datos personales para ser procesados por sistemas de IA. Sin embargo, esta solución se basa en una visión de la libertad individual, que no tiene en cuenta la desigualdad de conocimientos, recursos y, en general, de poder entre los diseñadores de IA y el resto de la población. Teniendo en cuenta que el funcionamiento de estos sistemas es muy complejo, incluso para sus propios desarrolladores, trasladar toda la responsabilidad de la educación en IA a los individuos puede ser injusto para la población, por lo que el sistema legal debería proteger activamente sus derechos. 

 
1
2
3
4
1
2
3
4