Regulación de los algoritmos

Ante la nueva normativa sobre Inteligencia Artificial (IA), van a auditar los algoritmos

Como parte de la futura regulación europea sobre IA, el Cnil (entidad francesa) podría ser la autoridad encargada de controlar los sistemas y entender cómo funcionan a través de auditorías.

El reglamento europeo sobre inteligencia artificial prevé que los sistemas de “alto riesgo” -como los dispositivos de reconocimiento facial- deberán someterse a auditorías para poder ser comercializados dentro del mercado. El objetivo es comprobar que cumplen con la normativa vigente (principio de no discriminación, respeto a la intimidad, etc.), reportó L’Usine Digitale.

La Comisión Nacional de Informática y Libertades (Cnil) podría ser la autoridad encargada de controlar y sancionar a las empresas en caso de incumplimiento.

En el marco de la colaboración con el Cnil, una treintena de agentes encargados del control probaron dos herramientas: IBEX (para Interactive Black-box EXplanation) y Algocate (concatenación de algoritmo y abogado). El primero es un sistema de explicación de caja negra, es decir que opera desde entradas y salidas sin acceder al código del sistema.

Por razones legales, se eligió un caso ficticio, el de una empresa que ofrece crédito al consumo. A partir de un conjunto de datos, los equipos construyeron un algoritmo para ser auditado en el que se probó IBEX.

Por su parte, Algocate funciona según “un sistema de afirmación”. A diferencia de las explicaciones que ofrece IBEX, cuyo objetivo es entender cómo funciona el algoritmo, las justificaciones intentan convencer de que la decisión es buena, informa ese medio.

 

Regulación de la inteligencia artificial en Europa

La inteligencia artificial (IA) está revolucionando los sectores, desde la sanidad y el transporte hasta las finanzas y la educación. Tiene el potencial de transformar nuestras vidas para mejor, pero también plantea importantes cuestiones sobre la ética y la confianza. No hay duda de que la IA tiene un enorme potencial para el bien, pero también traerá consigo nuevos riesgos si no se regula de forma eficaz.

La Unión Europea ha anunciado planes para regular el uso de la inteligencia artificial. Se trata de una respuesta al gran número de aplicaciones de IA que se están desarrollando en Europa, que a menudo compiten con las producidas en otras partes del mundo. La UE tiene una posición fuerte en el mercado de la IA, pero aún no está claro cómo afectará esto a su posición.

Un enfoque europeo coordinado de la IA

Este enfoque integrador es importante porque los mayores beneficiarios de la tecnología podrían ser las grandes empresas y los Estados nacionales

El enfoque de la UE sobre la IA es importante por varias razones: La IA es una tecnología global. La UE quiere regular la IA para garantizar que sea segura y digna de confianza.

La UE quiere garantizar que la IA se utilice en beneficio de todos los ciudadanos, no sólo de las grandes empresas o los Estados nacionales. Y la UE quiere garantizar que la IA se utilice de forma coherente con los derechos humanos.

Además, uno de los mayores beneficiarios de estas políticas será la propia industria europea. Europa tiene una enorme oportunidad en lo que respecta a la inteligencia artificial: si jugamos bien nuestras cartas y nos aseguramos de que nuestras industrias están bien equipadas con tecnologías digitales como el aprendizaje automático y la analítica de big data, estarán mejor situadas para triunfar en los mercados nacionales e internacionales en los próximos años.

normas basadas en la confianza

Las normas propuestas por la UE se basan en la confianza. Se exigirá que los sistemas de IA tengan una finalidad legítima, respeten los derechos humanos, eviten la discriminación y se den de forma transparente.

Las normas propuestas por la UE se basan en la confianza, ya que garantizarán que los sistemas de IA tengan un propósito legítimo, respeten los derechos humanos, eviten la discriminación y se den de forma transparente.

Las nuevas normas establecen que un sistema de IA debe servir para un propósito legítimo de acuerdo con la ley. No debe utilizarse para perjudicar a las personas y no puede proporcionar información que sea intencionadamente engañosa o falsa. El uso de un sistema de IA también debe proteger contra las infracciones de la ley de privacidad o de protección de datos por parte de terceros.

Las nuevas normas también establecen que cuando se utilice un sistema de IA debe haber una consideración adecuada de los problemas y riesgos relacionados con la privacidad.

También se estipula que si un sistema de IA procesa datos personales relacionados con individuos, esta información sólo se recogerá para fines específicos. Cualquier otro tratamiento requerirá el consentimiento explícito de las personas implicadas.

Auditoría ante alto riesgo

La normativa de la UE incluirá la obligación de que las empresas que operen con sistemas de IA de alto riesgo realicen auditorías internas y notifiquen a las autoridades cualquier riesgo o infracción.

La normativa de la UE incluirá la obligación de que las empresas que utilicen sistemas de IA de alto riesgo realicen auditorías internas y notifiquen a las autoridades cualquier riesgo o infracción. El alcance de estas auditorías se limitará al sistema de IA de la empresa, pero las autoridades podrán solicitar información adicional a su discreción.

Las empresas también estarán obligadas a notificar las violaciones a las autoridades nacionales de protección de datos en un plazo de 72 horas desde su descubrimiento, aunque esta notificación no será obligatoria si la violación no supone un riesgo para los datos personales y no existen pruebas de que se haya utilizado con fines delictivos.

El proyecto de texto establece que la Comisión Europea elaborará un “marco ético de la IA” en 2020, mientras que los Estados miembros podrán aprobar antes leyes con requisitos más detallados.

Puntuación

  • Los sistemas de IA de alto riesgo podrían incluir la “puntuación social” por parte de los gobiernos, el reconocimiento facial en espacios públicos, las decisiones de empleo o de crédito tomadas únicamente por medios algorítmicos.
  • El uso de la IA también es cada vez más común en la atención sanitaria y los seguros. Por ejemplo, se han utilizado técnicas de aprendizaje automático para ayudar a los médicos en el diagnóstico y los planes de tratamiento. Éstas pueden ayudar a detectar enfermedades que no son visibles a simple vista pero que requieren atención inmediata -como las células cancerosas-, ayudando a mejorar tanto los diagnósticos como los resultados de los pacientes.

Evaluaciones de riesgo de seguridad” para sistemas de IA

La regulación de la IA en Europa también consiste en garantizar que las empresas hayan realizado “evaluaciones de riesgos de seguridad” para sus sistemas de IA, que deberán tener en cuenta los derechos humanos y las libertades fundamentales.

Los riesgos asociados a la inteligencia artificial han sido bien documentados, incluyendo el potencial de sesgo en los algoritmos y conjuntos de datos, las violaciones de la privacidad, e incluso el daño económico. A menudo, las empresas que construyen o utilizan sistemas de inteligencia artificial restan importancia a estos riesgos y no los analizan lo suficiente. Pero pueden mitigarse con una planificación y previsión adecuadas por parte de los científicos de datos antes de desplegar un producto a gran escala.

Esto significa que los diseñadores de vehículos autónomos tendrán que llevar a cabo controles periódicos de los algoritmos que permiten que sus coches se conduzcan solos.

La Comisión Europea ha anunciado que tiene previsto elaborar un marco comunitario de normas éticas en el ámbito de la inteligencia artificial (IA). Esto significa que los diseñadores de vehículos autónomos tendrán que realizar controles periódicos de los algoritmos que permiten que sus coches se conduzcan solos.

Las normas propuestas por la UE se basan en la confianza. Se exigirá que los sistemas de IA tengan una finalidad legítima, respeten los derechos humanos, eviten la discriminación y se den de forma transparente.

La regulación puede garantizar que la IA sea segura

La regulación de la inteligencia artificial debe basarse en los derechos humanos. Debe garantizar que la IA sea transparente y responsable, así como segura y digna de confianza.

La inteligencia artificial puede ser un análisis de grandes datos que utiliza algoritmos para encontrar patrones en cantidades masivas de información, o el aprendizaje automático, que permite a un ordenador aprender de los datos sin que se le programe cómo hacerlo específicamente.

Este tipo de sistemas se utilizan para el reconocimiento del habla, la traducción entre idiomas e incluso la conducción de coches en calles con mucho tráfico.

AIalgoritmosauditoríascienciacochescoches autónomoscomputacióncomputadorasconfianzacontroldatosEspañaEuropaFranciaIAinteligencia artificialOrdeñadoresregulaciónsistemasUEUnión Europeavehículos