Desafíos regulatorios de Inteligencia Artificial, en especial para el sector público.

La Inteligencia Artificial es una tecnología que está en auge en los últimos años, a nivel mundial y esto se ve reflejado en aumento significativo de inversiones que se han destinado a este ámbito. Así, si analizamos algunos datos económicos, conforme a lo que indica el Foro Económico Mundial en su Informe Global de Riesgos para 2017, la inversión global en IA a nivel mundial ha aumentado exponencialmente pasando de US$ 282 millones durante el año 2011 a más de US$ 2.400 millones en 2015. Por otro lado las cifras publicadas recientemente por el Banco de América Merrill Lynch pronostican que para el 2020 alcanzará un valor de US$ 153 mil millones; por que podemos concluir que en los próximos años se van a invertir más dinero en el ámbito de la investigación referente a la IA que en toda la historia en el campo de la ciencia.

Sin embargo, son los privados los que están mayoritariamente impulsando su  crecimiento lo que ha generado dudas o cuestionamientos, sobre todo por los alcances y efectos que está teniendo la IA tanto en desarrollo económico, social y en aspectos éticos y regulatorios.

Es por ello que varios países ya han avanzado a la generación de marcos ético-regulatorios, estrategias, políticas o planes de acción, en la que se fijan focos, objetivos y definiciones regulatorias.
Así,  hace un año atrás comentábamos como la comunidad europea avanzaba hacia los principios éticos para la inteligencia artificial y  en los próximos días será lanzado oficialmente el «libro blanco» sobre la Inteligencia Artificial en el cual se darán directrices para impulsar esta área del conocimiento en los países miembros, pero también establecer un marco ético y legal para prevenir cualquier exceso.

En caso de Chile, el gobierno anunció la elaboración de un Plan de acción y una política sobre Inteligencia Artificial. De hecho, el ministro responsable, el Ministro de Ciencia, Tecnología, Conocimiento e Innovación, Andrés Couve, indicó que se estaba elaborando por primera vez una Política y un Plan de acción de Inteligencia Artificial.

En una entrevista para Qué Pasa, frente a la pregunta sobre el estado de la regulación de la IA en Chile indica:

«Justamente se está realizando la política de IA, que tiene tres grandes ámbitos. El primer factor habilitante tiene que ver con la formación de talentos y con las necesidades de infraestructuras. Un segundo ámbito tiene que ver con lo que llamamos el desarrollo y el uso, cómo potenciamos el desarrollo de la Inteligencia Artificial en las universidades, en las empresas y cómo potenciamos su uso en el sector productivo del Estado, y un tercer elemento tiene que ver con el impacto socioeconómico de estas políticas de esta tecnología, y también los aspectos éticos de estándares de regulación.

Por lo tanto, la política va a contener por primera vez una serie de recomendaciones en el ámbito de la ética, de los estándares y de la regulación que nos va a permitir mirar este tema de esta tecnología de uso transversal, con una mirada integral que termina en el beneficio de la personas. Eso no lo habíamos hecho antes, y definirlo como un ámbito del desarrollo de esta política es un elemento distintivo de nuestra política de IA en relación otros países».

La importancia de tener definiciones claras y precisas por los gobiernos, aumenta por el hecho que diversos países, a través de sus organismos públicos, ya están comenzando a utilizar algoritmos e inteligencia artificial en sus procesos de administración que afectan a sus ciudadanos. El problema que se genera cuando no existe alguna regulación son las zonas grises y en las cuales una persona no sabe como proceder, sobre todo contra una entidad estatal.

Considerando lo anterior, es relevante analizar la primera sentencia europea que declara ilegal un algoritmo de evaluación de características personales de los ciudadanos.

El tribunal distrito de La Haya, ha dictado una sentencia, de fecha 5 de febrero de 2020, por la que establece que un sistema algorítmico utilizado por el Gobierno de los Países Bajos (Holanda) para evaluar el riesgo de fraude a la seguridad social o a hacienda, no cumple las exigencias de proporcionalidad y transparencia necesarias y vulnera las previsiones sobre respeto a la vida privada que reconoce el artículo 8 del Convenio Europeo de Derechos Humanos (LA LEY 16/1950), por lo que es contrario a la ley. Se trata, por tanto, de la primera sentencia conocida en Europa por la se declara ilegal un algoritmo sobre evaluación de características personales de los ciudadanos.

En los hechos, el gobierno holandés utiliza un denominado «Sistema de Indicación de Riesgos (Systeem Risico Indicatie», SyRI), que sirve para prevenir y combatir el fraude en el campo de la seguridad social y los esquemas relacionados con los ingresos, las contribuciones fiscales y de la seguridad social y las leyes laborales. El sistema se basa en la asignación del nivel de riesgo de que una determinada persona cometa fraude a los ingresos públicos, en función de una serie de parámetros analizados y relacionados entre sí.

De acuerdo con el Reglamento de desarrollo de la Ley, el sistema utiliza un algoritmo que procesa datos como nombre, dirección, lugar de residencia, dirección postal, fecha de nacimiento, género y características administrativas de las personas; sobre su trabajo; sobre medidas y sanciones administrativas aplicadas a la misma; sus datos fiscales, incluida información sobre bienes muebles e inmuebles; datos sobre motivos de exclusión de asistencia o beneficios; datos comerciales; datos de integración, que son datos que pueden usarse para determinar si se han impuesto obligaciones de integración a una persona; historial de cumplimiento de las leyes y reglamentos; datos sobre becas recibidas; sobre pensiones; sobre la obligación de reintegro de prestaciones públicas; sobre endeudamiento; sobre beneficios, ayudas y subsidios recibidos; sobre permisos y exenciones recibidos para la realización de actividades y datos del seguro de salud, entendidos exclusivamente como aquellos que se pueden usar para determinar si una persona está asegurada en virtud de la Ley de seguro de salud.

El procesamiento de estos datos se realiza en dos fases. En la primera se recogen y pseudonimizan, reemplazando el nombre personal, los números de seguridad social y las direcciones por un código (seudónimo). A continuación se comparan los datos con el modelo de riesgos y se identifican los posibles factores de riesgo. Si una persona, física o jurídica, o una dirección, es clasificada como de riesgo elevado, sus datos se descifran nuevamente utilizando el archivo de clave y transferidos a una segunda fase del análisis de riesgos por una unidad de análisis específica. En la segunda fase, los datos descifrados son analizados por esta unidad de análisis, que asigna un nivel de riesgo definitivo.

Esa normativa fue impugnada por diversas organizaciones de defensa de los derechos humanos y civiles holandesas y según la sentencia del tribunal local de La Haya, la legislación que sustenta la aplicación de este algoritmo, no cumple con el requisito establecido en el Artículo 8, párrafo 2 del CEDH (LA LEY 16/1950), de que la interferencia con el ejercicio del derecho al respeto de la vida privada resulte necesaria en una sociedad democrática. Es decir, que sea necesaria y proporcional en relación para el propósito previsto.

En particular, estima que esta legislación no cumple con el “equilibrio justo” (fair balance, en el original) que de acuerdo con el CEDH (LA LEY 16/1950) debe existir entre el interés social al que sirve la normativa cuestionada y la violación de la vida privada que supone, para poder estimar suficientemente justificada esta intromisión.

En opinión del tribunal, aunque el informe de riesgos generado por el algoritmo no tiene en sí mismo una consecuencia legal directa, civil, administrativa o penal, sí que tiene un efecto significativo en la vida privada de la persona a la que se refiere.

El tribunal estima que el volumen del fraude al sistema de la seguridad social en los Países Bajos justifica la aplicación de mecanismos de control y supervisión que limiten o eliminen sus efectos. En concreto, el desarrollo de nuevas tecnologías proporciona al gobierno, entre otras cosas, opciones digitales para vincular archivos y analizar datos con la ayuda de algoritmos y, por lo tanto, ejercer una supervisión más efectiva.

Pero, añade, en este desarrollo, el derecho a la protección de datos es cada vez más importante, en parte debido a la propia velocidad de ese desarrollo, ya que la recopilación y el análisis de datos con la ayuda de estas nuevas tecnologías puede afectar profundamente a la vida privada de aquellos con quienes se relacionan esos datos.

El tribunal considera que el gobierno holandés no ha hecho público el tipo de algoritmos utilizados en el modelo de riesgo, ni proporcionado información sobre el método de análisis de riesgos utilizado, con la excusa de evitar que los ciudadanos pudiesen ajustar su comportamiento en consecuencia.

Además, aprecia que la normativa reguladora del algoritmo no prevé ninguna obligación de información a las personas cuyos datos se tratan, de modo que no cabe esperar razonablemente que esas personas sepan que sus datos se utilizan o se han utilizado para esa finalidad. Adicionalmente, esta normativa tampoco prevé ninguna obligación de informar a los interesados individualmente, cuando proceda, del hecho de que se su evaluación de riesgo ha sido positiva.

Como resultado de lo anterior, concluye el tribunal, es imposible verificar cómo está diseñado el árbol de decisión que utiliza el algoritmo y en qué pasos consiste. Una circunstancia que dificulta que una persona afectada por el mismo pueda defenderse contra el hecho de que se haya realizado un informe de riesgos con respecto a él o ella.

En caso de Chile, es importante considerar que distintos organismos e instituciones públicas están utilizando en forma incipiente algoritmos e inteligencia artificial en distintos procesos que de una u otra forma afectan a los ciudadanos. Así, tenemos el caso del Servicio de Impuestos Internos, la Contraloría General de la República e incluso el Consejo para la Transparencia.

Es por eso que urge que en la nueva Estrategia Nacional de Inteligencia Artificial se establezca una regulación o marco para definir lineamientos claros para un desarrollo sustentable y respetuoso de los derechos de todos los ciudadanos.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll al inicio