¿Se deben regular los algoritmos? Un breve análisis a la propuesta normativa alemana: la pirámide de criticidad basada en el riesgo







Se ha dicho que el mundo del trabajo se está algoritmizando en la medida que las tareas se convierten en algoritmos y se automatiza el trabajo (más detalles vid. En realidad, ¿qué [...] es exactamente un algoritmo?).  En la práctica, el uso de esta tecnología viene a significar una distribución de funciones entre la persona y la máquina inteligente (el algoritmo) hasta el punto que es posible la adopción de medidas solo por algoritmos sin que haya margen de decisión por parte de la persona responsable. En el Derecho del Trabajo ya existen algunos análisis que nos vienen advirtiendo de los peligros de los algoritmos en los procesos de selección de personal (Todolí) así como su uso para la asignación de trabajo y evaluación del rendimiento laboral (Mercader) pero también nos han contado sus limitaciones si los comparamos con las capacidades de los trabajadores (Beltrán de Heredia). A partir de este escenario, cabe formular la siguiente cuestión:  ¿se deben regular los algoritmos? ¿cuál podría ser el camino a seguir?

Si bien existen algunos informes con recomendaciones en esta materia, la propuesta normativa más sólida hasta el momento, desde nuestro parecer, es la publicada hace escasos días por la Comisión Ética de Datos constituida por el Gobierno alemán (vid. propuesta extensa y abreviada). A diferencia de algunos informes que ponen el foco en las regulaciones nacionales (The Committee of experts on human rights dimensions of automated data processing and different forms of artificial intelligence (MSI-AUT) 2018), el documento de trabajo mencionado afirma que se precisa una nueva regulación europea sobre sistemas algorítmicos fijando unos requisitos generales horizontales que deberían ser desarrollados por normas sectoriales (entre ellas, el Derecho del Trabajo).

Para que el derecho sea capaz de envolver al algoritmo necesitamos cierta flexibilidad y un menor encorsetamiento. En este sentido, la Comisión alemana recomienda adoptar un enfoque normativo basado en el riesgo distinguiendo cinco niveles de criticidad en función de las variables de probabilidad y severidad del daño como consecuencia del empleo de algoritmos. Solo se deben regular y adoptar medidas a partir del nivel 2 hacia arriba ya que el daño potencial del nivel 1 es igual a cero. En el nivel 2 (donde ya puede haber daño) se aconseja implantar los controles posteriores, la obligación de realizar y publicar una evaluación apropiada de riesgo y divulgar información a los organismos supervisores o también reforzar las obligaciones de transparencia y derechos de acceso de las personas afectadas. La incorporación de procedimientos de autorización se justifica para las aplicaciones basadas en algoritmos que forman parte del nivel 3 que pueden producir un daño potencial regular o importante. Como las aplicaciones encuadradas en el nivel 4 representan un daño potencial grave, en este caso, deberían ser objeto de mayor supervisión. Finalmente, la prohibición parcial o completa se aplicaría a los algoritmos que conllevan un daño insostenible (nivel 5). Pese a que no se mencione de forma expresa, el nivel 5 de riesgo se relaciona con el Principio de Precaución o de Cautela que se aplica a situaciones de incertidumbre científica y de daño grave e irreversible. Desde nuestro punto de vista, sería aconsejable proponer también la revisión de la Comunicación de la Comisión sobre el recurso al principio de precaución del año 2000 e incorporar el rechazo de ciertos sistemas algorítmicos cuando su implantación suponga riesgos elevados de daños irreversibles o cuando debido a su opacidad el control y supervisión humano comienza a ser poco factible.

¿Y como se relaciona esta propuesta con el Reglamento Europeo de Protección de Datos? El documento de trabajo ofrece algunas respuestas al respecto. Parece que los riesgos asociados a los algoritmos persisten aún cuando no haya procesamiento de datos. De ahí la necesidad de una regulación específica sobre la materia. Además, se propone también un mayor desarrollo de lo dispuesto en el art. 22 del RGPD que prohíbe las decisiones basadas únicamente en el tratamiento automatizado salvo en determinadas situaciones. Conocido es el caso de la Agencia de Empleo austriaca que desde el 2016 evalúa las oportunidades de empleo de los candidatos a un puesto de trabajo con apoyo en un algoritmo que concede menor puntuación a las mujeres, a las personas discapacitadas y a los mayores de 30 años (vid. noticia). En esta línea, resulta aconsejable expandir la legislación antidiscriminatoria para dar cobertura a situaciones epecíficas en las que el trabajador o candidato resulta discriminado sobre la base de análisis de datos automatizados o decisiones automatizadas.

Debido a la compejidad técnica de los algoritmos y su rápida obsolescencia, se propone la promoción de normas técnicas que complementen aquellos aspectos que se escapan al legislador. Las normas técnicas son elaboradas por sujetos privados (en nuestro país, la Asociación Española de Normalización) y pertenecen a la familia del soft law o derecho blando (no vinculante). En efecto, la normalización en el campo de la inteligencia artificial está todavía en una fase muy temprana y de momento se están dando pequeños avances quizá porque se está esperando a que sea el legislador quien de el primer paso. 
















Comentarios

Entradas populares de este blog

Erte y trabajadores en situaciones singulares (maternidad, paternidad, incapacidad temporal, etc.)

¿Pueden coexistir los ERTE por fuerza mayor y los ERTE por impedimento y/o limitación?

El desempleo de los fijos discontinuos: dudas interpretativas