[tie_list type=»checklist»]
- Suscríbete a nuestro canal de Telegram, si quieres recibir nuestras publicaciones en tu móvil
- Bono Joven para el alquiler: una ayuda que se atasca
- La subida del 15 % en las pensiones no contributivas se aprobará antes de julio
- El Gobierno trabaja en un proyecto piloto para implantar la jornada laboral de 4 días
[/tie_list]
El Ministerio de Trabajo ha presentado una guía que empresas y representantes de trabajadores seguirán para auditar los algoritmos con implicaciones laborales. Es una herramienta pionera que permitirá conocer el impacto de los algoritmos en las condiciones de trabajo.
Ley Rider
Más de un año después de la entrada en vigor de la ley rider, el Ministerio de Trabajo ha presentado una guía sobre las repercusiones laborales de los algoritmos.
La ley rider, que en realidad es una disposición adicional al Estatuto de los Trabajadores. No legisla únicamente sobre el modelo laboral que compañías como Glovo han importado a España. La norma también prevé la obligatoriedad de que las empresas informen a representantes de los trabajadores sobre qué algoritmos emplean sobre sus plantillas.
Así, las compañías tendrán que informar a las secciones y delegados sindicales y a los comités de empresa de, «los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial» que afecten «a la toma de decisiones que pueden incidir en las condiciones de trabajo», o «el acceso y mantenimiento del empleo».
«El reloj era una tecnología que podía permitir proteger la jornada laboral, pero en manos de sola una parte de la relación aboral sin la capacidad de control de los trabajadores se convertía en una herramienta de horas extras descontroladas»
Desde un algoritmo que se encargue de repartir los horarios o los días de vacaciones en una oficina, al algoritmo que muestre candidatos en plataformas de búsqueda de empleo a las empresas solicitantes. Todos esos códigos tendrán que ser debidamente auditados. La guía que el Ministerio de Trabajo ha presentado es un primer paso para ello.
Herramienta pionera en el mundo
La herramienta que se pone a disposición de personas trabajadoras y empresas permite cumplir con la obligación de información algorítmica de todas las empresas.
Concreta y sistematiza las obligaciones empresariales de información y permite garantizar el derecho fundamental a la no discriminación.
Se concreta en 4 epígrafes de cuestiones: información general (ejemplo, ¿qué tipo de tecnología utiliza el algoritmo?, si genera un modelo de «caja negra», si es de aprendizaje continuo y también quién ha desarrollado el modelo), información sobre la lógica y funcionamiento (que permite conocer las diferentes variables y parámetros que utiliza, así como los tipos de perfiles que elabora), información sobre las consecuencias (como, por ejemplo, en materia de igualdad o si existen problemas de sesgo), otra información relevante (si los trabajadores están al corriente del uso de este tipo de sistemas algorítmicos en su trabajo)
Cada epígrafe consta de una serie de preguntas como qué tipo de tecnología utiliza el algoritmo (Caja negra, aprendizaje continuo) quién lo ha desarrollado, con qué decisiones, si hay personas en este proceso de decisión y en qué medida participan, qué datos de entrenamiento se han utilizado, si se han verificado los extremos, qué consecuencias pueden derivarse para las personas la decisión adoptada, si se ha informado a la persona candidata del uso de algoritmos…por mencionar algunos ejemplos.
En un contexto en el que el uso de algoritmos es cada vez más habitual en el ámbito empresarial para tomar decisiones de forma automatizada y que este hecho puede poner en riesgo los derechos fundamentales de las personas trabajadoras, Yolanda Díaz (ministra de trabajo) ha asegurado que «hablar de regulación algorítmica es hablar de combatir la desigualdad y la precariedad».
En este sentido, la Inspección de Trabajo y Seguridad Social está perfilando el algoritmo Max para combatir el tanto el exceso de horas extras como las horas extra realizadas y no remuneradas.
Los algoritmos no son inocuos
El proceso de diseño y construcción de un sistema de decisión automatizada está sujeto a muchas decisiones de diseño y de cada una de ellas dependerá el sistema final resultante.
Se trata, por tanto, de combatir la denominada «discriminación algorítmica» que reproduce patrones clásicos de discriminación.
Como explica el profesor Nick Srnicek, (autor de Capitalismo de plataformas y uno de los padres del aceleracionismo) los algoritmos no solo se emplean en las plataformas digitales. Sino que cada vez más se utilizan en entornos laborales tradicionales. En este sentido, ha reclamado «una nueva legislación que regule y restrinja el uso de algoritmos».
Cualquier cambio en la selección de datos de entrenamiento, del método de ajuste o de su ponderación relativa en el algoritmo generará un modelo diferente y, por tanto, con posibilidad de estar sujeto a determinados sesgos.
La guía incide en la importancia de la existencia de la intervención humana en cada una de las decisiones parceladas y no solamente en alguna parte del proceso. Por ejemplo, en un proceso de selección si las y los candidatos finalistas se seleccionan mediante un algoritmo, la decisión final dependería de una decisión humana.
Tal y como recordó Yolanda Díaz «los modelos y prejuicios que se usan en el diseño de los algoritmos tienen consecuencias de carne y hueso. El algoritmo no es ciego», como dictaminó la pionera Sentencia del Tribunal de Bolonia de 31 de diciembre de 2020 a propósito del algoritmo Frank».
En este marco, «es nuestra responsabilidad poner los avances tecnológicos al servicio de las mayorías sociales y de la justicia social. Es la responsabilidad del Estado, por un lado, innovar, y por el otro, ofrecer protección y estabilidad».
“El uso de los algoritmos persigue nuestras vidas privadas y laborales. Ya planifican nuestros deseos y no puede haber mayor invasión. La decisión de la salida de la cárcel de un reo o la posibilidad de una ayuda social ya están determinadas por algoritmos. El Estado tiene que estar a la altura. Estas máquinas no son perfectas, tienen fallos y tenemos que corregir las perversidades que provocan”
Igual que la empresa tiene que evaluar los riesgos de introducir cierto tipo de máquinas, sucede lo mismo con estos algoritmos que puedan estar afectando directamente a la salud mental de los trabajadores.
Ley rider, punto de inflexión
El Real Decreto-Ley 9/ 2021, para garantizar los derechos laborales de las personas dedicadas al reparto en el ámbito de plataformas digitales consagra el derecho de las personas trabajadoras de cualquier empresa a «ser informado por la empresa de los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones que pueden incidir en las condiciones de trabajo, el acceso y mantenimiento del empleo, incluida la elaboración de perfiles».
Uno de los problemas que planteaba la introducción de ese derecho de información algorítmica en la ley rider, es que no concretaba qué tipo de información ni cuanta se podía solicitar. Además, este derecho a la información podría entrar en conflicto con otros derechos como el de la Propiedad Intelectual o el Derecho empresarial.
Esta norma pionera que inspira el proyecto de Directiva sobre condiciones de trabajo en plataformas digitales que está ahora siendo debatida en la UE.
La Ley rider se refiere a concretos deberes de información de las plataformas digitales respecto de los sistemas automatizados de supervisión y de toma de decisiones empleado y garantiza el derecho a conocer y a comprender el algoritmo.
El objetivo es, por tanto, caminar hacia una empresa «algorítmicamente responsable» con trabajo decente y socialmente responsable.
Los algoritmos también deben ser materia de negociación por parte de la representación legal de los trabajadores.
Guía sobre uso de algoritmos
La guía práctica (que puedes leer desde aquí) reúne en un único documento obligaciones y derechos en materia de información algorítmica en el ámbito laboral: señala las obligaciones de la empresa respecto a la información que debe facilitar a la representación legal de la plantilla y a las propias personas trabajadoras.
Además, indica qué información pueden solicitar la representación legal de la plantilla y las propias personas trabajadoras de acuerdo con la normativa vigente.
Por otra parte, analiza las obligaciones empresariales de negociación del algoritmo, la auditoría y la evaluación de impacto.
Para Yolanda Díaz, se trata, por tanto, de avanzar en un uso adecuado de los avances tecnológicos. «Si usamos la tecnología a favor de las trabajadoras y trabajadores podemos incorporar elementos positivos», ha sentenciado.
Además, en el documento presentado, el Ministerio abre la puerta a una modificación futura del Estatuto de los Trabajadores. Para introducir la obligación de la empresa no solo de informar, sino también de negociar con los representantes legales de la plantilla las variables, parámetros u otras características del algoritmo que afectan a sus condiciones de trabajo.