¿Qué información del algoritmo deben entregar las empresas a los trabajadores?

johnk

Después de un año de trabajo, el grupo de trabajo del Ministerio de Trabajo coordinado por Gemma Galdón, con los juristas expertos en derecho del trabajo Anna Ginès; Ana Belén Muñoz; Javier Sánchez y Adrián Todolí, presentó el viernes una guía que orienta al empresario que información debe entregar a los trabajadores sobre el algoritmo.

Todolí, profesor de derecho del trabajo de la Universidad de Valencia explica a Confilegal que “no hay que entregar la información d el código del algoritmo. Seria excesivo para los intereses empresariales”.

Sobre lo que hay que entregar es la información de las variables, que variables utiliza a nivel de género para contratar podría ser un caso claro de discriminación y se podría denunciar y luego hay otras que no son prohibidas, que son importantes, en el caso de los ‘Riders’ de los repartos, muchos están cerca de la puerta del local, no sabemos si utiliza esa variable o de la fiabilidad del trabajador sobre su reputación como profesional”.

También destaca cuanto de importante “tiene esas variables, pero no todas tienen la misma importancia. Es posible que algunas sean más relevantes que otras. Eso hay que definirlo según señala la ley”.

Otras cuestiones que hay que comunicar tienen que ver con “quién ha desarrollado el algoritmo, se ha auditado o no. Si realmente ese algoritmo crea una caja negra o no, es importante dar la información a los representantes de los trabajadores y a los trabajadores individuales si lo piden”.

Es obligatorio dar la información a cualquier empresa del sector. «En el caso que la empresa se niegue vulneraría la legislación de la protección de datos y la AEPD podría sancionar; al mismo tiempo el trabajador en los tribunales reclamar indemnización por daños y perjuicios por el daño generado de no tener esa información”.

Todolí también contempla que “los sindicatos puedan también reclamar por vulneración de los derechos sindicales. Esta regulado por un derecho de información sindical, el no cumplir supondría una vulneración a la libertad sindical y a la participación de los trabajadores en la empresa. Eso daría pie a que la inspección de trabajo pudiera sancionar y que el sindicato pudiera reclamar daños y perjuicios en tribunales”.

Adrián Todolí, profesor de derecho del trabajo de la Universidad de Valencia.

A la vanguardia europea

Para la profesora Muñoz, titular de Derecho de Trabajo y de la Seguridad Social de la Universidad Carlos III de Madrid este es un documento que pone a nuestro país a la vanguardia de la gestión tecnológica aplicada al mundo del trabajo.

“Ahora, como comentó la ministra de Trabajo, la guía va a recibir las aportaciones de la mesa de diálogo social a corto plazo y es previsible que forme parte de la negociación colectiva de muchos convenios, con lo cual se va a enriquecer de forma notable”.

Dicha normativa ya en vigor supone cumplir la normativa protección de datos que obliga en su artículo 22 a la explicación de la lógica del algoritmo y la propia Ley Rider que estableció un nuevo apartado del artículo 64 del Estatuto de los Trabajadores que obliga a las empresas a informar de las variables, parámetros que utiliza un algoritmo que afecta los trabajadores”.

Otra cuestión que señala esta jurista “es que deja claro la información que se debe proporcionar a los representantes de los trabajadores en cuanto al concepto de transparencia algorítmica y su derecho a recibir esa información. Con la guía con un enfoque práctico se describe de manera detallada esa información que debe entregarse por parte de la empresa”.

Ahora la clave está en como el resto de empresas ajenas a la Ley Riders van a entender esta obligación de transparencia que tienen que afrontar cualquier empresa que maneje algoritmos en su negocio “Modifica un articulo del Estatuto de los Trabajadores que obliga a la transparencia algorítmica a las empresas, sin que tengan que ser plataformas digitales”, apunta.

Ana Belén Muñoz, titular de Derecho de Trabajo y de la Seguridad Social de la Universidad Carlos III de Madrid.

Herramienta pionera

La herramienta que se pone a disposición de personas trabajadoras y empresas permite cumplir con la obligación de información algorítmica de todas las empresas.

Concreta y sistematiza las obligaciones empresariales de información y permite garantizar el derecho fundamental a la no discriminación.

Todolí señala que “en muchas ocasiones las empresas compran algoritmos pero no tienen esa información que se les demanda ahora. Ahora con la entrada en vigor de esta obligación pueden pedir a su proveedor esa información que puede ser requerida por su equipo sindical. Al final la transparencia es buena para todo”.

En un contexto en el que el uso de algoritmos es cada vez más habitual en el ámbito empresarial para tomar decisiones de forma automatizada y que este hecho puede poner en riesgo los derechos fundamentales de las personas trabajadoras, Yolanda Díaz ha asegurado que “hablar de regulación algorítmica es hablar de combatir la desigualdad y la precariedad”.

En este sentido, la responsable de Trabajo ha avanzado que la Inspección de Trabajo y Seguridad Social está perfilando el algoritmo Max para combatir el tanto el exceso de horas extras como las horas extra realizadas y no remuneradas.

Para estos expertos el proceso de diseño y construcción de un sistema de decisión automatizada está sujeto a muchas decisiones de diseño y de cada una de ellas dependerá el sistema final resultante.

Se trata, por tanto, de combatir la denominada “discriminación algorítmica”, que reproduce patrones clásicos de discriminación.

Cualquier cambio en la selección de datos de entrenamiento, del método de ajuste o de su ponderación relativa en el algoritmo generará un modelo diferente y, por tanto, con posibilidad de estar sujeto a determinados sesgos.

El documento presentado incide en la importancia de la existencia de la intervención humana en cada una de las decisiones parceladas y no solamente en alguna parte del proceso.

Por ejemplo, en un proceso de selección si las y los candidatos finalistas se seleccionan mediante un algoritmo, la decisión final dependería de una decisión humana.

Tal y como recordó Yolanda Díaz, “los modelos y prejuicios que se usan en el diseño de los algoritmos tienen consecuencias de carne y hueso. El algoritmo no es ciego”, como dictaminó la pionera Sentencia del Tribunal de Bolonia de 31 de diciembre de 2020 a propósito del algoritmo Frank”.

En este marco, “es nuestra responsabilidad poner los avances tecnológicos al servicio de las mayorías sociales y de la justicia social. Es la responsabilidad del Estado, por un lado, innovar, y por el otro, ofrecer protección y estabilidad” subrayó la titular de Trabajo.

Ley Rider, punto de inflexión

La Ley Rider se refiere a concretos deberes de información de las plataformas digitales respecto de los sistemas automatizados de supervisión y de toma de decisiones empleado y garantiza el derecho a conocer y a comprender el algoritmo.

Esta norma pionera que inspira el proyecto de Directiva sobre condiciones de trabajo en plataformas digitales que está ahora siendo debatida en la UE.

El objetivo es, por tanto, caminar hacia una empresa «algorítmicamente responsable» con trabajo decente y socialmente responsable.

Los algoritmos también deben ser materia de negociación por parte de la representación legal de los trabajadores-

Para los expertos que han configurado esta guía es aún pronto saber si va a generar litigiosidad: “la guía también tiene una parte pedagógica de recordar que existe esta obligación. Habrá  que ver en el medio plazo su comportamiento y como lo entienden las partes implicadas”.

Deja un comentario