Unai Sordo

Secretario General de CCOO

Algoritmos y derechos laborales

El siglo XXI ha registrado una nueva ola de cambios tecnológicos basados en la digitalización, y que han cobrado especial intensidad a partir de los desarrollos de los Sistemas de Inteligencia Artificial (SIA). Toda transformación tecnológica ha tenido históricamente impactos sobre el empleo, a menudo conflictivos, si bien esta actual tiene al menos dos singularidades: la velocidad de los cambios y la multidimensionalidad de los efectos.

No es casualidad que el acuerdo del diálogo social que más presión externa recibió en la pasada legislatura fuera la llamada Ley Rider. En ella pactábamos con CEOE y el Gobierno la presunción de laboralidad de las personas que trabajan en la economía de plataforma y se dedican al reparto, y, muy relevante, el acceso de la representación legal de las personas trabajadoras a la información sobre los algoritmos que se utilizan para la gestión de las plantillas. Un ejercicio de transparencia que posibilitará conocer cómo se determinan los sistemas de puntuación, asignación de pedidos, o toma de decisiones sobre ascensos y despidos, por citar algunos ejemplos.

Esta norma aparentemente de sentido común era cualitativamente muy importante y de hecho situaba a España en la vanguardia europea sobre cómo proceder a regular el enorme impacto disruptivo que la gestión algorítmica del trabajo puede tener, y de hecho ya tiene.

Porque esta es una cuestión que hay que dejar clara. Los desarrollos de la computación, la IA, y el Big Data han impulsado el uso empresarial de algoritmos complejos que implantan sistemas automatizados de toma de decisiones sobre la organización del trabajo. De momento de manera parcial y asimétrica, pero previsiblemente cada vez con mayor penetración en distinta tipología de empresas, en espacios regulares de trabajo, y no solo en las grandes empresas, o en las plataformas digitales laborales.

Hablamos de decisiones sobre cómo se contrata, se despide, o se promociona; de cómo se asignan tareas y ritmos de trabajo; de sistemas de control, supervisión y vigilancia; de evaluación de clientes sobre el desempeño laboral y la reputación digital de una persona trabajadora. Todo ello mediante una permanente recopilación de datos de las personas trabajadoras, el procesamiento de estos, y finalmente la toma de decisiones sobre la organización del trabajo en función de la producción de resultados por parte del algoritmo.

Hay que tener en cuenta que la determinación de los parámetros sobre los que van a actuar los algoritmos no es una cuestión neutra ni técnica. En primer lugar, el uso de los datos presenta riesgos significativos respecto a la privacidad y la intimidad de las personas, y es necesaria una protección legal de un derecho fundamental que, a su vez, debe trasladarse a la negociación colectiva.

En segundo lugar, los sistemas de inteligencia artificial pueden evaluar los rendimientos de las personas a través de unas variables, ponderadas bajo determinados criterios, y con resultados automatizables. Si se construyen herramientas utilizando datos de calidad y evitando sesgos, se pueden inducir incluso decisiones más transparentes y justas, menos discrecionales. Pero en sentido contrario, es más que probable que las variables se ponderen en función de estrategias empresariales destinadas a la optimización de recursos, aumentos de la productividad, o evaluación de rendimientos, que “pasen por encima” de los derechos laborales o que refuercen de manera opaca y discriminatoria las desiguales o discriminaciones, directas o indirectas.

Por ilustrar con algún ejemplo, una empresa puede querer vincular las decisiones sobre incentivos salariales, promociones, o sanciones, en función de variables como pudieran ser el cumplimiento de objetivos fijados, la asistencia diaria al puesto de trabajo, o la evaluación de los clientes. Las decisiones del algoritmo no pueden tener efectos legales automáticos (despidos, promociones, salarios), y deben ser revisadas porque pueden obedecer a razones que en modo alguno pueden tener consecuencias negativas para la persona trabajadora. Siguiendo con el ejemplo, si la no asistencia durante un tiempo al puesto de trabajo se debe a una baja por enfermedad, se estaría discriminando a la persona que ha enfermado.

Imaginemos que en una selección de personal (la mayoría de los Currículum Vitae ya no están supervisados por ojo humano) se agregan datos en función de los cuales una persona que reside en un barrio periférico tiene una tendencia a lo largo de un año a llegar con algo de retraso al puesto de trabajo porque cuando llueve suele haber problemas de movilidad. Esos datos pueden llevar a que de forma automática se elimine de la selección de personal a todas las personas residentes en ese barrio, reforzando un sesgo discriminatorio que es inasumible.

Las desigualdades de género también pueden verse reforzadas si los criterios y algoritmos utilizados por los SIA son fijados para reforzar el premio a la disponibilidad constante (incluso fuera del ámbito laboral), sabiendo que esto refuerza sesgos de género por la pervivencia de la feminización de los cuidados domésticos, y por tanto la menor disponibilidad de tiempo que tienen las mujeres, o el mayor uso de los derechos de conciliación a los que se siguen acogiendo.

En definitiva, el riesgo de aumentar el desequilibrio de poder en las relaciones de trabajo, la mayor opacidad en la toma de decisiones amparándose en la supuesta neutralidad del “gran hermano” digital, el reforzamiento de sesgos y discriminaciones, o los riesgos para la salud y la seguridad producto de la intensificación automatizada de los ritmos de trabajo, deben combatirse.

Para ello se necesita regulación, y se necesita reforzar la capacidad autónoma de los trabajadores a la hora de abordar estos contenidos en la negociación colectiva, para lo que hay que fortalecer a las RLPT (representación legal de las personas trabajadoras). La formación y el conocimiento sobre estas materias no es un tema secundario, y apelan directamente a reforzar desde los sindicatos, pero también desde los poderes públicos, estos procesos de aprendizaje para que las personas que ostentan una responsabilidad democrática y un mandato legal y constitucional puedan ejercerlo efectivamente y no desde el voluntarismo. España tiene una disonancia entre las responsabilidades a las que emplaza a la representación sindical de la clase trabajadora y las herramientas que pone a su disposición para poder ejercerlas.

Es necesario adecuar las leyes de protección de datos a las realidades laborales, de la misma forma que todas las normas contra la discriminación y en favor de la igualdad efectiva vinculada a cualquier factor de desigualdad, tienen que contemplar su aplicabilidad en el ámbito laboral y productivo.

La obsesión anti-regulatoria que jalona las ideologías más asalvajadas del postneoliberalismo son extremadamente peligrosas, y pueden dejar sin efecto buena parte de toda la legislación laboral y social, amparándose en el fetiche digital. La norma tampoco lo va a poder todo, y es necesario que impulse y empodere a las partes que luego están llamadas a la concreción en la negociación colectiva, a disponer de los conocimientos, las herramientas, los derechos y deberes de información y consulta en todos los procesos de transformación digital, y en la implementación de estos métodos con especial atención a sus potenciales impactos sobre el empleo y las condiciones de trabajo.

Una participación inexistente o limitada de la clase trabajadora en la transformación digital puede conllevar posiciones reactivas a las que no debiera aspirar un empresariado medianamente moderno. Por el contrario, una gobernanza proactiva y sindicalizada sobre los cambios tecnológicos en las empresas es fundamental ante escenarios potencialmente distópicos, de unos procesos que no son reversibles y que son multidimensionales en el ámbito laboral y en la propia configuración social.

Unai Sordo

Secretario General de CCOO