Una conocida empresa de ascensores trabaja en España con una app que distribuye las tareas diarias de sus empleados en función de las incidencias que dejan los usuarios y de la cantidad de aparatos que hay que arreglar, así como de sus ubicaciones y el orden a seguir. Hasta aquí todo normal. El problema llega, explica el secretario de Juventud y Nuevas Realidades del Trabajo de CC OO, Carlos Gutiérrez, “cuando el algoritmo que esconde esa app se utiliza para medir la supuesta eficiencia o productividad de los trabajadores sin que ellos lo sepan”. Es algo, añade, que puede repercutir en las evaluaciones internas, en la clasificación por perfiles en base a sesgos, en la salud laboral o en la promoción.
El objetivo del Real Decreto-Ley aprobado esta semana por el Gobierno, además de la regularización de los riders, persigue precisamente acabar con la opacidad de los algoritmos obligando a todas las empresas que hacen uso de esta tecnología a informar a los empleados sobre los sistemas de inteligencia artificial que incidan en las condiciones de laborales. “Multitud de cuestiones que se deciden en los centros de trabajo están mediadas por estos algoritmos, que pueden tener sesgos raciales, de clase y de género, y tenemos que proteger a los empleados”, añade Gutiérrez, presente en las negociaciones de la ley rider consensuada por el Ministerio de Trabajo, las patronales CEOE y Cepyme, y los sindicatos CC OO y UGT.
Jorge Monclús y José María Martínez, socios de Cuatrecasas, señalan que hoy en día son ya numerosas las empresas que se apoyan en sistemas de inteligencia artificial y programas algorítmicos para decidir cuestiones tan comunes como la contratación de personal, la asignación de tareas, la distribución de tiempos y lugares de trabajo, la evaluación y promoción profesional o la verificación de la consecución de objetivos para, por ejemplo, el devengo de un bonus. Y todas esas compañías, no solo las empresas tecnológicas o de la big economy, se van a ver afectadas por esta nueva ley, que entrará en vigor el próximo 12 de agosto.
Hay casos de compañías de reparto, ajenas al mundo del delivery, que penalizan al empleado si no sigue la ruta que tiene marcada, “obviando que un desvío puede estar justificado por una obra o un accidente”. También otros que se utilizan por la empresa para crear clasificaciones por perfiles en base a los niveles de disponibilidad del trabajador, por ejemplo, en auditoras o consultoras, «o que no distinguen entre ausencias injustificadas o bajas por enfermedad», continúa Gutiérrez. Según un estudio de EY para Microsoft en 2019, el 15% de las empresas españolas consultadas estarían utilizando inteligencia artificial en recursos humanos, el doble de la media europea.
El Real Decreto-Ley reconoce por primera vez en el ordenamiento jurídico-laboral español la figura de los algoritmos como gestores de la prestación laboral. “Pero más trascendente aún”, como explican los socios de Cuatrecasas, confiere a la representación legal de los trabajadores el derecho a ser informada por la empresa “de los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones que pueden incidir en las condiciones de trabajo, el acceso y mantenimiento del empleo, incluida la elaboración de perfiles”.
Una información que puede ser considerada por las compañías como secreto empresarial y podría dar lugar a una “lógica resistencia de las empresas a destripar sus sistemas”, según advierten Monclús y Martínez. Aunque como apunta Jesús Lahera, catedrático de Derecho del Trabajo en la Universidad Complutense, este derecho se debe ajustar a la normativa vigente de secreto profesional, así como de propiedad intelectual e industrial, que no ha sido modificada. Y por esa vía pueden aparecer límites significativos.
“Va a ser esencial el respeto del deber de sigilo y confidencialidad de los representantes de los trabajadores, tanto general del artículo 65 del Estatuto de los Trabajadores como específico en secretos profesionales”, resalta Lahera, que advierte que los conflictos en la aplicación de esta nueva ley pueden venir de la posición de la empresa en hacer valer esta confidencialidad y secreto profesional, así como en la delimitación del alcance de la información. «Serán los jueces los que tendrán que ir elaborando criterios y límites en el contexto de toda la normativa aplicable».
Para Stella Solernou, profesora de Derecho Mercantil de la Facultad de Derecho de la Universidad de Deusto, esta nueva norma viene a concretar la ley de secretos empresariales de 2019, la cual ya tiene un precepto que habla de la posibilidad de obtener de manera lícita secretos empresariales cuando sean cuestiones relacionadas con el ejercicio de los derechos de los trabajadores y los representantes de estos.
“El tema está en que una cosa es poder acceder a esa información y, otra, la utilización que se haga de la misma. Y ahí es donde tiene que venir el límite para el comité de empresa, pero la ley no dice nada al respeto, lo cual puede generar conflicto, pues si se va más allá de utilizar la información para defender los derechos de los trabajadores y hay una revelación de cómo funcionan esos algoritmos supondría una violación de los derechos de las empresas”, señala.
Powered by WPeMatico