Decodificando el control de la IA sobre la fuerza laboral, por Hatim Rahman
El trabajo de Hatim Rahman sobre el concepto de "invisible cage" (jaula invisible) se centra en cómo las plataformas digitales y la IA crean formas de control y supervisión menos evidentes, pero igualmente restrictivas, para los trabajadores.
Profesor adjunto de Gestión y Organizaciones en la Kellogg School of Management de la Northwestern University, Hatim investiga la influencia de la IA y los algoritmos en la naturaleza del trabajo, el mercado laboral y las relaciones laborales. Su próximo libro, Inside the Invisible Cage: How Algorithms Control Workers, examina de qué modo los algoritmos controlan la mano de obra, cambiando las normas y pautas sin previo aviso, explicación o recurso.
Durante la charla que mantuvo con el cofundador de Thinkers50, Stuart Crainer, ahondó en cómo la tecnología tiende a reflejar y amplificar los valores y prioridades de las organizaciones que la aplican. Algunas, por ejemplo, priorizan la eficiencia sobre el bienestar de los empleados, lo que puede afectar a la forma de trabajar de los algoritmos.Algunas organizaciones priorizan la eficiencia sobre el bienestar de los empleados, lo que puede afectar a la forma de trabajar de los algoritmos
Según el profesor, la experiencia laboral de los trabajadores de la gig economy (trabajadores independientes, freelancers o por encargo) se parece cada vez más al encierro en una jaula invisible, donde las reglas y directrices acerca de lo que se recompensa son opacas y cambiantes. Sin embargo, no tiene por qué ser así. Él defiende que las organizaciones pueden hacer que la IA y los algoritmos sean transparentes y explora la utilización de estos para atraer nuevos talentos, ampliar el abanico de competencias y proporcionar un mayor acceso a los puestos mejor remunerados, incluidos los grupos de menor poder que históricamente se han quedado atrás. Estas son algunas de las conclusiones de su trabajo.
Acerca de la "jaula invisible”
Según Rahman, las plataformas digitales y los sistemas de IA imponen nuevas formas de control digital sobre los trabajadores; formas más sutiles y menos visibles que las tradicionales. A diferencia de las jerarquías tradicionales y las reglas explícitas, estos sistemas utilizan algoritmos y datos para monitorear y dirigir el comportamiento de los trabajadores.
Debido a la falta de transparencia en cómo operan estos sistemas de control, a menudo los trabajadores no entienden cómo se utilizan los datos para evaluar su desempeño o tomar decisiones que afectan a su empleo. Esta opacidad dificulta la capacidad que tienen para desafiar o negociar con los sistemas.Los sistemas de IA y las plataformas digitales tienden a despersonalizar la gestión laboral
La investigación de Rahman muestra que, aunque las plataformas digitales pueden ofrecer a los trabajadores más flexibilidad y autonomía en algunos aspectos, simultáneamente restringen su capacidad de decisión a través de mecanismos automatizados de control y supervisión. Por ejemplo, los algoritmos pueden dictar los horarios de trabajo, las tareas asignadas y las evaluaciones de rendimiento, limitando así la autonomía real de los trabajadores.
Además, los sistemas de IA y las plataformas digitales tienden a despersonalizar la gestión laboral. En lugar de interacciones directas con supervisores humanos, los empleados se enfrentan a decisiones automatizadas que pueden parecer impersonales e inapelables, lo cual puede conducir a sentimientos de alienación y deshumanización en el lugar de trabajo.La falta de transparencia y responsabilidad en la toma de decisiones automatizadas plantea serias preocupaciones sobre la justicia y la equidad en el lugar de trabajo, que deben abordarse
Una de las cuestiones más espinosas tiene que ver con las implicaciones éticas y sociales de la invisible cage. La dependencia de algoritmos y datos para gestionar el trabajo puede perpetuar sesgos y desigualdades, pues con frecuencia estos sistemas reflejan y amplifican las discriminaciones existentes. Además, la falta de transparencia y responsabilidad en la toma de decisiones automatizadas plantea serias preocupaciones sobre la justicia y la equidad en el lugar de trabajo, que deben abordarse.
A pesar de las restricciones, Rahman observa que los trabajadores desarrollan diversas estrategias para resistir y adaptarse. Algunos encuentran formas de trabajar alrededor de los algoritmos, mientras que otros intentan influir en los datos que se recopilan sobre ellos para obtener resultados más favorables.
Dos ideas centrales
En su conversación con Stuart Crainer, Hatim puso en valor dos ideas esenciales que se desprenden al analizar el impacto de la tecnología en la gestión de las organizaciones:
1) Muchas tecnologías codifican y amplifican los valores y prioridades de las organizaciones. Es decir, si una organización valora la eficiencia por encima de otros resultados, eso suele reflejarse en la forma en que diseña e implanta una tecnología, frente a otro tipo de resultados, como el bienestar de los trabajadores, etc. No es una disyuntiva, pero refleja las prioridades.
“La forma en que una organización utiliza la tecnología es una expresión de sus valores. Es decir, las características o capacidades de la tecnología rara vez son el principal factor determinante para predecir su impacto. Este se remonta a los valores y prioridades de la organización”.
La forma en que una organización utiliza la tecnología es una expresión de sus valores
2) Su investigación, y otras, destacan el hecho de que la tecnología muy rara vez sustituye a toda una profesión, que es el gran debate suscitado en los medios de comunicación. Es la naturaleza del trabajo la que va a cambiar para todo tipo de trabajadores. Con la IA, se ha visto que el alcance y la escala de los trabajadores, así como la naturaleza del trabajor afectado, ha aumentado de manera muy significativa.
“La tecnología para que los pilotos automaticen su experiencia de vuelo o su trabajo existe desde hace bastante tiempo, pero por muchas razones no hemos sacado a los pilotos de la cabina. Es más, si nos fijamos en su entrenamiento, comprobamos que han de aprender a volar un avión manualmente y que la tecnología viene a mejorar ese entrenamiento de modo ideal. A pesar de que las capacidades de la tecnología permiten automatizar mucho de lo que hacen, se ha decidido no hacerlo. No se ha optado por reducir los requisitos de formación, ni los requisitos de seguridad.
En cualquier profesión futura, el hecho de que puedan llegar a existir capacidades para automatizarla no significa que esto tenga que afectar negativamente a toda la actividad o industria. Podemos elegir, como organizaciones y como sociedad, encontrar formas de mejorar la manera en que la gente hace su trabajo”.
La influencia de eBay
¿Por qué los trabajadores gig se ven sometidos a sistemas de control opacos y dinámicos? ¿Qué motivó la creación de este tipo de mecanismos?
Hatim Rahman trata este asunto en su obra. Tal y como compartió con Stuart Crainer, gran parte del mundo online ha estado muy influenciado por eBay. A mediados de los 90, eBay fue pionero en facilitar las transacciones online y escalarlas a nivel global. Ahora es una rutina habitual comprar productos e interactuar con gente a través de internet, pero por aquel entonces nadie estaba se fiaba de comprar algo a alguien que no conocía de nada. Para solucionarlo, eBay puso en marcha el sistema de calificación de cinco estrellas, buscando cuantificar o dar una idea de cómo de fiable es la persona a la que se va a comprar algo.
Durante un cierto período de tiempo, explica Hatim, funcionó bien y casi todas las plataformas (Airbnb –donde él mismo trabajó–, Uber, Upwork, Fiverr…) copiaron y pegaron ese modelo. Pero, “las personas no son productos, ¿verdad?”.Hay matices importantes que deben considerarse al trasladar prácticas exitosas de gestión de productos a la gestión de personas
eBay puede representar el paradigma de uso de IA para optimizar procesos y mejorar la experiencia del usuario en una plataforma de comercio electrónico. Sin embargo, hay matices importantes al trasladar estas prácticas de gestión de productos a la gestión de personas. A diferencia de los productos, los empleados tienen necesidades, emociones y derechos que deben ser considerados. O, si bien los algoritmos han mostrado su utilidad para personalizar y agilizar una experiencia de compra, en el contexto laboral la personalización debe considerar el desarrollo profesional y el bienestar del empleado, no solo la eficiencia operativa. eBay y otras plataformas digitales pueden servir como muestra de la capacidad de la IA para optimizar procesos, pero para los trabajadores, los algoritmos han de diseñarse y aplicarse de manera que respeten su autonomía, privacidad y derechos. Es crucial mantener un equilibrio entre la eficiencia operativa y el bienestar de los empleados para evitar las trampas de la jaula invisible.Es crucial mantener un equilibrio entre la eficiencia operativa y el bienestar de los empleados
Al final, según cuenta Hatim, lo que funcionó en un mercado de productos se aplicó al mercado laboral, con nefastas consecuencias. A lo largo del tiempo, sobre todo en la década de 2010 y sucesivamente, los sistemas de rating fueron fácilmente manipulados, amañados, por los trabajadores, por actores externos… como también se vio en las redes sociales. Ante esto, la respuesta de muchas plataformas online fue la de cambiar y hacer dichos sistemas de evaluación (esos algoritmos) más oscuros. En opinión de Rahman, “orientándolos demasiado hacia la opacidad, lo que derivó en la creación de esta jaula invisible. En mi libro, intento explicar cómo encontrar un punto intermedio entre el principio, cuando todo era muy transparente y fácil de entender, y el final, sujeto a los juegos y la manipulación donde nos encontramos ahora, donde todo es opaco e inentendible”.
Confiar en la tecnología para la gestión de personas
Preguntado sobre qué pueden hacer las organizaciones para fomentar una cultura de confianza ante la creciente dependencia de la IA y los algoritmos en la gestión de la fuerza de trabajo, Rahman llamó la atención sobre la limitación que ha supuesto que “el diseño de la tecnología haya estado en manos de muy pocas partes interesadas, a menudo personas con antecedentes homogéneos”.Para fomentar la confianza en los sistemas de IA, deben incorporarse diversos expertos y stakeholders durante la fase de diseño de los mismos
No duda de la buena voluntad de los profesionales vinculados con la ciencia de datos, la informática, etc., a la hora de construir estas herramientas, pero hay que reconocer que ningún grupo o experto puede resolver algo así por sí solo. “Es esencial contar con diversos expertos y stakeholders, especialmente en la fase de diseño. A menudo se recurre a ellos demasiado tarde, cuando ya se han tomado las decisiones importantes –declaró–, pero para fomentar la confianza deben incorporarse durante la fase de diseño de los sistemas de IA".
Asimismo, su investigación demuestra que “es muy difícil que una única organización o grupo resuelva todo por sí solo. Por eso, en su opinión, “los sistemas de rendición de cuentas basados en la colaboración masiva tienen un papel que desempeñar. Una de las ideas que propongo en el libro, y también en otros trabajos, es fundamentar esos sistemas en el crowdsourcing, habida cuenta de lo complejo que resulta lograr que las organizaciones involucren a los stakeholders o a los gobiernos que, por su propia naturaleza, son reactivos. Por ello creo que esta solución también podría ayudar a generar más confianza”.
Miembro de Thinkers50 Radar Class 2024, Hatim Rahman, assistant professor of management and organisations at the Kellogg School of Management, Northwestern University.
Imágenes recurso: apertura © kalhh en Pixabay, interior: © fabio en Unsplash y © freepik.
Artículo publicado en mayo de 2024.