Ir al contenido principal

Despedidos por un Algoritmo. El caso Xsolla






"Esta historia resonó más entre los profesionales de recursos humanos y juega con el miedo de los trabajadores a que la tecnología se utilice contra ellos. Esto es comprensible. Creo que las decisiones impulsadas por la IA están desempeñando un papel más importante en nuestras vidas. ¿Es esto algo de lo que hay que temer? ¿O una nueva oportunidad?"




El párrafo anterior corresponde a un tweet publicado por Aleksandr Agapitov, fundador de la empresa Xsolla, luego de haberse divulgado que el despido de 150 sus trabajadores (30% de la planilla) había sido decidido por un algoritmo.

Xsolla, creada en rusia (2005) pero actualmente con sede en Los Ángeles USA, es una de las principales empresas en la industria de pagos de videojuegos, con una valoración pública que podría alcanzar los 3.000 millones de dólares, y con un crecimiento anual que en los últimos años ha superado el 40%.[1]

Según Bloomberg, Agapitov (39 años) aún es poco conocido en el mundo de los negocios, sin embargo, su nombre resonó cuando  en agosto de 2021 se conoció que el despido de 150 trabajadores de la compañía había sido decidido mediante el uso de inteligencia artificial.

Pero no solo llamó la atención la forma en que Agapitov se refirió a esta situación en redes sociales, sino que también la manera en él mismo comunicó el despido a los trabajadores a través de un email:

"Recibiste este correo electrónico porque mi equipo de big data analizó tus actividades en Jira, Confluence, Gmail, chats, documents, dashboards y te etiquetó como empleado improductivo y no comprometido"

"En otras palabras, no siempre estabas presente en el lugar de trabajo cuando trabajabas de forma remota. Muchos de ustedes pueden estar sorprendidos, pero realmente creo que Xsolla no es para ustedes".

La carta continúa señalando que Xsolla se ha asociado con múltiples agencias de recursos humanos para "ayudarte a encontrar un buen lugar donde ganarás más y trabajarás aún menos". Por último, habría adjuntado una lista de los empleados afectados por el despido impulsado por algoritmos.[2]

En una entrevisa concedida a Game World Observer[3] el CEO se refirió al sistema de evaluación interna de Xsolla, en los siguientes términos:

-La decisión de la compañía con respecto a los despidos se inspiró en Netflix, Harward y otras organizaciones que despieron al 10% de los empleados menos comprometidos y regularmente ineficaces. Sin embargo, Xsolla no tenía planes de despedir a estas muchas personas hasta que dejó de crecer un 40 % año tras año.

-El sistema de clasificación de rendimiento se implementó a principios de 2021. La empresa mide la eficiencia de sus empleados en una escala de 100 puntos, basada en 30 características. La lista incluye la redacción y lectura de artículos en el Wiki interno, la creación y el cierre de tickets de tareas, así como la actividad del panel y la participación en reuniones internas.

-Escribir y leer textos es mucho más eficiente que hacer presentaciones. Es por eso que cree que todos los empleados deberían leer la información sobre el negocio y otras empresas en el Wiki de Xsolla. "Algunas personas simplemente no querían educarse ni aprender sobre los planes de la empresa. Les ofrecimos una generosa indemnización por despido", dijo Agapitov.

-Xsolla solo realiza un seguimiento de los registros de trabajo, por lo que el fundador cree que la empresa no viola la privacidad de los empleados. Afirmó que si la "huella digital" de una persona no es visible, no debería trabajar en Xsolla.

-La empresa también planeó implementar el llamado "espejo digital", para que todos los empleados pudieran aprender lo que piensa la IA de su trabajo y compromiso. Sin embargo, el equipo de desarrollo no estaba entusiasmado con esta idea, por lo que su implementación está pendiente.




Notas:

[1]      S. Carpenter, “Video Game Junkie Aleksandr Agapitov Builds $3 Billion Payments Company Xsolla - Bloomberg,” Bloomberg, Apr. 18, 2022. Accessed: May 31, 2022. [Online]. Available: https://www.bloomberg.com/news/articles/2022-04-18/video-game-junkie-quietly-builds-3-billion-payments-powerhouse

[2]      A. McAloon, “Xsolla lays off 150 after an algorithm ruled staff ‘unengaged and unproductive,’” Game Developer, Aug. 10, 2021. https://www.gamedeveloper.com/business/xsolla-lays-off-150-after-an-algorithm-ruled-staff-unengaged-and-unproductive- (accessed May 31, 2022).

[3]      E. Obedkov, “Xsolla founder on mass layoffs and AI-based employee appraisal system: ‘Stories of fear sell better than those of hope,’” Game World Observer, 2021. https://gameworldobserver.com/2021/08/06/xsolla-founder-on-mass-layoffs-and-ai-based-employee-appraisal-system (accessed May 31, 2022).

Comentarios

Entradas populares de este blog

"Nexus" de Yuval Noah Harari. Revisión crítica.

En este episodio de Derecho al Futuro , exploramos las críticas más destacadas a Nexus: A Brief History of Information Networks From the Stone Age to AI , la última obra de Yuval Noah Harari, publicadas durante su primera semana en el mercado. A través de las opiniones de medios como The Washington Post , The Economist , The Guardian y El País , analizamos las fortalezas y limitaciones del análisis de Harari sobre las redes de información y la inteligencia artificial. Harari argumenta que las sociedades humanas se han sostenido más por mitos y narrativas que por hechos, y que la inteligencia artificial está jugando un papel cada vez más activo en este contexto. Sin embargo, los críticos destacan que su enfoque sobre la IA puede ser simplista y alarmista. En este episodio, desglosamos cada crítica, reflexionamos sobre sus implicaciones legales y éticas, y ofrecemos una evaluación balanceada del impacto de Nexus en el debate actual sobre la IA y la responsabilidad tecnológica.   ...

IA Generativa: ¿Este Trabajo lo Hiciste Tú o ChatGpt?

Muchas veces nos enfrentamos a la pregunta: ”¿Este trabajo lo hiciste con ChatGPT?” . Pero, ¿qué hay realmente detrás de esa pregunta? A menudo, cuando la he planteado a quienes la formulan, las respuestas son variadas: curiosidad, interés, o incluso admiración por la herramienta. Sin embargo, lo que subyace —aunque rara vez se admite— es una puesta en duda de la calidad del trabajo o un intento de exponer un supuesto fraude.   En este episodio, desmenuzamos esa duda y reflexionamos sobre cómo la IA generativa está cambiando la forma en que trabajamos y aprendemos. Desde las críticas por el posible plagio en la educación hasta los prejuicios en el ámbito laboral, analizamos por qué estas herramientas despiertan tantas emociones encontradas.   Hablaremos de cómo integrar la IA generativa de manera ética y responsable, asegurando que sea una aliada para la creatividad y no un reemplazo de nuestras capacidades humanas. Además, exploraremos las oportunidades que ofrece y los r...

Neurodiversidad e Inteligencia Artificial: Reimaginando el Futuro Inclusivo

En este episodio de Derecho al Futuro , profundizamos en cómo la neurodiversidad y la inteligencia artificial están transformando los entornos laborales y educativos. A través de investigaciones recientes, exploramos cómo las diferencias cognitivas, como el autismo o el TDAH, no son déficits, sino variaciones naturales que pueden aportar ventajas únicas cuando se gestionan adecuadamente. Analizamos cómo la IA puede ser una herramienta poderosa para promover la inclusión, pero también discutimos los riesgos si no se diseña de manera ética y responsable. Un episodio crucial para entender el futuro de la diversidad en un mundo tecnológicamente avanzado.     Referencias Arriagada Bruneau, G. (2024). Los sesgos del algoritmo: La importancia de diseñar una inteligencia artificial ética e inclusiva . La Pollera Ediciones.   Bankins, S., Ocampo, A. C., Marrone, M., Restubog, S. L. D., & Woo, S. E. (2024). A multilevel review of artificial intelligence in organizations: ...