LOS DESAFÍOS DE LAS RELACIONES LABORALES ANTE LA INTELIGENCIA ARTIFICIAL
Autores
Prof. Juan Raso Delgue

Resumen: El creciente impacto de la Inteligencia Artificial en las relaciones laborales obliga a los Estados y a las organizaciones de empleadores y trabajadores a enfrentar nuevos desafíos, para los cuales no estamos siempre preparados. Reconocemos ese impacto en la gestión de la empresa, en los ritmos de producción cada vez más estresantes, en los controles sobre los trabajadores cada vez más intensos, en la sustitución de trabajos tradicionales por la acción de los robots.

El legislador no logra seguir el paso de las nuevas tecnologías, por lo cual es necesario recurrir a nuevas fuentes de derecho, como lo principios generales y laborales, el derecho comparado y las normas sobre protección de datos. En este proceso es indispensable despertar el interés de empleadores y trabajadores para abrir espacios de diálogo y negociación.

Palabras clave: Inteligencia artificial, relaciones laborales, algoritmos, protección de datos, principios, derecho comparado

ÍNDICE

 1.Introducción.

2. ¿Qué es la Inteligencia Artificial?.

3. Inteligencia artificial y trabajo.

4. Las ventajas que proporciona la lógica algorítmica al quehacer humano.

5. Los “problemas” de la IA y el algoritmo: 5.1. La “accesibilidad” al algoritmo; 5.2. La discriminación científicamente concebida; 5.3. La invasión de la vida privada y familiar del trabajador; 5.4. La presión sobre la productividad del trabajo;5.5. El control algorítimico.

6. Tutelas jurídicas ante el avance de la IA: 6.1. Los principios generales y laborales de derecho; 6.2. El derecho comparado; 6.3. Las normas sobre protección de datos.-7. Diálogo social y negociación colectiva 8.

Reflexiones finales.

Si bien la historia del progreso se ha construido en gran parte sobre las transformaciones tecnológicas, lo que marca con particulares característica el momento presente es la rapidez de las actuales transformaciones. Empleamos la palabra “disruptivo”, para referirnos a la fuerza del impacto de estos cambios, que producen una ruptura con las formas tradicionales de producción y trabajo, imponiendo una renovación radical de muchos paradigmas laborales.

            De forma traumática el futuro del trabajo golpea al sistema de relaciones laborales, sin preparación casi siempre para regular el nuevo escenario productivo y encerrado en sus paradigmas tradicionales, que impiden construir nuevas tutelas sobre la realidad evasiva.

            No estamos viviendo una época de cambios, sino que se produce en esta segunda década del siglo un verdadero cambio de época, que en lo laboral se expresa no solo en el extraordinario impacto de las tecnologías, sino también en la alteración de los modos tradicionales de producción, que se proyecta en una nueva cultura propia de las relaciones laborales posmodernas. Si las características del modelo típico se centraban en la estabilidad en el trabajo, los horarios fijos y categorías definidas, el nuevo paradigma laboral promueve la movilidad en el trabajo, los horarios flexibles y el nuevo concepto de competencias laborales. Como expresa Cappelli, se modificó el modelo de trabajo para toda la vida y surge un “nuevo pacto en las relaciones laborales” que obliga al sujeto comience a hacerse cargo de su propia carrera y supervivencia en el mercado de trabajo, así como el desarrollo de sus competencias laborales para conservar y fomentar su “empleabilidad”[1].

            La situación se ha complejizado aún más con la pandemia global del COVID 19 que ha transformado el planeta en un inmenso laboratorio para ensayar las tecnologías y promover modalidades de trabajo a distancia, que contribuyen a potenciar la nueva dimensión de la economía virtual, en la que las tareas digitalizadas se imponen como la forma más avanzada del trabajo.

            Como lo vienen haciendo implacablemente, las transformaciones tecnológicas seguirán impactando sobre el trabajo. Los expertos opinan que en el 2030  el 50% de las ocupaciones que hoy conocemos en nuestros países, se habrá transformado en función de las nuevas tecnologías. El trabajo, las tareas, los servicios y los bienes seguirán existiendo, pero se producirán de forma distinta.

En el nuevo contexto productivo y laboral, avanza en forma exponencial la Inteligencia Artificial que centra uno de sus principales focos de acción precisamente en las relaciones laborales, planteando preguntas que no siempre reciben contestaciones concretas: ¿Cuáles serán los avances de la inteligencia artificial y la automatización y cuál el impacto de estos avances en la creación y destrucción de empleos y sobre los salarios? ¿Qué formación laboral requerirá la economía del futuro? ¿Cuáles conexiones deberemos establecer entre la educación y el mercado de trabajo, para no seguir formando jóvenes para trabajos que ya no se necesitan? ¿Cuál en definitiva deberá ser el rol del del trabajo y de las relaciones laborales  en el nuevo contexto productivo?

            Al abordar un tema de actualidad, complejo y no fácil de aprehender en su cabal comprensión, debemos procurar aproximarnos a la investigación sin prejuicios, recordando además la afirmación de uno de los máximos expertos mundiales en inteligencia artificial, el informático británico Andrew Ng: “La inteligencia artificial es la electricidad del siglo XXI”[2].

            Observamos además la ambivalencia de todas las tecnologías del pasado y del presente. Como el radio descubierto por los esposos Curie, que cura enfermedades y ayudó a construir armas de destrucción masiva, o como la dinamita de Nobel, que abrió galerías y destruyó vidas humanas, los algoritmos informáticos prestan ayuda y crean problemas a la humanidad. A la pregunta de si es bueno o malo que un algoritmo contrate o despida a un trabajador, nuestra sensibilidad humana expresa contrariedad, porque rechazamos la idea que una máquina pueda decidir sobre el vínculo laboral de un ser humano. Pero si preguntáramos a nuestros jóvenes colegas de Facultad si prefieren un tribunal de concurso conformado por docentes (con sus inevitables emociones, preferencias o prejuicios) o bases de dato tecnológicamente objetivas, probablemente algunos o muchos optarían por decisiones formuladas por algoritmos, cuya imparcialidad parecería estar por encima de las preferencias humanas.

            Estas premisas nos preparan para entender e intentar explicar un tema nuevo, que puede aparejar desconcierto, pero que también puede aportar beneficios al ser humano, evitando en todo caso afirmaciones categóricas, que respondan a una idea o relato únicos.

Centraremos nuestra exposición sobre el impacto de la IA en el sistema laboral, centrándola en tres aspectos:

a) la noción de “Inteligencia Artificial?;

b) los principales temas/problemas en las relaciones laborales; c) posibles acciones a emprender.

 

¿Qué es la Inteligencia Artificial?

A modo de aclaración, expresamos que por Inteligencia Artificial (IA) entendemos un proceso informático que organiza algoritmos alimentados por datos: millones de datos; billones de datos.

            Algoritmos, datos e IA son nociones estrechamente vinculadas porque, como expresa Mercader Uguina, los datos son el nutriente fundamental de los algoritmos y la inteligencia artificial es el proceso que permite analizar los macrodatos del algoritmo. “La inteligencia artificial (IA) y el aprendizaje automático - agrega el autor español - permiten, a través de esta fórmula, reelaborar gran cantidad de datos simples, de forma que combinados entre sí a través de técnicas estadísticas y lógicas, hacen posible determinar, analizar y predecir ciertos aspectos de la personalidad o el comportamiento, los intereses y los hábitos de una persona”[1].

            La IA no es una inteligencia comparable a la inteligencia humana. Hablamos de IA porque evidentemente hay una similitud con la forma de actuar de nuestra propia inteligencia, pero  la IA es – expresa AGESIC - “la simulación de procesos de inteligencia humana por parte de máquinas, incluyendo el aprendizaje, el razonamiento y la autocorrección”[2].

            Aclara esta idea Corvalán, para quien “la inteligencia artificial no es una sola cosa, sino más bien una ‘constelación’ de procesos y tecnologías que permiten que las computadoras complementen o reemplacen tareas específicas que de otro modo serían ejecutadas por seres humanos, como tomar decisiones y resolver problemas”[3]. La IA por lo tanto no opera como la inteligencia humana, sino que “actúa optimizando la ejecución de tareas computadorizadas, asignadas por seres humanos, mediante repetición e intentos interactivos”[4].

En nuestro celular existe decenas de aplicaciones gestionadas por la IA: pensemos en spotify, en waze, en la facilidad para realizar un un pago o una transferencia bancaria, en los diversos iconos que iluminan la pantalla y que responden casa uno a una función que vamos incorporando en nuestra vida cotidiana.

Pese a que vamos incorporando cada vez más la IA a nuestras vidas y en especial a la actividad laboral, para muchos hablar de Relaciones Laborales o de Derecho del trabajo e IA, sigue siendo una excentricidad. No se asume en la aulas de nuestras universidades o en las mesas de negociación de empleadores y sindicato la importancia de incluir la IA en la agenda de la docencia o de las negociaciones colectivas.

La IA ha dado un paso más en los últimos tiempos y hablamos hoy de IA generativa, para referirnos a una realidad en la que la IA no solo recolecta datos, sino también crea – a partir de esos datos – nuevas ideas o contenidos. Es lo que comprobamos en el uso del llamado ChatGPT, que ofrece posibilidades de crear historias e imágenes nuevas, como ha sido puesto en evidencia por la huelga de Hollywood de escritores y actores en 2023. Marcelo Granieri, profesor de laOBS Business School, nos ayuda a precisar el concepto: “La Inteligencia Artificial Generativa (IAG) es una rama de la inteligencia artificial que se enfoca en la generación de contenidos originales a partir de datos existentes. Esta tecnología utiliza algoritmos y redes neuronales avanzadas para aprender de textos e imágenes, y luego generar contenidos nuevos y únicos”[5].

Inteligencia artificial y trabajo

Es cada vez más importante incorporar los conocimientos y estudios en torno a la IA en la disciplina laboral, porque hoy las relaciones laborales – así como la actividad financiera y el comercio electrónico - se han vuelto un campo de experimentación especialmente importante para la IA. Mientras los trabajadores no asumen los peligros que plantea la acción de la IA en las empresas, los empleadores confíarán cada vez más sus decisiones a resoluciones algorítmicas.

            Importa señalar - como lo hace Cañigueral - que los algoritmos y la IA comienzan a intervenir en diversas funciones laborales, independientemente de cuanto más o menos tecnológica sea la empresa[1]. Su impacto va a ser idéntico en la empresa de alta tecnología como en la fábrica tradicional, donde diversas funciones de la organización del trabajo van siendo ocupadas por los nuevos espacios de la inteligencia artificial.

            La IA y los algoritmos comienzan por lo tanto a operar en diversos sectores de las relaciones laborales, que obraban habitualmente bajo la gestión del departamento de personal y/o recursos humanos. Entre ellos señalamos: la selección y contratación de trabajadores, la evaluación de desempeño y la medición de la productividad, la definición de horarios, turnos y tareas, hasta llegar a las medidas disciplinarias y despidos.

            Como expresa Todolí, los algoritmos y la inteligencia artificial permiten en la actualidad que el empresario encuentre y procese mucha más información de los trabajadores de la existente hasta el presente. La elaboración de perfiles automatizados no solo le permitirá contratar a los que considere más adecuados para las competencias requeridas, sino que la propia tecnología puede sustituir a los supervisores y responsables de recursos humanos en las tomas de decisiones disciplinarias y en los despidos. Si bien la decisión última la tome un responsable de la empresa, éste lo hará en base a un procesamiento automatizado de datos[2].

            Como hemos adelantado, la cuestión “laboral” en torno a los algoritmos se planteará con relación a los datos que alimentan ese proceso de decisión, a la legitimidad de los mismos y al derecho de los trabajadores a conocer los criterios que determinaron su introducción en la construcción algorítmica. También está vinculada a la necesidad u oportunidad del uso de programas de gestión por parte de la empresa y a la cuestión de si los mismos pueden lesionar los derechos humanos de la persona, en primer lugar el derecho a la protección de su intimidad y privacidad.

Las ventajas que proporciona la lógica algorítmica al quehacer humano

En la evaluación de los aspectos positivos vinculados al impacto de la IA en el trabajo humano, una primera ventaja deriva del hecho que las operaciones algorítmicas actúan con mayor rapidez y objetividad que la lógica humana. El ser humano al seleccionar y decidir, inevitablemente actúa con una subjetividad propia de su condición. En cambio, las decisiones algorítmicas en principio “no se basan en corazonadas, imprecisiones o prejuicios”[1].

            La IA, al ordenar y descubrir vínculos entre datos, selecciona generalmente las mejores opciones: como consumidores hemos aprendido a elegir en función de evaluaciones algorítmicas, ya sea para reservar un hotel en el exterior o para adquirir un producto en Mercado Libre o en Amazon: el emoticón “pulgar para arriba”, es decir “me gusta”, condiciona muchas de nuestras decisiones a la hora de tener que optar.

            Panizza señala que las nuevas tecnologías informáticas, además de promover el uso de tablets y smartphones, permiten construir equipos de control remoto, sensores de seguridad, simuladores de tareas de todo tipo, relojes inteligentes, mientras drones de diverso tipo realizan inventarios, trasladan desfibradores al lugar de trabajo, aplican plaguicidas en zonas rurales. Además, la acumulación de datos (big data) contribuye a la resolución de los problemas generados en el trabajo y la producción[2].

            Gauthier expresa que los ordenadores son buenos para ciertos tipos de tareas, tales como la identificación de errores, procesamiento de datos y el cálculo de cifras financieras. Sin embargo, son menos capaces de realizar otras funciones como reconocer la ironía, determinar si algo es NSFW (no seguro para el trabajo en inglés) o discernir entre los resultados de búsquedas ambiguas[3]. En la misma línea, Supervielle afirma que será siempre insustituible la “emoción” en determinados actividades y procesos, como por ejemplo los cuidados, la atención profesional, las relaciones de confianza entre sujetos individuales y entidades financieras[4]. Aunque compartimos en términos éticos la “oportunidad” que la emoción siga integrando determinadas tareas, también es cierto que esas tareas “humanas” están cediendo espacios a la automatización y a la IA. El profesional médico en su consulta con el paciente opina cada vez más a partir del análisis de datos clínicos objetivos extraídos de exámenes realizados al paciente, que en función de su opinión intuitiva o emocional: la sensibilidad profesional cede espacio a la información aportada por la tecnología, a partir de la clasificación de inmensas bases de datos. En otro orden, la aplicación Spotify conoce nuestros gustos musicales más que cualquier miembro de nuestra familia y en virtud de ellos nos ofrece las mejores selecciones artísticas, que puedan ajustarse a nuestra sensibilidad.

            Es importante también destacar que, como ha señalado la Agencia Europea para la Seguridad y Salud en el Trabajo, estos nuevos sistemas pueden facilitar la comprensión de las alternativas relativas a la seguridad y salud en el trabajo, la toma de mejores decisiones y la predicción de los problemas en materia preventiva antes de que ocurran, así como pueden favorecer intervenciones más oportunas y eficaces. Incluso pueden facilitar que las inspecciones laborales investiguen de forma más eficaz los eventuales incumplimientos[5].

Los “problemas” de la IA y el algoritmo

El impacto de la dimensión digital, representado por la IA y los algoritmos, produce sin embargo problemas diversos, no siempre fáciles de solucionar. Por otra parte, la rapidez de la evolución tecnológica determina la aparición de complejidades nuevas, que no se resuelven con la misma velocidad. Algunos de estos problemas aterrizan con fuerza en las relaciones laborales. Señalaremos los siguientes en una enumeración, por supuesto, no taxativa.

La “accesibilidad” al algoritmo

Como expresáramos, la IA toma sus decisiones a partir de la información acumulada en los algoritmos, la cual a su vez responde a un previo diseño humano de conseguir un logro o alcanzar determinado resultado. Los datos que alimentan la IA no

son fáciles de identificar para el hombre común y uno de los desafíos de los próximos tiempos será precisamente el de dar claridad y comprensión a los insumos que alimentan el algoritmo, para que el trabajador y su organización puedan acceder a ellos de una forma comprensible. Es por ello que Molina Navarrete señala la necesidad de regular la transparencia (individual y colectiva) “humanamente accesible” y agrega que la accesibilidad (inteligibilidad humana) es una condición del principio de calidad de datos para otorgar la “garantía efectiva de no discriminación algorítmica”[1] . Para ello es necesario además desarrollar técnicas específicas como, por ejemplo, los procesos EIPD. Señalemos que estos procesos de “Evaluación de Impacto de Protección de Datos” constituyen una medición de impacto relacionada con la privacidad. cuyo objetivo es identificar y analizar cómo la privacidad de los datos pueda verse afectada por determinadas acciones o actividades. Todo juicio “EIPD” implica la descripción general de las operaciones digitales a realizar, una evaluación de los riesgos que el proceso algorítmico puede significar para los derechos y libertades de los interesados; y las medidas contempladas para hacer frente a esos riesgos y amenazas.

La discriminación científicamente concebida

La noción de trabajo decente implica no ser objeto de ningún tipo de discriminación. El problema que identificamos en la lógica artificial se vincula al hecho que es posible producir de modo oculto efectos discriminatorios en el momento de armar la programación del algoritmo. La acción arbitraria se lleva a cabo, introduciendo o eliminando datos en la composición del algoritmo (relativos al género, la raza, la edad, el origen nacional, etc.), que alteran la igualdad entre los trabajadores. Los datos que alimentan el algoritmo no son necesariamente visibles para la persona afectada y la discriminación puede producirse al comienzo, es decir durante el proceso de selección de los trabajadores; durante la ejecución del contrato de trabajo evaluando con criterios distintos a personas en igualdad de condiciones; o a la finalización del vínculo laboral, favoreciendo el egreso de unos y no de otros en función de determinadas características personales y no de su capacidad laboral.

            En tal sentido el GT29 ha expresado que “la elaboración de perfiles puede perpetuar los estereotipos existentes y la segregación social. Asimismo, puede encasillar a una persona en una categoría específica y limitarla a las preferencias que se le sugieren. Esto puede socavar su libertad a la hora de elegir, por ejemplo, ciertos productos o servicios como libros, música o noticias. En algunos casos, la elaboración de perfiles puede llevar a predicciones inexactas. En otros, puede llevar a la denegación de servicios y bienes, y a una discriminación injustificada”[1].

[1]GT29, Dictamen del 06/02/2018. El Grupo de Trabajo Art. 29 (conocido como GT29) fue un organismo europeo de la UE en materia de protección de datos e intimidad, creado en virtud del artículo 29 de la Directiva 95/46/CE. Funcionó hasta el 25/05/2018 y fue sustituido por el Comité Europeo de Protección de Datos (CEPD). La calidad técnica de sus informes determina que los mismos sigan siendo citados en Europa en los temas relativos a la protección de datos.

La invasión de la vida privada y familiar del trabajador

El uso de los datos personales para la construcción de los algoritmos permite ingresar a aspectos de la vida privada, que exceden el vínculo funcional y pueden poner en riesgo el derecho a la privacidad no solo del trabajador, sino también de su núcleo familiar. Por lo tanto debe existir una adecuada protección en materia de comunicación de datos de carácter personal de las personas que conviven con el trabajador, respeto a la diversidad cultural, religiosa y lingüística de ese ámbito tan especial. Debe asegurarse en tales casos el derecho a la intimidad no solo personal, sino también familiar, evitando cualquier intromisión ilegítima que reproduzca en datos la vida íntima de las personas en lugares o momentos de su vida privada[1].

[1] Entre las previsiones jurídicas que tutelan el derecho a la privacidad del núcleo familiar, señalamos el art. 8 de la Convención Europea de Derechos Humanos, que establece el derecho de toda persona al respeto de su vida privada y familiar, de su domicilio y de su correspondencia.

La presión sobre la productividad del trabajo

La organización algorítmica del trabajo puede llevar a presionar de forma “deshumana” a los trabajadores, para que aumenten su productividad. Ya no será un capataz o un supervisor, quien controle el volumen y la rapidez del trabajo de cada trabajador, sino un sistema tecnológico, que no tiene momentos de distracción o de pausa. Ello llevará inevitablemente a situaciones de stress y daños a la salud, cuyo estudio comienza a ocupar y preocupar a especialista en tema de salud psicosocial. 

            Según informó el sitio de noticias Bloomberg, Amazon usa sofisticados algoritmos para controlar la productividad en sus instalaciones, y los empleados deben justificar por qué han estado lejos de su puesto de trabajo, lo que la empresa llama “tiempo sin tareas” (time off task).  Si superan determinado límite de tolerancia, se les advierte e incluso puede llegarse al despido. Ello – agrega la nota – coincide con una serie de reportes que indican que la tasa de lesiones en Amazon es más alta, que en el resto de la industria logística. Algunos empleados han informado a Bloomberg que el rápido ritmo de trabajo es un factor que contribuye a las lesiones por estrés repetitivo, agregando que a veces se califica como “time off task”, el tiempo que van al baño[1].

            Por su parte, el periódico El País de Madrid daba cuenta que en el mes de agosto de 2021Xsolla, la filial rusa de una empresa de software y servicios interactivos con sede en Los Ángeles, ejecutó una reestructuración de su plantilla, que implicó el despido de 150 de los 450 empleados de sus oficinas de Perm y Moscú. Para ello se basó únicamente en el dictamen de un algoritmo de rendimiento laboral que canceló los contratos de aquellos trabajadores que consideraba “improductivos” y “poco comprometidos” con los objetivos de la empresa. El director general y fundador de la compañía, Alexander Agapitov, declaró a la revista “Forbes Rusia”, que no estaba del todo de acuerdo con el veredicto de la máquina, pero debía acatarlo en virtud de los protocolos internos consensuados con su Junta de accionistas[2].    

El control algorítimico

Mercader Uguina señala que los monitoreos tecnológicos del trabajador realizados a través de sistemas de videovigilancia, micrófonos y rastreo por geolocalización, se vuelven aún más precisos y sofisticados con los controles biométricos y la medición informática de los niveles de productividad de los trabajadores en tiempo real: “el uso de algoritmos puede suponer un salto adelante en muchos de estos sistemas”, sin olvidar que “el tratamiento del rostro con software de reconocimiento facial se encuentra dentro de los datos biométricos del trabajador”[1].

            La ropa “wearable” (“ropa ponible” en su significado literal, pero que acostumbramos a traducir como “ropa inteligente”) constituye un nuevo modelo de recopilación de datos del trabajador. Iglesias señala que en la noción de ropa inteligente y otros accesorios (wearables) ingresan elementos como calzados, lentes, cascos, chaquetas tecnológicas, relojes y pulseras inteligentes, cada vez más difundidos en los más diversos sectores de la actividad industrial y de servicio[2]. La autora alerta sobre el riesgo que las mismas significan en relación a la afectación de la privacidad del trabajador y entiende que su utilización debe estar guiada por específicos criterios como la estricta pertinencia para la función, una información clara y veraz sobre los fines perseguidos, que no impliquen un control sobre la vida personal y no se apliquen en forma clandestina sobre el trabajador[3].

            En relación con los wearabledevices (dispositivos inteligentes), el Dictamen 2/2017 del GT29, afirma que los empleadores están cada vez más tentados de proporcionar dispositivos portátiles a sus empleados con el fin de rastrear y registrar su salud y actividad dentro, y algunas veces incluso fuera, del lugar de trabajo”.

            Más recientemente la empresa tecnológica internacional Emotiv puso en venta el dispositivo Insight, similar a una elegantecinta para la cabeza, con sensores que permite monitorear la actividad cerebral del trabajador y almacenar esa información en la base de datos de la empresa.El dispositivo capta las ondas cerebrales e identifica si la persona está nerviosa, estresada, deprimida o entusiasmada, entre otras opciones. La empresa Emotivlo vende bajo la propuesta edulcorada: ”Aprovecha tu actividad cerebral para disfrutar las infinitas oportunidades de la BCI”[4]

En Chile, una Resolución de la Corte Suprema de 09/08/2023 prohibió el uso del dispositivo por entender que debe protegerse la privacidad de la información cerebral de la persona[5].

            Todos estos instrumentos contribuyen a crear en los trabajadores un “clima psicosociológico” de control e invasión de su privacidad, similar a ese modelo panóptico ideado por Benthan en el que los vigilados no están realmente bajo una vigilancia constante, sino que simplemente piensan o imaginan que lo están. En palabras de Foucault, la idea de Bentham consistía en una “tecnología política” que induce al sujeto a un “estado de conciencia y visibilidad permanente que aseguran el funcionamiento automático del poder”[6].

Tutelas jurídicas ante el avance de la IA

            Ante el avance vertiginoso de las nuevas tecnologías y los progresos de la automatización y la IA, el Derecho del trabajo reacciona con lentitud, por lo cual nuestro desafío es ir construyendo un nuevo derecho a partir de los principios, las soluciones que brinda la experiencia comparada y las normas nacionales vigentes sobre la protección y uso de los datos personales.

 

6.1. Los principios generales y laborales de derecho

            En la materia laboral la acción de la IA y los algoritmos no escapan al cuadro de normas generales y principios tutelares de la disciplina. El avance tecnológico permite conocer los aspectos más reservados de la conducta y vida del trabajador, monitorearlo en tiempo real a lo largo de su jornada laboral y – lo que más debe preocupar - ir almacenando información a lo largo de su vida laboral. No solo ha cambiado la morfología de la subordinación, sino que ésta se ha vuelto más intensa que en el pasado[1]. Las tecnologías invaden la vida del trabajador aún fuera de la empresa, lo acompañan muchas veces a su hogar (pensemos en el trabajo de retén o a disposición cada vez más difundido o la misma realidad del teletrabajo), mientras los ficheros electrónicos guardan datos sobre su imagen, su estructura psicológica, su conducta y salud.

            Debemos buscar un primer conjunto de tutelas, en aquellas reconocidas por los principios del Derecho del trabajo, las normas constitucionales, los grandes pactos internacionales ratificados por nuestros países y las Declaraciones universales. Serán aplicables a las diversas situaciones que pueden afectar al trabajador en el uso ilegítimo o desmedido de los algoritmos, principios y normas relativos a

            Comenzamos también a reflexionar sobre una nueva serie de principios laborales que deberán orientar a los interlocutores sociales, al legislador y al juez en la valoración de la intervención de la IA en las relaciones de trabajo.

            Entre estos principios, importa en nuestra opinión destacar cuatro: a) el principio de la transparencia; b) el de veracidad; y c) el principio de seguridad y reserva; d) el principio de la ética algorítmica.

            a) Principio de trasparencia

            El principio de la transparencia algorítmica se expresa en la posibilidad que la persona – en nuestro caso, el trabajador – cuyos datos sean utilizados para construir algoritmos y por lo tanto ser alcanzado por decisiones de la Inteligencia Artificial, pueda tomar conocimiento de forma clara y sencilla de como se elaboraron los mismos. Es un principio reconocido in primispor el Reglamento General de Protección de Datos del Parlamento Europeo” (RGPD[2]), que regula en su art. 12 la “Transparencia de la información, comunicación y modalidades de ejercicio de los derechos del interesado” y expresa que el responsable del tratamiento de los datos deberá tomar las medidas oportunas para facilitar al interesado toda información relativa al uso y tratamiento de sus datos personales. Esta información deberá ser comunicada “en forma concisa, transparente, inteligible y de fácil acceso, con un lenguaje claro y sencillo, en particular cualquier información dirigida específicamente a un niño. La información será facilitada por escrito o por otros medios, inclusive, si procede, por medios electrónicos”. Agrega la norma que cuando la solicite el interesado, la información podrá facilitarse verbalmente siempre que la persona demuestre por otros medios su identidad.

            Es un principio sobre el que comienzan a prestar atención las legislaciones nacionales, como es el caso del Real Decreto ley español N° 9/2021, que introduce en el Estatuto de los Trabajadores - para el caso de las personas dedicadas al reparto en el ámbito de plataformas digitales - el derecho de los Comités de Empresa a ser informados por la empresa de los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones que pueden incidir en las condiciones de trabajo, el acceso y mantenimiento del empleo, incluida la elaboración de perfiles.

            b) Principio de veracidad

            Este principio se expresa en la idea que los datos personales que se recogieren a los efectos de su tratamiento deberán ser “veraces, adecuados, ecuánimes y no excesivos en relación con la finalidad para la cual se hubieren obtenido”[3]. La recolección no deberá ser manipulada, ni podrá hacerse por medios desleales, fraudulentos, abusivos o extorsivos. En base a este principio, los algoritmos que alimentan la IA deberán ser elaborados con objetividad, sin marcar perfiles, que a su vez vulneren el principio de no discriminación.

            c) Principio de seguridad y reserva

            El principio establece la obligación del recolector de datos para el proceso de alimentación de la IA de adoptar todas las necesaria medidas para garantizar la seguridad y confidencialidad de los datos personales, evitando a su vez la adulteración de los datos o su tratamiento no autorizado. Ello implica además que el sistema algorítmico utilizado asegure condiciones técnicas de integridad y seguridad.

            A su vez el principio establece la obligación de reserva de las personas que utilicen la información proveniente de la base de datos: no solo los mismos deberán ser utilizados bajo secreto profesional, sino que solo podrán ser empleados para la finalidad con la cual fueron recolectado.

            Es evidente que además estamos ante una obligación que subsistirá aún después de finalizada la relación laboral[4].

            c) Principio de la ética algorítmica

El diseño de los algoritmos deberá respetar los principios de la ética, expresa Aaron Roth, profesor de Ciencias Computacionales de la Universidad de Pensilvania. El especialista recuerda que los algoritmos alimentan la IA, a los efectos de sustituir decisiones humanas e interviene en cuestiones complejas y delicadas tanto en un departamento de recursos humanos como para la concesión de un crédito bancario. En dicha función pueden  no respetar principios de la ética cuando el proceso se alimenta con sesgos discriminatorios o está finalizado a tomar decisiones que violan principios morales o éticos[5].

 

6.2. El derecho comparado

            En una segunda línea importa conocer la evolución del derecho comparado, que adquiere especial importancia en consideración a la rápida evolución de la realidad y que ingresa a nuestro derecho como doctrina más recibida o por disposición legal como es el caso en Brasil de la previsión del art. 8 de la Ley de Consolidación de las Leyes del Trabajo[6]. Importa por lo tanto destacar algunos cuerpos normativos que consideramos de estudio indispensable para afrontar los nuevos temas y problemas de la IA y el trabajo.

            Señalamos como expresión fundada del derecho comparado internacional el “Reglamento General de Protección de Datos del Parlamento Europeo” (RGPD[7]), que entró en vigor el 24/05/2016, con aplicación a partir del 25/05/2018. El documento estableció ese “período ventana de dos años”, para que las empresas, las organizaciones, y las instituciones públicas de los países de la Unión, pudieran adaptarse a las nuevas reglas, para efectivizar su cumplimiento.

            El Reglamento estable los siguientes principios generales en su art. 5:

  • Los datos personales deben ser tratados de forma lícita, leal y transparente.
  • Los datos personales deben ser recogidos con fines determinados, explícitos y legítimos.
  • Los datos personales deben ser adecuados, pertinentes y limitados a lo necesario en relación con el tratamiento.
  • Los datos personales deben ser exactos y estar siempre actualizados.
  • Los datos personales deben mantenerse de forma tal, que se permita la identificación de los interesados durante no más tiempo del necesario para los fines del tratamiento.
  • Los datos personales deben ser tratados de tal manera que se garantice su seguridad.

            El Reglamento constituye una normativa a nivel de la Unión Europea, por lo que cualquier empresa de la unión, o aquellas empresas que tengan negocios en la Unión Europea y manejen información personal de cualquier tipo sobre sus trabajadores, deben acogerse a ella. Las normas indican que los responsables de la utilización de los datos deberán llevar adelante auditorías de protección de dichos datos y métodos para garantizar acciones correctivas con la finalidad de proteger los derechos del interesado. Las sanciones son graves y se prevén multas por el no cumplimiento del RGPD, que pueden llegar a los 20 millones de euros.

Importa también recordar la “Recomendación sobre la ética de la inteligencia artificial”, aprobado en noviembre de 2021 por 193 Estado miembros de la UNESCO. A lo largo de sus 141 artículos, la Recomendación “trata de las cuestiones éticas relacionadas con el ámbito de la inteligencia artificial… como una reflexión normativa sistemática, basada en un marco integral, global, multicultural y evolutivo de valores, principios y acciones interdependientes, que puede guiar a las sociedades a la hora de afrontar de manera responsable los efectos conocidos y desconocidos de las tecnologías de la IA en los seres humanos, las sociedades y el medio ambiente y los ecosistemas”[8]

      Más recientemente el“Reglamento Europeo de Inteligencia Artificial” (REIA), aprobado en diciembre de 2023  con vigencia el 1° de agosto de 2024, introduce un marco uniforme en todos los países de la UE, basado en un enfoque de “riesgo” de la IA:

  • Riesgo mínimo: ejemplo, filtros de correo no deseado y los videojuegos basados en la IA → no están sujetos a ninguna obligación del Reglamento, pero las empresas pueden adoptar voluntariamente códigos de conducta adicionales.
  • Riesgo específico de transparencia: los sistemas como los chatbots deben informar claramente a los usuarios de que están interactuando con una máquina.
  • Riesgo alto: ejemplo, los softwares médicos basados en IA o los sistemas de IA utilizados para la contratación → deben cumplir con datos de alta calidad, información clara para el usuario, supervisión humana, etc.
  • Riesgo inadmisible: por ejemplo, los sistemas de IA que permiten la «puntuación ciudadana» por parte de gobiernos o empresas → se consideran una clara amenaza para los derechos fundamentales de las personas y, por tanto, están prohibidos.

 

6.3. Las normas sobre protección de datos

            Finalmente, una tercera herramienta para la tutela del trabajador ante situaciones provocadas por la digitalización de las relaciones laborales, derivará de la regulación de cada país sobre protección de datos personales, que adquiere nueva actualidad ante los desafíos del impacto tecnológico en el trabajo[9].

La Ley uruguaya N° 18.331 – que es la que hemos estudiado – en sus arts. 5 al 12 reconocen una serie de principios, muchos de los cuales se alinean con el Reglamento Europeo:a) legalidad, b) finalidad, c) consentimiento informado, d) veracidad; e) seguridad de los datos, f) reserva y g) responsabilidad. Sus contenidos están explicitados en la propia norma, permitiendo encontrar soluciones a problemas y conflictos que puedan plantearse en la realidad laboral en los puntos de confluencia de los derechos del trabajador, las potestades del empleador y el uso de los datos por parte de la inteligencia artificial.

            Además, sobre la base de estos principios, la AGESIC– Agencia de Gobierno Electrónico y Sociedad de la Información -, organismo que depende de la Presidencia de la República de Uruguay y que funciona con autonomía técnica, ha elaborado nuevos criterios y principios referidos específicamente a la IA y al uso de los algoritmos[10].

Importa también recordar por su conexión con el tema que estamos examinando, el reciente acuerdo alcanzado el 13 de diciembre de 2023 en la Unión Europea para aprobar una Directiva que regule las condiciones laborales del modelo de trabajo via aplicaciones, caracterizado en especial por los choferes de Uber y los repartidores. La misma establece una presunción de laboralidad o subordinación, cuando el vínculo contractual responda a una regla bien curiosa: existirá una presunción de subordinación si  los trabajadores cumplen con dos criterios de los cinco previstos por sus reglas.

Los criterios previstos son: a) la determinación por parte de la plataforma del nivel de dinero que recibe el trabajador, b) la supervisión de su rendimiento, c) el control sobre la distribución o asignación de tareas, d) el control también sobre las condiciones de trabajo y horario y e) las restricciones acerca del vestuario o la conducta. Esta lista puede ser ampliada por los Estados en su legislación nacional.

            De todos modos, según los expertos, la Directiva solo alcanzará a una limitada parte de las personas que prestan servicios a través de aplicaciones. En efectos, en la UE se calcula que el número de trabajadores de aplicaciones es de 30 millones de personas que trabajan para aproximadamente 500 plataformas, estimándose que los trabajadores que se beneficiarán con la Directiva serán solo 5,5 millones.

            Ahora el proyecto pasará al Consejo y al Parlamento europeos, que deberán formalmente transformarlo en una Directiva. Luego los países miembros de la UR tendrán dos años para traspasar las normas al derecho nacional.

 

Diálogo social y negociación colectiva

Finalmente, la cuestión de los derechos del trabajador ante el algoritmo abrirá un importante espacio para la negociación colectiva, que sigue siendo una importante asignatura pendiente de las organizaciones sindicales en nuestro sistema de relaciones laborales. Como expresión de este incipiente espacio negocial, destacamos el convenio colectivo del sector financiero firmado en España el 20 de julio de 2021 entre las organizaciones de empleadores del sector y Comisiones Obreras y UGT del lado de los trabajadores. El mismo fue registrado el 5 de octubre de 2021 y en su art. 35, bajo el nomenjuris de “Derechos digitales”, reconoce y desarrolla en extensas cláusulas, los siguientes derechos:

            1. Derecho a la desconexión digital y laboral.

            2. Derecho a la intimidad y al uso de dispositivos digitales en el ámbito laboral.

            3. Derecho a la intimidad frente al uso de dispositivos de videovigilancia, grabación de sonidos y geolocalización en el ámbito laboral.

            4. Derecho a la educación digital.

            5. Derechos ante la inteligencia artificial.

            Entre los derechos ante la IA, se reconoce el derecho de los trabajadores a no ser objeto de decisiones basadas únicas y exclusivamente en variables automatizadas y el derecho a la no discriminación en relación con las decisiones y procesos, cuando ambos estén basados únicamente en algoritmos[1].

            Entendemos que el extenso art. 35 del convenio español (de los primeros que abordan con precisión el tema del impacto de las tecnologías digitales en el contrato de trabajo) podrá ser una cantera importante de ideas y normas para la negociación de similares cláusulas en convenios colectivos nacionales e internacionales.

           

8. Reflexiones finales

            Ante el avance de la IA y su impacto en las relaciones laborales, la pregunta que nos formulamos es sobre la posibilidad de detener o enlentecer ese avance. Nuestra contestación es clara: ello es imposible. Lo posible es crear diques, defensas, garantías del derecho heterónomo y autónomo.

            Entre los aspectos que merecen mayor consideración, indicamos los siguientes:

            a) La necesidad de promover el diálogo social entorno al impacto de la IA.

            Ante los temores que genera la presencia de la IA en el mundo del trabajo es necesarios que las organizaciones de empleadores y trabajadores, con el apoyo del Estado, comiencen a dialogar sobre la tutela los derechos de la persona en esta materia. Lamentablemente, las organizaciones sindicales latinoamericana no parecen tomar conciencia de la gravedad de un futuro gobernado en los algoritmos, y prefieren refugiarse en los temas tradicionales de las relaciones laborales (el salario, la jornada, los descansos, etc.), donde perciben su accionar “más cómodo”:

            Entendemos que las organizaciones – y en especial los sindicados – deberán comprender que el diálogo social y la negociación colectiva desempañarán un rol central en la construcción de los vínculos entre los humanos y la IA. Los acuerdosdeberán incluirgarantías en materia de sesgos y perfiles laborales; establecer límites a los controles tecnológicos, impulsar el derecho a la educación digital.    

La ausencia de interés y diálogo en estos temas significará la futura expulsión de millones de trabajadores del sistema de relaciones laborales, precisamente por un obrar incontrolado de la IA.

b) Acciones que eviten la discriminación de género.

Hemos expresado que la IA puede actuar en forma arbitraria ydiscriminatoria,  introduciendo o eliminando datos en la composición del algoritmo, que alteren la igualdad entre los trabajadores. Ello importa especialmente en la cuestión siempre actual de la discriminación de género, porque es posible ocultar en la fórmula algorítmica criterios que impliquen diferenciaciones en función del género, como la edad de maternidad, la diferenciación de salarios, la elaboración de perfiles que privilegien aspectos específicos de la condición de mujer y posterguen otros, etc.

c) La acción de los Estado para una gobernanza ética

De conformidad con la citada Recomendación de la Unesco. El Estado debe desarrollar políticas públicas con el objetivo de que los derechos humanos, las libertades fundamentales y el estado de derecho sean asegurados y respetados en el mundo digital, así como en el mundo físico. A ello se suma el deber de investigar y reparar los daños causados mediante sistemas de IA, así como establecer un mecanismo de certificación “ética” para los sistemas de IA con especial referencia al impacto previsto en los derechos humanos, el medio ambiente y los ecosistemas. La idea de “un certificado de calidad ética en el uso de la IA” nos recuerda una idea sencilla recogida en el

Ley europea de Servicios Digitales (Digital ServicesAct)aprobada por el Parlamento Europeo en enero de 2022: lo ilegal en el mundo físico, también será ilegal en el mundo digital.

d) La protección de los datos y el derecho a la transparencia algorítmica

El trabajador – cuyos datos sean utilizados para construir algoritmos que alimenten decisiones de la Inteligencia Artificial – debe tener conocimiento sobre su elaboración. Ello implica reconocer explícitamente el derecho a la transparencia, como uno de los principios que regulan la instrumentación y aplicación de la IA.Las soluciones de la IA deben ser transparentes, es decir accesible a todo usuario, para que éstos puedan conocer los algoritmos y datos utilizados.

            Un comentario final: La pregunta que muchos se formulan es si es posible detener el avance de la IA. Somos categóricos en la contestación: es imposible, porque es ilusorio detener el progreso. Lo posible es crear diques, defensas, garantías del derecho heterónomo y autónomo. Recordamos una afirmación realizada en el año 1996 por el filósofo marxista Cornelius Castoriadis en Buenos Aires, al final de una conferencia en la que analizó las transformaciones del trabajo en un mundo que ya ingresaba en un nuevo contexto tecnológico y en una economía global. A la afirmación de un estudiante –“Usted es demasiado pesimista”– el pensador griego-francés contestó: “No soy ni optimista, ni pesimista, soy realista”.

            Lo que sí debemos hacer es tomar conciencia de la nueva realidad, mirar hacia adelante, formar a los trabajadores en las competencias tecnológica y enfrentar a la IA con nuestra “humanidad”. Ello es también nuestro desafío como operadores de las relaciones laborales.

Recientemente, un experto argentino en IA y Ciencia de datos – Fredi Vivas - se preguntaba: “Si las máquinas resuelven cosas como lo hace el humano, ¿Cuál va a ser el diferencial del humano por sobre la máquina?”. Él mismo contestaba: “Su condición humana; debemos aprender a ser más humano[2].

            Ese es en definitiva el desafío: ante la IA aprender a ser humanos, lo más humanos posibles.

 

Referencias bibliográficas

[1]CappelliP., “El nuevo pacto en el trabajo”, Barcelona, 2001

[2] Jewell C., Inteligencia artificial: la nueva electricidad, División de Publicaciones de OMPI, junio de 2019 recuperado el 22/10/2023 dehttps://www.wipo.int/wipo_magazine/es/2019/03/article_0001.html ,.

[1] Mercader Uguina J. R., “Algoritmos y derecho del trabajo" en rev.Actualidad Jurídica Uría Menéndez, Madrid 2019, p. 64

[2]La AGESIC es la “Agencia de Gobierno Electrónico y Sociedad de la Información”, organismo que depende de la Presidencia de la República (Uruguay) que funciona con autonomía técnica. Entre sus cometidos vinculados con la innovación tecnológica y las políticas digitales del país, está el estudio del tema de la IA y sus efectos en el ámbito jurídico. Sobre la IA, ver: https://www.gub.uy/agencia-gobierno-electronico-sociedad-informacion-conocimiento/tematica/inteligencia-artificial , recuperado el 28.09.2023.

[3] Corvalán J.G, “El impacto de la Inteligencia Artificial en el trabajo”, en Revista de DireitoEconômico e Socioambiental,  V. 10, N° 1, 2019, Curitiba, p. 37.

[4]idem

[5]Granieri M., ¿Qué es la Inteligencia Artificial Generativa?, OBSBusiness School, Buenos Aires 2023, en https://www.obsbusiness.school/blog/que-es-la-inteligencia-artificial-generativa , recuperado el 21/12/2023.

[1] Albert Cañigueral, es un referente español sobre el trabajo de plataformas, autor del libro “El trabajo ya no es lo que era”: citado por Gomez M. V., “Los algoritmos llegan a la negociación colectiva”, diario El País, Madrid, 25.04.2021.

[2]Todolí A., “Algoritmos para contrataciones y despidos. ¿Son legales las decisiones automatizadas sobre trabajadores?”, de https://adriantodoli.com/2019/02/21/algoritmos-para-contrataciones-y-despidos-son-legales-las-decisiones-automatizadas-sobre-trabajadores/,recuperado el 13/09/2022.

[1] Pasquale F.A., “The Black Box Society: The Secret Algorithms that control money and information, Cambridge”, Harvard University Press, 2015, p. 35, citadopor Mercader Uguina J. R., ob. cit., p. 64

[2] Panizza C., “Impacto de las nuevas tecnologías en la salud”, exposición en el marco del taller Impacto de las nuevas tecnologías en los derechos laborales fundamentales, organizado por la Asociación Uruguaya de Derecho del Trabajo y la Seguridad Social, Montevideo 24.06.2021.

[3]Gauthier G., “Economía compartida, crowdworking y Derecho del trabajo”, en AA.VV., “Disrupción, Economía Compartida y Derecho”, FCU, Montevideo, junio de 2016, p. 113.

[4] Supervielle M., exposición sobre “Las nociones de cultura de trabajo en Uruguay" en el Instituto Uruguayo de Derecho del Trabajo,  Montevideo 20 de octubre de 2017.

[5]Mercader UguinaJ.R., ob. cit., p.  68, quien cita Estudio prospectivo sobre riesgos nuevos yemergentes para la seguridad y salud en el trabajo asociados a la digitalización en 2025 (Oficina de Publicaciones de la Unión Europea, Agencia Europea para la Seguridad y la Salud en el Trabajo, 2018)

[1]Molina Navarrete C., citado sin otros datos específicos por Rojo Torrecilla E., en su blog del 28/08/2021, http://www.eduardorojotorrecilla.es/2021/08/tecnologia-y-relaciones-laborales_28.html, recuperado el 27/12/2023.

        [1] Day M., Amazon Changes Performance Metric Blamed for Warehouse Injuries, 01/06/2021, recuperadoel 18/10/2021 de: https://www.bloomberg.com/news/articles/2021-06-01/amazon-changes-worker-tool-supports-u-s-marijuana-law?srnd=technology-vp,

[2]Echarri M., 150 despidos en un segundo: así funcionan los algoritmos que deciden a quién echar del trabajo. emn El País, Madrid,  09/10/2021, recuperado el 25/10/2021.de:https://elpais.com/icon/2021-10-10/150-despidos-en-un-segundo-asi-funcionan-los-algoritmos-que-deciden-a-quien-echar-del-trabajo.html,

[1] Mercader Uguina J. R., ob. cit.. pp. 67 y 68.

[2]Iglesias L., “Impacto de las nuevas tecnologías en los derechos humanos fundamentales”, exposición en el marco del taller Impacto de las nuevas tecnologías en los derechos laborales fundamentales, organizado por la Asociación Uruguaya de Derecho del Trabajo y la Seguridad Social, Montevideo 24.06.2021

[3]idem

[4] Ver  https://www.emotiv.com/insight/, recuperado el 19/01/2024. La expresión BCI significa Brain-ComputerInterface, es decir la “interface cerebro-computadora”.

[5] Iglesias Cáceres J.A., “Neuroderechos: Suimplicanciaenelderecho laboral”, exposición en el IV Congreso Internacional de Relaciones Laborales, organizado por ALRLU, Montevideo 13 y 14 de octubre de 2023.

[6]Mercader Uguina J. R., p. 68; el autor cita a M. Foucault, Vigilar y castigar: nacimiento de la prisión, Madrid: Siglo XXI, 1998.

[1] Pérez de los Cobos Orihuel, F., “La subordinación jurídica frente a la innovación tecnológica”en AA.VV. La Subordinación o dependencia en el contrato de trabajo en el proceso de transformación de la empresa, Editorial Lexis Nexis, Santiago de Chile, julio 2005, p. 170.

[2] en inglésGDPR (General Data ProtectionRegulation)

[3]Cfr. Uruguay, Ley N° 18.331 de  11.8.2008, art.5, lit. b. y art. 7

[4] Cfr. Uruguay, Ley N° 18.331 de  11.8.2008, art.5, lits. e y f. y arts. 9 y 10

[5] Hernando A, Los algoritmos pueden diseñarse para respetar principios éticos, pero esto no es gratis, Madríd 28/01/2020, en https://www.agenciasinc.es/Entrevistas/Los-algoritmos-pueden-disenarse-para-respetar-principios-eticos-pero-esto-no-es-gratis , recuperado el 31/03/2023.

[6] Art. 8º - As autoridades administrativas e a Justiça do Trabalho, na falta de disposiçõeslegaisoucontratuais, decidirão, conforme o caso, pela jurisprudência, por analogia, por eqüidade e outrosprincípios e normas gerais de direito, principalmente do direito do trabalho, e, ainda, de acordocom os usos e costumes, o direito comparado, mas sempre de maneira que nenhum interesse de classeou particular prevaleça sobre o interesse público.

[7] en inglésGDPR (General Data ProtectionRegulation)

[8] Texto en https://unesdoc.unesco.org/ark:/48223/pf0000381137_spa , recuperado el 165/01/2024.

[9]Brasil: Lei Geral de Proteção de Dados  N° 13.709/18; Uruguay: Ley N°18.331 de 11.8.2008

[10]infran° 11

[1] BOE (Boletín Oficial del Estado), Madrid 15/10/2021, Sec. III, pags. 126134 - 126158

[2] Vivas Fredi, “El humano debe ser más humano, no las máquinas”, en El País, Montevideo 06/10/23, p. 12.

inefop Esta publicación se ha realizado con el apoyo de  INEFOP, literal Ñ del art. 2 de la  Ley 18.406.

                         Las opiniones expresadas corresponden exclusivamente a los autores