Dentro de unos siglos los cronistas podrán consignar que la primera huelga causada por ChatGPT ocurrió en 2025 en el puerto de Montevideo, en plena capital de la plácida República Oriental de Uruguay, cuando la empresa Katoen Natie, que concentra la mayoría de la operativa, puso en marcha un nuevo software, el sindicato hizo una búsqueda y concluyó que se perderían el 20% de los puestos de trabajo.
El conflicto empezó cuando a inicios de octubre Katoen Natie implementó un nuevo software llamado Navis N4. El Sindicato Unico Portuario y Ramas Afines (Supra) se declaró en asamblea general el 2 de octubre, asegurando que el nuevo software aumentaría la productividad entre un 20% y un 30% con la consiguiente pérdida de trabajos. El secretario general del gremio, Alvaro Reinaldo, confirmó que las cifras habían salido de ChatGPT y que, como consecuencia de las mismas, exigían la reducción de la jornada laboral de ocho a seis horas sin pérdida de salario.
La huelga duró casi un mes, paralizando gran parte de la operativa del puerto. Según la Unión de exportadores de Uruguay causó pérdidas por valor de 60 millones de dólares.
Durante las negociaciones circularon burlas hacia el Supra por haber usado la inteligencia artificial como herramienta reivindicativa. ¿Son unos burros los sindicalistas del puerto de Montevideo?: en realidad, son tan burros como este primer cuarto del siglo XXI, años de furor por la inteligencia artificial para bien y para mal. Actualmente, las grandes empresas toman decisiones en función de la IA, ingenieros informáticos hacen programas con IA y luego verifican su seguridad con IA, los alumnos de escuelas y universidades hacen trabajos con ChatGPT sin estudiar, se invierte masivamente en instalaciones sin medir el impacto medioambiental. Tengo una amiga que no se puede pagar el sicólogo y le pregunta regularmente a ChatGPT qué tiene que hacer con su vida.
Las empresas buscan maximizar su productividad gracias a la tecnología, nada nuevo bajo el sol. Esta semana el Wall Street Journal resumía la serie de despidos de trabajadores de cuello blanco debido, entre otros, a la IA: 14.000 en Amazon, otros 14.000 en UPS, 1.800 en las tiendas Target. Solo este mes de octubre los empleados de empresas estadounidenses como Rivian Automotive, Molson Coors o General Motors recibieron el anuncio de que también habría recortes en sus respectivas empresas.
Octubre transcurrió de otro modo en el puerto de Montevideo y este lunes 27 de octubre se logró un acuerdo que incluyó algunas mejorar salariales, la promesa de no provocar despidos a causa de la implementación del nuevo programa y una comisión de seguimiento de los acuerdos.
Preguntamos a ChatGPT qué le parecía haber sido el causante de una huelga en el puerto de Montevideo y la respuesta fue la siguiente:
“En el caso que menciona ChatGPT pudo haber ofrecido una estimación genérica o hipotética, pero no una garantía empírica adaptada al contexto específico del puerto de Montevideo”.
Añadiendo: “Me parece razonable que los trabajadores del puerto estén preocupados por el impacto de un nuevo software (Navis N4) que promete mayor productividad: la automatización puede cambiar bastante los esquemas laborales. Sin embargo, me parece imprudente que la estimación del 20-30 % de incremento se utilice como cifra central para una medida tan intensa como un paro, sin que haya evidencia pública verificable de ese porcentaje para su contexto específico.En ese sentido, sería más sano que el sindicato y la empresa trabajaran juntos en medir empíricamente la productividad actual, estimar los efectos reales del software, y negociar mitigaciones/ajustes.
Hicimos otra pregunta: se estima que durante la huelga basada en una respuesta de ChatGPT se perdieron unos 60 millones de dólares a causa de la parálisis del puerto: ¿Open AI se hace cargo de esos daños materiales?
La respuesta fue: “En los “Terms of Use” de OpenAI se estipula que los usuarios aceptan que la empresa no garantiza resultados específicos del uso de sus servicios. Por ejemplo, no garantiza que sus respuestas sean precisas, suficientes o adecuadas para decisiones críticas (…) Esto no impide que en un país determinado una parte afectada intente demandar, alegando negligencia, responsabilidad del proveedor de IA o algún otro fundamento legal. Pero los términos de OpenAI están diseñados para que, al usar el servicio, el usuario acepte no exigir indemnización en casos como esos.
Concluyendo en: “Si lo desea, puedo revisar la legislación uruguaya sobre responsabilidad por daños causados por herramientas de inteligencia artificial para ver si hay posibilidad de otro tipo de reclamación. ¿Le parece bien que lo haga?”



