Los desafíos de la IA generativa: despidos, alucinaciones y la inversión de OpenAI en Argentina

La inteligencia artificial generativa (GenAI) llegó al público masivo en 2022, de la mano de OpenAI. Tres años después, el mundo tecnológico cambió a una velocidad pocas veces vista: los chatbots conversacionales empezaron a competir con los buscadores como Google, los trabajos de oficina empezaron a resolver tareas pesadas en segundos y hasta hubo un sorpresivo anuncio de inversión en data centers en Argentina de la joya de la corona de Silicon Valley.
Estos cambios no vinieron sin dificultades. Como toda revolución, tuvo su costo: desde la reducción de puestos de trabajo hasta la imposibilidad de distinguir, en muchos casos, una imagen, video o audio real de otro generado con IA, al punto que, según NewsGuard, de un año a otro se duplicó la cantidad de desinformación que circula en redes sociales, plataformas que reemplazaron en muchos casos a los medios de comunicación.
Bajo este panorama, los tres frentes dejan ver un 2026 con grandes desafíos: Clarín contactó a especialistas para trazar algunas líneas de un panorama que será complejo y que, incluso, muchos advierten que será el año en el que se pinchará la burbuja de la IA.
No es magia: la IA es un “predictivo con anabólicos”
Werner Vogels, CTO de Amazon, visitó Argentina en septiembre por Nerdearla. Foto: Francisco LoureiroEn gran parte, las inseguridades que genera la IA tienen que ver con no terminar de entender qué tipo de monstruo tenemos delante. Lejos quedaron esas fantasías de Hollywood del replicante de Blade Runner o el T2 de Terminator. ChatGPT, Midjourney, Sora y otras plataformas de texto, imagen y video funcionan como un gran “predictivo con anabólicos”: sistemas que predicen la siguiente palabra, pixel o cuadro a partir de enormes volúmenes de información entrenada en los llamados grandes modelos de lenguaje (LLM).
De hecho, uno de los problemas más grandes que presentan estos modelos son las “alucinaciones” o, como se dice de manera coloquial, los “inventos”. Pero, en rigor, la IA sólo hace eso: inventar, incluso cuando dice cosas ciertas. “Lo único que hace la IA generativa es alucinar, porque no tiene cerebro. Junta palabras según probabilidad estadística”, decía Werner Vogels, Chief Technology Officer (CTO) de Amazon, a Clarín durante una visita a la Argentina en septiembre de este año. 2025 fue el año en el que se asentaron las implementaciones concretas de IA generativa.
“Los usos dependen de las habilidades digitales de cada uno y puede ir desde lo más básico, esto es, como reemplazo de Google (lo cual es problemático por el chequeo de fuentes), o para redactar un mail, hasta un uso más intensivo y una adopción más profunda de las herramientas”, dice Carolina Martínez Elebi, licenciada en Ciencias de la Comunicación y docente de la UBA y autora del sitio DHyTecno.
Ese vuelco a dejar de googlear y consultarle todo a ChatGPT, incluso hablándole con la función de audio, es lo que Mora Matassi, directora de la Licenciatura en Comunicación de la Universidad de San Andrés, plantea como un “giro conversacional”: ¿para qué buscar en Google si un chatbot devuelve una respuesta directa?
El mundo del trabajo: entre el ahorro, los despidos y el uso a escondidas
Martin Migoya, CEO de Globant. Foto: Juano TesoneUno de los cimbronazos más fuertes que ocasionó la GenAI fue en el mundo del trabajo. A pesar de que se la compara con la Revolución Industrial, proceso que entre 1760 y 1840 trajo una explosión de mercancías por la línea de montaje mecánica, la comparación es tramposa: los cambios que trajo la máquina de vapor de Stephenson impactaron de manera directa en el trabajo de las clases populares. En cambio, esta es la primera revolución que viene a cobrarse los puestos de trabajo de oficina.
“Los modelos de IA generativa siguen avanzando rápido en todas las modalidades, pero las interfaces no logran acompañar ese ritmo: hacen falta más innovaciones en la interacción que nuevos modelos gigantes”, plantea David Coronel, miembro del Laboratorio Abierto de Inteligencia Artificial (LAIA). El desafío ya no es tener modelos más grandes, sino mejores formas de usarlos. Las interfaces son las formas en que los usuarios se comunican y operan con los sistemas de inteligencia artificial, como ChatGPT o Gemini.
Estos usos, sobre todo en el mundo de la programación, ya impactaron en cifras: apenas durante los primeros meses del año se registraron más de 60.000 despidos en el sector tecnológico global, e incluso gigantes como Microsoft y Amazon recortaron entre 3% y 4% de su personal mientras hacían enormes apuestas por la IA.
Esto impactó en Argentina: “Según datos oficiales, la plantilla de personal promovido de Globant se redujo en 453 puestos de trabajo entre enero y julio de 2025. Incluso, esta reducción viola la Ley de Economía del Conocimiento, que exige mantener o ampliar la plantilla de personal. En esta situación irregular se encuentran al menos otras 128 compañías, entre ellas QServices y Snoop Consulting”, explica Esteban Sargiotto, director del Observatorio del Trabajo Informático (OTI). Otras empresas tech populares en Argentina, como Ualá, también redujeron personal.
Si bien no es tan simple trazar una línea directa entre la aplicación de inteligencia artificial y los despidos, el espíritu del ahorro de costos a partir de la reducción de fuerza de trabajo sobrevuela el mercado laboral en todo el mundo.
“En lo laboral lo que notamos es que hay dos caras: por un lado muchísima adopción silenciosa y por otro lado mucho miedo. Nos seguimos encontrando con programadores, ilustradores y otros profesionales que no les interesa o no se animan a probar o adoptar herramientas generativas. Así como tambien algunos están haciendo uso super intensivo pero en silencio, de forma individual y un poco ‘a escondidas'”, dice Coronel.
“Creo que todavía estamos en el territorio de las capacidades personales aumentadas. Un programador hoy puede aportar mucho más valor usando herramientas generativas que sin usarlo, ¿para qué echarlo? Tendrán sus razones, pero también nos preguntamos si no serán excusas para instalar narrativas para encubrir otros problemas o ineficiencias”, agrega.
De hecho, recuerda el especialista, hace pocos meses hubo oleadas de despidos que dieron marcha atrás. “Hablando de este tema con el equipo del laboratorio, mencionaron el dato de este estudio que dice que sólo el 3% de los trabajos son automatizables aun. Creo que hay un amplio consenso en LAIA en creer que cualquier trabajador intelectual hoy vale más, no menos que antes de los modelos generativos”, sentencia.
El desafío de las alucinaciones: el mundo judicial, el que más ruido hizo
ChatGPT pantalla de bots de chat vista en smartphone. Foto: ShutterstockPor otro lado, si algo hizo la IA fue plantear problemas éticos dentro del mundo del trabajo: aparecieron dilemas éticos y legales laborales sin precedentes, quizás con el caso más insólito del año, una condena de un juez anulada en Esquel (Chubut) porque copió y pegó una parte de la respuesta de ChatGPT, “Aquí tienes el punto IV reeditado, sin citas y listo para copiar y pegar”.
“Lo que sigue llamando la atención es la falta de reacciones públicas de los colegios de abogados: falta la definición clara de las consecuencias por el uso de esta herramienta en tareas donde la mayoría del ecosistema judicial reconoce que no debería usarse”, piensa María Pilar Llorens, investigadora asociada al Centro de Estudio en Tecnología y Sociedad (CETyS) y autora del informe América Latina ante la encrucijada de la IA generativa y su adopción responsable en el ámbito judicial [PDF].
“¿Cuándo es correcto utilizar estas herramientas? Porque pareciera que los casos de mal uso solo se dan cuando hay una alucinación o cuando el juez se olvida de borrar la referencia al uso de la IA generativa y no cuando se utiliza sin hacer un reconocimiento explícito de este hecho que permita una adecuada fiscalización o control”, complementa.
Esta pregunta es fundamental: más allá de los despidos en el sector, ¿está bien usar estas herramientas, alucinen o no? “Debe haber reconocimiento expreso de su uso, no es aceptable que los operadores judiciales la utilicen sin reconocerlo, ya que es esencial para proteger los derechos de las partes que recurren a la Justicia”, agrega.
Y, como si fuera poco, estos usos también plantean un potencial riesgo para la protección de los datos personales. Explica Carolina Aguerre, codirectora del CETyS: “Hay que tener en cuenta que en muchos de los servicios de estas aplicaciones se utilizan actualmente por empleados y funcionarios judiciales con sus cuentas individuales, muchas veces gratuitas en la medida que no hay ni políticas de compra institucional, ni prácticas sobre cómo usar estas plataformas”.
“Con esta falta de políticas claras, los datos se encuentran más vulnerables, dependiendo de los términos de cada plataforma, de las opciones de privacidad y cláusulas de no entrenamiento, tanto a nivel de privacidad como de propiedad intelectual”, agrega.
Los desafíos para 2026
Sam Altman, CEO de OpenAI. Foto: ReutersCoronel, de LAIA, cree que los principales desafíos pasan por cinco ejes: “Derechos de autor, salud mental, interfaces, privacidad y geopolítica”.
“El marco legal del copyright y el uso justo sigue sin definirse: pueden aparecer acuerdos, fallos judiciales que cambien todo o nuevos modelos que sacudan a las grandes plataformas. En salud mental, el vínculo emocional con los chatbots plantea riesgos y beneficios: pueden mejorar la calidad de vida o causar daños graves según su uso. Las interfaces atraviesan un fuerte estancamiento; la industria necesita nuevas formas de interacción y dispositivos más avanzados. Y en el plano geopolítico, China está marcando el ritmo con modelos distintos, lo que complejiza la relación con EE.UU.”, asegura, en relación a DeepSeek.
La infraestructura de la IA generativa tampoco es un tema menor. En octubre de este año, OpenAI anunció su intención de invertir en un data center en Argentina para procesar las consultas de sus 800 millones de usuarios activos en todo el mundo.
Y si bien hay entusiasmo en el Gobierno, especialistas que estudian temas de IA desde hace más de 25 años advierten sobre ciertas preocupaciones. “La mejor apuesta del país es generar conocimiento e innovación. Es posible que estemos en un momento de reorientación de la evolución de estas tecnologías en el que la ‘fuerza bruta’ del machine learning no sea el camino más promisorio, además de las grandes dificultades para que sea sustentable”, dice Javier Blanco, Doctor en Informática por la Universidad de Eindhoven, Países Bajos.
“Hasta ahora los anuncios de proyectos de inversión en infraestructura no sólo son algo inverosímiles sino también desconectados de la rica tradición científico-tecnológica del país y la región. Una apuesta real para sumarnos de forma virtuosa a los desarrollos tecnológicos de punta sería fortalecer las universidades y centros de investigación, en un momento donde hay demanda de nuevas ideas y oportunidades que podrían potenciar desarrollos locales”, agrega el también docente de la Facultad de Matemática, Astronomía, Física y Computación de la UNC (Córdoba).
Centro de datos del proyecto Stargate, de OpenAI, Oracle y SoftBank, en Texas, Estados Unidos. Foto: OpenAIPor último, muchos coinciden en que “la IA generativa es una tecnología demasiado importante para dejarla en manos de las grandes empresas tecnológicas. Llevan 20 años demostrando que sus objetivos y sus intereses son incompatibles con la democracia, los objetivos climáticos y el bienestar general”, piensa Marta Peirano, escritora española.
“Necesitamos modelos abiertos y transparentes, auditables y gobernados por consorcios internacionales de especialistas, no por una élite de multimillonarios obsesionados con su propia inmortalidad”, agrega.
“Cuando algo funciona, deja de llamarse ‘IA’ y pasa a ser simplemente tecnología”, dice Vogels de Amazon.
Pero ninguna de estas herramientas es neutral: su uso responsable no depende sólo de los usuarios, sino de quienes las diseñan, las regulan y marcan el rumbo de su desarrollo.
Fuente: www.clarin.com



