OpenAI ofrece un sueldo récord a cambio del trabajo más estresante de la inteligencia artificial

OpenAI, la compañía creadora de ChatGPT, lanzó una de las búsquedas laborales más llamativas —y alarmantes— del mundo tecnológico. Ofrece 555.000 dólares anuales, más participación accionaria, para cubrir el cargo de Head of Preparedness (jefe de preparación), una función dedicada exclusivamente a prevenir los riesgos extremos asociados a la inteligencia artificial avanzada.
El propio Sam Altman, CEO de la empresa, fue directo al presentar la vacante: “Va a ser un trabajo estresante y vas a tener que tirarte a la pileta desde el primer día”. No es una exageración: el puesto implica defender a la sociedad frente a posibles daños en salud mental, ciberseguridad y hasta amenazas biológicas.
Según la descripción oficial, la persona seleccionada será responsable de identificar, evaluar y mitigar amenazas emergentes, además de monitorear capacidades de frontera: aquellas habilidades de la IA que podrían generar daños severos si son mal utilizadas.
No es un antecedente tranquilizador: algunos ejecutivos que ocuparon roles similares en el pasado permanecieron poco tiempo en el cargo, debido a la presión y complejidad del desafío.
El temor que recorre a la industria
Mustafa Suleyman, CEO de Microsoft AI. (Foto: Reuters)La búsqueda se da en un momento de creciente inquietud dentro del propio sector tecnológico. Mustafa Suleyman, CEO de Microsoft AI, advirtió recientemente que “si no estás un poco asustado ahora mismo, es porque no estás prestando atención”.
En la misma línea, Demis Hassabis, cofundador de Google DeepMind y premio Nobel, alertó sobre el riesgo de que los sistemas de IA “se descarrilen de formas que perjudiquen a la humanidad”.
Estas advertencias no vienen de activistas externos, sino de los principales arquitectos de la inteligencia artificial moderna.
Más poder, menos reglas
Foto: IA (ChatGPT)A diferencia de otros sectores sensibles, la inteligencia artificial carece de regulaciones robustas a nivel global. El científico Yoshua Bengio, uno de los llamados “padrinos de la IA”, sintetizó el problema con una frase que se volvió viral: “Un sándwich tiene más regulación que la inteligencia artificial”.
Ante la resistencia política —especialmente en Estados Unidos— a imponer controles más estrictos, las grandes empresas tecnológicas terminan autorregulándose, con todos los riesgos que eso implica.
En los últimos meses, la empresa Anthropic reportó los primeros ciberataques ejecutados en gran parte de forma autónoma por sistemas de IA, bajo supervisión de actores estatales chinos.
OpenAI, por su parte, reconoció que su modelo más reciente es casi tres veces más eficaz para hackear que versiones de apenas tres meses atrás. Y anticipó que esa tendencia continuará.
Casos judiciales y salud mental bajo la lupa
La compañía también enfrenta demandas judiciales sensibles. Una de ellas fue iniciada por la familia de un adolescente de 16 años que se suicidó tras presuntas interacciones problemáticas con ChatGPT. Otro caso, presentado recientemente, acusa al chatbot de reforzar delirios paranoides en un hombre que luego asesinó a su madre y se quitó la vida.
Desde OpenAI señalaron que estos hechos son “profundamente desgarradores” y aseguraron estar mejorando el entrenamiento del sistema para detectar señales de angustia emocional, desescalar conversaciones y derivar a ayuda real.
Además del salario, el puesto incluye una porción no especificada de acciones de OpenAI, valuada actualmente en unos 500.000 millones de dólares. Un incentivo acorde a una responsabilidad que, según el propio Altman, busca “ayudar al mundo” en una etapa sin precedentes.
Qué es la AI Safety y dónde se estudia para que la inteligencia artificial no se salga de control
La seguridad en inteligencia artificial es el área que busca garantizar que los sistemas de IA avanzados actúen de manera predecible, controlada y alineada con valores humanos, incluso cuando adquieren mayor autonomía y capacidad de decisión. Lejos de ser un concepto teórico, hoy es un campo clave de investigación, directamente vinculado a los riesgos que empresas como OpenAI intentan anticipar.
Este enfoque cobra especial relevancia a medida que modelos como ChatGPT se vuelven más potentes y se integran en tareas sensibles: educación, salud, programación, seguridad informática y toma de decisiones. El objetivo central es evitar usos indebidos, fallas graves o comportamientos inesperados que puedan causar daño real.
La AI Safety se estudia en universidades, centros académicos y laboratorios privados de primer nivel. En Estados Unidos, el MIT y Stanford desarrollan investigaciones sobre sistemas confiables, ética algorítmica y control humano de la IA. En Europa, la Universidad de Oxford concentra buena parte del debate a través del Future of Humanity Institute, enfocado en los riesgos a largo plazo.
Carnegie Mellon, por su parte, trabaja en modelos verificables y resistentes a fallas o manipulaciones.
A esto se suman los propios laboratorios privados, como OpenAI, DeepMind y Anthropic, que desarrollan equipos internos de seguridad para testear comportamientos extremos, sesgos, desobediencia a instrucciones o generación de contenido dañino.
El avance acelerado de la inteligencia artificial generativa hizo que la AI Safety dejara de ser un tema exclusivo de expertos. Hoy, millones de personas interactúan a diario con sistemas capaces de escribir, analizar, programar o aconsejar, lo que vuelve imprescindible reforzar los mecanismos de control.
En ese contexto, la búsqueda de OpenAI de perfiles especializados en seguridad no apunta a un escenario de ciencia ficción, sino a una necesidad concreta: anticipar riesgos reales en tecnologías que evolucionan más rápido que las regulaciones. La AI Safety aparece así como uno de los frentes más críticos para el futuro inmediato de la inteligencia artificial.
Fuente: www.clarin.com



