Con las salidas de Ilya Sutskever y Jan Leike, el equipo de "superalineación" deja de existir
En el verano de 2023, OpenAI creó el equipo Superalignment para gestionar y controlar futuros sistemas de IA tan poderosos que podrían amenazar la existencia de la humanidad. Menos de un año después, ese equipo dejó de existir.
El equipo de OpenAI responsable de los peligros existenciales de la inteligencia artificial ya no existe, después de que su cofundador y científico jefe, Ilya Sutskever, y su codirector del equipo de "superalineación" de la empresa, Jan Leike, dimitieran el martes.
OpenAI ha comunicado a Wired que ha disuelto el equipo y ha añadido que su trabajo será absorbido por otras actividades de investigación de la empresa. La empresa anunció el equipo de superalineación el pasado mes de julio, con Sutskever y Leike al frente.
"La superinteligencia será la tecnología más impactante que la humanidad haya inventado jamás, y podría ayudarnos a resolver muchos de los problemas más importantes del mundo", dijo OpenAI en su momento. "Pero el vasto poder de la superinteligencia también podría ser muy peligroso, y podría llevar al desempoderamiento de la humanidad o incluso a la extinción humana".
El equipo recibió el encargo de trabajar en este problema, y OpenAI dijo que iba a dedicar el 20% de su computación a este esfuerzo durante los próximos cuatro años.
Sutskever, que desempeñó un papel en la destitución momentánea del director ejecutivo de OpenAI, Sam Altman, en noviembre, escribió en X el martes que había tomado la decisión de irse después de casi una década en la empresa. "Estoy entusiasmado con lo que viene, un proyecto que tiene un significado muy personal para mí y sobre el que compartiré detalles a su debido tiempo", escribió.
El viernes, Leike compartió un hilo en X sobre su decisión de abandonar la empresa, que calificó como "una de las cosas más difíciles que he hecho nunca, porque necesitamos urgentemente averiguar cómo dirigir y controlar sistemas de IA mucho más inteligentes que nosotros."
Leike escribió que se unió a OpenAI porque pensó que "sería el mejor lugar del mundo para hacer esta investigación", pero que "ha estado en desacuerdo con el liderazgo de OpenAI sobre las prioridades centrales de la compañía durante bastante tiempo, hasta que finalmente llegamos a un punto de ruptura". Continuó el hilo, escribiendo que OpenAI debería dar prioridad a la seguridad mientras persigue la inteligencia artificial general, o AGI.
En una respuesta al hilo de Leike, Altman escribió en X que está "súper agradecido" por las "contribuciones de Leike a la investigación de la alineación y la cultura de seguridad de openai, y muy triste de verlo partir. tiene razón tenemos mucho más que hacer; estamos comprometidos a hacerlo. tendré un post más largo en los próximos días".
Sutskever y Leike se unen a una lista de otros empleados de OpenAI que han abandonado la empresa recientemente, incluidos otros del equipo de superalineación e investigadores que trabajan en políticas y gobernanza de la IA. Los anuncios se producen un día después de que OpenAI revelara su chatbot de IA multimodal más reciente, ChatGPT-4o.
COMENTARIOS