Crisis en OpenAI: "Construir máquinas más inteligentes que los humanos es peligroso y la seguridad ha pasado a un segundo plano"

Vuelve el ‘salseo’ a OpenAI. Y digo vuelve porque si hacemos un poco de memoria nos acordaremos del culebrón que vivió a principios de noviembre del año pasado la compañía liderada por Sam Altman —un drama iniciado precisamente por la salida de este como líder—.

Es posible que aquello tenga que ver con esto, ya que algunos actores son los mismos y también algunos motivos.

El escándalo principalmente gira en esta ocasión en torno a las palabras de un empleado clave de la compañía, que acaba de airear públicamente su salida de OpenAI porque no está de acuerdo con sus prioridades: “En los últimos años, la cultura y los procesos de seguridad han pasado a un segundo plano frente a los productos brillantes”, decía Jan Leike —hasta ahora responsable del equipo de ‘Superalignment’ de la empresa— en un post de X (Twitter).

A Leike le ha acompañado en esta abrupta salida Ilya Sutskever, cofundador y antes jefe científico de OpenAI, que tuvo un papel bastante relevante en el anterior caos que vivió la compañía cuando la Junta despidió a Altman.

“Después de casi una década, tomé la decisión de dejar OpenAI”, informaba Sutskever en X. “La trayectoria de la empresa ha sido nada menos que milagrosa, y estoy seguro de que OpenAI creará una AGI que sea segura y beneficiosa bajo el liderazgo de Sam Altman, Greg Brockman, Mira Murati y, ahora, bajo el excelente liderazgo de investigación de Jakub Pachocki. Fue un honor y un privilegio haber trabajado juntos y los extrañaré muchísimo a todos. Hasta luego y gracias por todo”.

El que fue jefe científico de OpenAI adelantaba algo sobre sus siguientes pasos: “Estoy emocionado por lo que viene a continuación: un proyecto que es muy significativo para mí personalmente y sobre el cual compartiré detalles a su debido tiempo”.

Altman respondía al post de su colega señalando que se trata de una noticia “muy triste” para él. “Ilya es fácilmente una de las mentes más brillantes de nuestra generación, una luz guía en nuestro campo y un querido amigo. OpenAI no sería lo que es sin él. […] Estoy feliz de haber podido estar cerca durante tanto tiempo de un genio tan genuinamente notable y de alguien tan concentrado en lograr el mejor futuro para la humanidad”, añadía.

En la misma publicación Altman confirmaba que Jakub Pachocki iba a ser el nuevo jefe científico de OpenAI, al que describe como “también fácilmente una de las mentes más brillantes de nuestra generación” y en quien confía para guiar a la compañía en “lograr un progreso rápido y seguro” hacia su misión de “garantizar que la AGI beneficie a todos”.

El miedo a que OpenAI se descontrole

Leike aseguraba en X que dejar este trabajo ha sido “una de las cosas más difíciles” que ha hecho en su vida, ya que lo considera una labor muy relevante: “Necesitamos urgentemente descubrir cómo dirigir y controlar sistemas de inteligencia artificial mucho más inteligentes que nosotros. Me uní porque pensé que OpenAI sería el mejor lugar del mundo para realizar esta investigación”, indicaba.

Sin embargo, Leike desvelaba que ha estado “en desacuerdo con el liderazgo de OpenAI sobre las prioridades centrales de la compañía durante bastante tiempo”, hasta que finalmente han llegado a un “punto de ruptura”.

Considera que se debería gastar mucho más del “ancho de banda” de la compañía en prepararse para las próximas generaciones de modelos o en seguridad. “Es bastante difícil solucionar estos problemas y me preocupa que no estemos en el camino correcto para llegar allí”, manifiesta.

“Durante los últimos meses mi equipo ha estado navegando contra el viento”, expresa el hasta ahora responsable del equipo de ‘Superalignment’ de OpenAI, el departamento de la empresa dedicado a buscar soluciones para dirigir o controlar una IA potencialmente superinteligente y evitar que se vuelva “deshonesta” y que ahora se ha disuelto.

Altman simplemente se ha limitado a dar la razón a su antiguo empleado: “Estoy muy agradecido por las contribuciones de Jan Leike a la investigación de alineación y la cultura de seguridad de OpenAI, y me entristece mucho verlo irse. Tiene razón, tenemos mucho más por hacer; estamos comprometidos a hacerlo”.

Leike recuerda en su post que “construir máquinas más inteligentes que los humanos es una tarea intrínsecamente peligrosa” y que “OpenAI asume una enorme responsabilidad en nombre de toda la humanidad”. Asimismo, urge a la compañía a convertirse en una empresa AGI —inteligencia artificial general— que priorice la seguridad en lugar de centrarse en “productos brillantes”.

Greg Brockman, presidente de OpenAI, también posteaba sobre el asunto en nombre de Altman y en el suyo propio: “Sabemos que no podemos imaginar todos los escenarios futuros posibles. Por lo tanto, necesitamos tener un circuito de retroalimentación muy estrecho, pruebas rigurosas [...] No existe un manual probado sobre cómo recorrer el camino hacia AGI. Creemos que la comprensión empírica puede ayudar a orientar el camino a seguir. Creemos tanto en aprovechar las enormes ventajas como en trabajar para mitigar los riesgos graves; Nos tomamos muy en serio nuestro papel aquí y sopesamos cuidadosamente los comentarios sobre nuestras acciones”.

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Zircon - This is a contributing Drupal Theme
Design by WeebPal.