Uno, a descansar. Greg Brockman, uno de los 11 fundadores de OpenAI, anunció ayer en Twitter que se se cogía una excedencia hasta finales de año. "Es la primera vez que me relajo desde cofundar OpenAI hace 9 años. La misión está lejos de estar completa; aun tenemos que crear una AGI segura", indicaba en su mensaje en la red social.
Otro se va a la competencia. John Schulman, otro de los cofundadores y responsable de los esfuerzos de "alineación" (afinar el comportamiento de los modelos tras el entrenamiento inicial), ha sido fichado por Anthropic. En un mensaje en Twitter, Schulman indicaba que "he decidido perseguir este objetivo en Anthropic, donde creo que puedo adquirir nuevas perspectivas e investigar junto a personas profundamente comprometidas con los temas que más me interesan".
Y otro salió hace tiempo de forma silenciosa. Peter Deng, uno de los responsables de producto de OpenAI (exempleado de Meta, Uber y Airtable) también abandonó la empresa hace tiempo, según confirmó la compañía, aunque no se especifica qué está haciendo en la actualidad.
Desbandada y movimientos múltiples. Estos tres abandonos se unen a una tendencia preocupante. Ilya Sutskever, uno de los cofundadores de OpenAI, abandonó inesperadamente la compañía en mayo, Jan Leike, exresponsable del trabajo en "superalineación" —controlar una teórica superinteligencia— también lo anunció entonces explicando sus discrepancias con la compañía. Poco después este ingeniero se unió a Anthropic, rival de OpenAI fundada por Dario Amodei, que anteriormente había sido responsable de investigación en OpenAI.
Solo tres de los cofundadores siguen. De los once cofundadores originales, solo tres permanecen en la empresa, indican en TechCrunch. Sam Altman, Brockman —ahora de excedencia, veremos qué acaba haciendo tras su vuelta— y Wojciech Zaremba son los únicos que quedan tras esta desbandada.
Incertidumbre en OpenAI. La empresa lleva unos meses convulsos, sobre todo desde que en noviembre de 2023 se produjera aquel sorprendente despido y vuelta de Sam Altman al liderazgo de OpenAI. El cada vez más polémico líder ha vuelto a ser demandado por Elon Musk, y estas salidas de la empresa parecen apuntar a una gran crisis interna que plantea cierta incertidumbre.
Imagen | Flickr (TechCrunch)
Ver 4 comentarios
4 comentarios
asdarfa
Que raro, pero si es el futuro!
pacoco123
Yo confío en Altman, y encuentro que su producto sigue siendo el número uno, al menos para mí. Puede que no sea el mejor programando, pero lo hace suficientemente bien. Tiene conexión a internet, por lo que te puede resumir páginas y vídeos, algo que no puede hacer Claude, que aún siendo mejor en conversaciones, tampoco puede crear imágenes. Además, creo Chatgpt 4o es el único con el que puedes hablar de forma fluida y guarda recuerdos del mismo hilo. Mientras que la competencia no tiene un producto que reúna todas estas carácterísticas.
ayrton_senna
La realidad es que el loro estocástico de ChatGPT se hizo famoso por llegar el primero pero hoy en día ha sido superado por la competencia, que tiene productos mejores y mucho más baratos.
Por ejemplo, codestral (de Mistral.ai) le da mil vueltas en soporte para programación. Mientras que ChatGPT genera código con alucinaciones, codestral genera un código correcto más del 70% de los intentos.
Gemmini tiene también muchas "alucinaciones" pero al menos pone contexto y da pistas.
p2dzca
2024 y 2025 van a ser unos años revueltos para la IA generativa por diversos factores. Algunos de ellos afectan más a OpenAI que otros:
Más allá del impacto inicial de los LLM, de hacer una risas y utilizarlos para hacer trabajos escolares y universitarios, artículos informativos que son refritos de otros con los que se entrenaron los LLM y de generar alucinaciones y confabulaciones, ¿dónde está el negocio? ¿Quién quiere pagar y cuánto? ¿La ratio coste/beneficio para los clientes compensa?
Crear modelos de IA generativa cuesta muchísima energía y muchísimo dinero. Cuando acaba la parte automática, empieza el entrenamiento supervisado por humanos, un trabajazo que se suma al coste inicial y que es indispensable para corregir imprecisiones, falsedades, marcar un estilo de comunicación (no decir palabrotas, no ser soez, etc.) y crear filtros de todo tipo (por ejemplo, no explicar cómo se fabrican bombas, o no ofrecer contenido que pueda provocar demandas legales).
Hay empresas que pueden permitirse, hasta cierto punto, el elevadísimo coste porque su fuente de financiación no es la IA generativa. Meta vive de la publicidad principalmente, Google de la publicidad y otros servicios, Apple de sus productos y servicios, etc. OpenAI se sostienen con la financiación externa que recibe y es la empresa que más premura tiene por sacarle un beneficio a la IA que desarrolla y, por tanto, la que mayor presión soporta.
Aunque no conozco la situación interna de OpenAI, me aventuro a decir que lo que he dicho anteriormente es lo que más juega en su contra. Tiene costes muy elevados, no tiene financiación propia, tiene prisas por avanzar rápido, la competencia le sigue los talones o la adelanta y, seguramente, fruto de todo esto, pueden existir tensiones internas de carácter ético. ¿Vamos más despacio pero más seguro para crear una IA que no perjudique a la sociedad o quitamos el freno y hacemos todo lo posible, aunque no sea lo deseable, porque podemos entrar en quiebra en pocos meses? Seguramente la marcha de destacados empleados de la empresa se debe a cuestiones éticas y de viabilidad de la empresa.
El mundo de los negocios es despiadado, territorio de lobos, y conocen la situación de OpenAI. Otras empresas/inversores la sostendrán mientras les sea favorable (por ejemplo, Microsoft). Si OpenAI no consigue crear un negocio viable, desaparecerá, seguramente siendo comprada por su conocimiento y por su capital humano (si no se va antes).