Geoffrey Hinton, uno de los dos galardonados con el Nobel de Física 2024 por sus descubrimientos en aprendizaje automático, ha lanzado un dardo contra Sam Altman, CEO de OpenAI, en su primera comparecencia tras recibir el premio.
"Estoy particularmente orgulloso de que uno de mis estudiantes despidiera a Sam Altman. Y creo que es mejor dejarlo ahí", dijo Hinton en referencia a Ilya Sutskever, quien completó su doctorado bajo su supervisión en la Universidad de Toronto.
Hinton y Sutskever colaboraron en 2012 para crear AlexNet, una red entonces revolucionaria en el reconocimiento de imágenes.
Por qué es importante. Estas declaraciones vuelven a poner sobre la mesa la gran división en la comunidad de IA sobre el enfoque de los desarrollos y las prioridades éticas.
- Hinton critica el giro de OpenAI, abandonando el altruismo en favor de la rentabilidad, bajo el liderazgo de Altman.
- Ese giro también implica una pérdida de relevancia para la seguridad, que es lo que el Nobel quiere priorizar sobre el desarrollo acelerado.
Qué ha ocurrido. El Nobel de Física que ha ganado Hinton llega poco antes del primer aniversario de la crisis de OpenAI y del segundo aniversario de la llegada de ChatGPT.
Sutskever, como miembro de la junta directiva de OpenAI, participó en la destitución de Altman, aunque luego se arrepintió y pidió su reincorporación. Acabó saliendo de la empresa en mayo para crear la suya propia, SSI (Safe SuperIntelligence).
Entre líneas. Esta crítica es una condensación de una preocupación creciente entre la comunidad tras el desarrollo de la IA: la de estar desarrollando sistemas cada vez más avanzados que implican riesgos potenciales mayores.
Sin embargo, cada vez es más difícil de predecir y controlar los resultados de esos modelos de IA cada vez más avanzados.
En Xataka | OpenAI perderá 44.000 millones de dólares hasta 2028 según The Information. Luego llegará la rentabilidad
Imagen destacada | Collision Conf en Flickr
Ver 12 comentarios
12 comentarios
emiliosanchez4
1 Llamarle envidia a los comentarios sobre altman está completamente fuera de la realidad, en sus círculos el nobel vale mucho más que ser millonario
Además son peras con manzanas, altman administra equipos y empresas y Hinton un científico en toda regla. Cómo comparar a Kirby (primer circuito integrado) con Jobs.
Sin Hilton no existirían los LLM pero son altman alguien hubiera desarrollado un LLM público aunque fuera años después. Y las contribuciones de los dos premios Nobel abarcan más tipos de inteligencia artificial que los modelos de lenguaje, también son la base de Watson que ya había ganado a dos campeones de Jeopardy en 2011
2 Lo curioso del asunto es que varios científicos ha dicho que no comprenden cómo la IA justo como quienes trabajan en computación cuántica. Hinton menciona como el riesgo más grande tener que lidiar con algo más inteligente que los humanos
Y mientras la "seguridad" de chat gpt es decir que algo podría ser ofensivo o ir contra los derechos de autor
clarksonevr
Otro caso de envidia mal gestionada.
yagosanchez_1
¡Uh... sííí! ... ganar el premio Nobel es garantía de que es el TOP en algo, como por ejemplo el premio de la paz a Obama, muchos premios son otorgados con sésgoz ideológicos y políticos
walterandres_1
Actualmente no hay riesgo de nada, las IA son simples modelos de lenguaje que sirven para hacer ciertas cosas básicas, por así decirlo. No tiene capacidad de mejorarse a si misma ni evolucionar hacía algo más complejo. Por otro lado necesita un monstruoso poder de cómputo que casi nadie tiene. No es algo que se pueda fugar, como en las películas y tomar decisiones como Skynet.
ad0N
2013-2023 ha trabajado para Google. Alguien, Altman en nuestro caso, le ha adelantado, y no le ha caído bien al nuestro tío. En algún momento se quedó estancado.
Nadie dice que no merece el Nobel, tuvo sus ideas, pero .... su tiempo pasó.
ad0N
Este tio aun no ha comprendido cuánto dinero se necesita para seguir avanzando.
En cuanto a seguridad, ¿de donde tanto miedo? Skynet está muy lejos.