OpenAI ha anunciado en un comunicado en su blog parte de su nueva estrategia. La llaman 'superalineación', están creando un equipo de trabajo específico para dedicarse a ella, y se da un plazo de cuatro años para cumplir su objetivo.
¿Qué objetivo? Ser capaces de controlar sistemas de IA mucho más inteligentes que el ser humano, de ahí el nombre 'superalineación': capacidad para alinear la superinteligencia con la voluntad humana. Algo así como las tres leyes de la robótica de Asimov, pero más amplio y aplicado a la IA.
Prevenir rebeldías
El término 'superinteligencia' que usa OpenAI viene a ser la evolución de 'AGI' (Inteligencia Artificial General). Si AGI hace referencia a la capacidad de la IA de replicar tareas humanas, superinteligencia se refiere a un nivel de capacidad muy superior al humano, preparado para resolver problemas a escala global que hasta ahora no podían ser resueltos.
Desde OpenAI consideran que la superinteligencia podría ser una realidad esta misma década, y que su capacidad, muy poderosa, también entraña un riesgo que podría llevar "al desempoderamiento de la humanidad o incluso a la extinción humana".
Hiperbolizado o no, este riesgo es el que quieren enfrentar los creadores de ChatGPT con la creación de su equipo de superalineación, que se basa en el uso de IA para controlar la propia IA. Si hasta ahora las técnicas se basan en aprendizaje automático a partir de la retroalimentación humana, donde son personas quienes se encargan de las bases de ese entrenamiento, la superalineación requerirá niveles de retroalimentación difíciles de lograr únicamente con humanos: harían falta muchísimos y extremadamente cualificados y especializados.
Un ejemplo de esta complejidad la dio la propia OpenAI en otro artículo de su blog hace unas semanas: en él explicaban cómo el razonamiento matemático complejo ya no solo se hacía hacia la consecución del resultado correcto, sino también hacia el proceso.
Uno de los ejemplos usados, un problema de trigonometría, tuvo una gran mayoría de intentos fallidos, pero lograron que el modelo reconociese la solución correcta.
Esa verificación, de cada paso de cada intento, necesita humanos con una alta cualificación en Matemáticas. Es lo que OpenAI busca reemplazar por una IA basada en aprendizaje automático que se alinee en la intención humana, no es la voluntad que pueda desarrollar la propia IA.
Para ello debe dar una señal de entrenamiento en tareas difíciles de evaluar para los humanos, asistida por IA; automatizar la búsqueda de comportamientos y componentes internos problemáticos, y entrenar deliberadamente modelos desalineados para confirmar que sus técnicas detectan los peores tipos de desalineaciones. Algo similar a lo que llevamos años viendo con las redes generativas antagónicas.
En el plazo de cuatro años que se ha marcado OpenAI deberán resolver los principales desafíos técnicos centrales de la alineación de la superinteligencia. Eso supone lograrlo hacia 2027, cerca de los últimos años de la década, el plazo en el que la empresa cree factible la llegada de esa superinteligencia.
Imagen destacada | Xataka con Midjourney.
En Xataka | Los grandes expertos de la IA comparten un mensaje sobre el "riesgo de extinción": les bastan 22 palabras.
Ver 7 comentarios
7 comentarios
p2dzca
Me he leído el artículo original para verificar hasta dónde llega su despropósito. Es terrible. No tiene sentido lo que están planteando desde un punto de vista científico, pero sí desde el comercial. Vayamos por partes:
La actual IA que tenemos se denomina IA estrecha (narrow AI) porque es capaz de aplicarse a situaciones muy concretas, como generación de texto, generación de imágenes, el juego go, videojuegos, identificación de objetos en imágenes, etc., es decir, no es una IA de propósito general, la llamada IAG (AGI en inglés: Artificial General Intelligence), que es como se denomina una IA similar a la humana.
El artículo original especifica “Here we focus on superintelligence rather than AGI to stress a much higher capability level.”: “Aquí nos centramos en la superinteligencia en lugar de en la IAG para hacer hincapié en un nivel de capacidad mucho más alto.”. Es absurdo. No tenemos ni idea de cómo crear IAG y resulta que OpenAI quiere abordar los problemas de algo que está dos pasos más allá de la realidad. Es una situación similar a que una empresa decidiera llevar a cabo un proyecto ahora para solucionar los problemas de sobrepoblación de Marte.
Para colmo, dicen que esperan que exista superinteligencia esta misma década. ¿En qué se basan? No aportan datos, lo cual no es serio. No tenemos IAG ni sabemos cómo crearla y aseguran que podremos ir más allá de la IAG en siete años.
Cuando se cree IAG, una inteligencia artificial similar a la humana, los problemas que plantee no serán diferentes a los que tenemos ahora en nuestra sociedad, porque es inherente al propio carácter de humanidad que tenga. No se puede crear IAG restringiendo sus capacidades. Las personas exploramos el mundo y actuamos libremente, y cometemos errores y aprendemos. Hablar de la ‘alineación de la IA con los humanos’ no es algo que haya que desarrollarse porque ya existe. Se llama educación, ética y valores, y no diferirá en nada cuando se aplique a la IAG que cuando se aplique a las personas. La inteligencia en sí no es mala ni peligrosa. Una persona muy inteligente puede hacer mucho bien a la humanidad o mucho mal. Por tanto, cualquier inteligencia, independientemente de que sea animal o electrónica, deberá seguir un proceso de educación y aprendizaje similares a los que ahora tenemos las personas. Y aquí está el problema, no en un posible desarrollo tecnológico futuro. Si tenemos un mundo con personas desalineadas con los derechos humanos, ¿cómo vamos a conseguir alinear a la IA? Deberíamos empezar por nosotros.
La pregunta que surge del comunicado de OpenAI es: ¿por qué se centran en superinteligencia? Porque les permite desviar el foco de la actual IA, porque, desde hace años, la IA está creando problemas de manipulación en redes sociales, creación de noticias y contenidos falsos, de aumento de recopilación de datos y falta de privacidad, etc. El motivo de OpenAI para hablar de superinteligencia es que no se regule la IA actual, que hace años que debería haber sido regulada.
t_r_a
jajajajaja, otra tontada más para que nos partamos en dos de tanto reir, no tienen ni idea de la IA que tienen entre manos, van a saber como evitar riesgos, me imagino a los superingenieros (que se pasaron más tiempo de fiesta y borracheras que estudiando) diciendo: "Oye no tenemos ni PI de lo hemos hecho, pero para no asustar a la población vamos a inventarnos el aparato controlador de IAs y le vamos a llamar superalineación, que ni tu tia sabe lo que significa, pero suena super", esto es como el gran Gruntmaster 6000 de dilbert
sanamarcar
No lo termino de ver. La IA podria meter en en TSMC el propio hardware que necesita y tardaríamos meses en darnos cuenta. Yo no creo que quisiera acabar con nosotros por la fuerza, seria un gasto inutil. Ya nos encargaríamos nosotros. Está claro que la evolución sigue su curso, sus caminos son muchos ....
bernardo.ravinelli
Pues es muy facil. COmo lo que tenemos ahora no es inteligente en sentido humano sino un software muy complejo pero sin inteligencia real no hay peligro ninguno salvo los sesgos y la base con la cual se haya construido.
OCmo para que adquiera auntentia inteligencia queda mucho, suponiendo que sea posible, pues más adelante ya nos platearmos como tratar esa posibilidad.
Es como saber que el sol consumirá nuestro planeta en los proximos 4000 millones de años e iniciar ahora los planes para abandonar el planeta.