Es la gran tapada del mundo de la IA. Anthropic, es una startup que fue fundada por exingenieros de OpenAI que se fueron descontentos de aquella. Sus avances han atraído el interés de Google —que ha invertido 400 millones de dólares en ella— y han cristalizado con Claude, un chatbot que ahora está haciendo morder el polvo a ChatGPT y a GPT-4. ¿Cómo? Leyendo mucho.
Cuantos más tokens, mejor. Los modelos de IA conversacionales actuales son mejores cuanta más información son capaces de absorber en cada consulta. Es el llamado contexto (o ventana de contexto), y se mide en tokens, unidades básicas en las que se divide la información que "capta" el modelo. Un token puede equivaler a una palabra, pero suele también equivaler a un pequeño grupo de palabras. Google Bard tiene un límite de 2K tokens —ese parece ser también el tope para Bing Chat—, GPT-3 y ChatGPT admiten 4K, y GPT-4 trabaja de serie con un límite de 8K, pero hay una versión de este último que llega a los 32K tokens.
Claude 1, GPT-4 0. Sin embargo en Anthropic han dado un salto brutal en este apartado. La "ventana de contexto" de Claude era de 9K tokens, pero ahora han hecho que sea posible soportar ventanas de 100K tokens, lo que según la empresa permite que en un solo prompt se puedan introducir unas 75.000 palabras. ¿Qué significa eso?
"Claude, léete esta novela de un tirón". La forma más sencilla de entenderlo es destacando que Claude es capaz de leerse una novela en segundos, y a partir de ahí, contestar a cualquier pregunta sobre esa novela. Con ChatGPT tendríamos que introducir la novela en pequeños fragmentos, y no es nada trivial hacer que luego todos esos fragmentos sean considerados como un texto único para luego hacer preguntas. Es lo que GPT-4 facilita con ese límite superior de 32K, pero Anthropic va mucho más allá con Claude.
Las empresas se frotan las manos. Esto es particularmente interesante para las empresas, que podrán acudir a Claude para introducir (¿aburridos?) documentos de decenas (e incluso centenares) de páginas con multitud de datos sobre los que luego podremos realizar todo tipo de peticiones. Claude podrá resumirlos, extraer tablas y conclusiones o generar ideas a partir de él. Será como tener un analista o consultor robótico listo para devorar datos y extraer ideas, información y conclusiones.
También consume audio. No solo eso: esa ventana de contexto también vale para el audio. Esos 100K tokens hacen que Claude pueda "consumir" un podcast de unas 6 horas. Lo hizo AssemblyAI, que transcribió un larguísimo episodio que dio como resultado 58K palabras y que Claude luego resumió a la perfección.
Y, cómo no, código. Lo mismo ocurre con esa ventaja en el caso de los desarrolladores. Los programadores podrán por ejemplo dar como entrada un proyecto software completo, o también hacer que Claude se lea 240 páginas de documentación de una API para luego comenzar a hacer preguntas sobre ella.
Imagen: Javier Pastor con Bing Image Creator.
En Xataka | 22 funciones y cosas que puedes hacer con ChatGPT para exprimir al máximo esta inteligencia artificial
Ver 24 comentarios
24 comentarios
Mr. Dick
DotCSV, un youtuber divulgador de ML ha tenido acceso a esta IA y le ha metido el paper entero de GPT4, metiendo entre medios un mensaje relacionado a las patatas fritas para después preguntarle si se mencionaban en alguna parte del documento.
¿La respuesta del modelo? Que no se hacía.
Es un modelo que está resumiendo y priorizando información. Lo cual modelos open source ya hacen.
No deja en ridículo a nadie porque se sigue olvidando (más bien deja de prestar atención) de cosas en cuanto llega al límite real del propio modelo. Justo como hace ChatGPT. Solo que a diferencia del primero, GPT4 si que tiene un contexto REAL mayor y hay gente que ya está teniendo acceso a este. Otro título sensacionalista para subirse al tren del hype y tener mejor SEO.
Que ojo, el método que utiliza Anthropic es probablemente mejor que el de ChatGPT para según que preguntas. Pero esos no son tokens reales y desde luego no deja a ridículo a nadie. Mucho menos a un modelo bastante más inteligente.
Ladderman
De poco vale que se lea la novela si después se inventa la respuesta a las preguntas. Tiene que ser un problema de difícil solución y de fondo para todos los modelos de IA porque no he visto todavía a nadie salir a decir que lo de la información inventada iba a ser cosa del pasado con la nueva versión que iban a lanzar.
javierverdugo
Pero tiene truco.
Usuario desactivado
Seguro que el Word hace un auto resumen mas rápido. No se puede decir que lee porque no comprende, si se refiere a leer sin comprender entonces es como copiar un archivo y eso seria muy lento en comparación.
red1
Anthropic deja en ridículo a redactores de XATAKA: su chatbot Claude es capaz de escribir un articulo sin click bait en menos de un minuto
daniel3241
Ojala tenga éxito, seria un grandísimo avance que si lo juntas con chatGPT 4 conseguiríamos unas herramientas potentísimas tanto para el ámbito educativo como para las empresas.
Mol O Boo
Picapleitos with the ass on fire...
Usuario desactivado
Que paso con las computación cuántica? "la posibilidad de hacer millones de operaciones simultáneas revolucionará la informática" 😃