Las respuestas poco fiables son uno de los grandes problemas de los chatbots de inteligencia artificial. Estas herramientas están evolucionando a pasos agigantados, pero todavía reproducen sesgos y generan alucinaciones. Unos investigadores de la Universidad de Oxford han tenido una particular idea para abordar estas limitaciones: que los chatbots sean supervisados por otros chatbots.
El grupo, integrado por Sebastián Farquhar, Jannik Kossen, Lorenz Kuhn y Yarin Gal, señala que los resultados falsos han impedido la adopción de los chatbots en diversos campos. Ahora bien, el método que han diseñado, afirma, aborda el hecho de que una idea puede expresarse de diversas maneras y ha permitido a los usuarios detectar en qué momentos de la conversación deberían tener especial cuidado.
Utilizando chatbots para supervisar otros chatbots
Los investigadores hicieron una serie de preguntas de trivia y problemas matemáticos a un chatbot. Después, le pidieron a un grupo de humanos y a un chatbot diferente que revisaran las respuestas. Tras comprar las evaluaciones descubrieron que el chatbot estaba de acuerdo con los evaluadores humanos en un 93%. Los evaluadores humanos, por su parte, estaban de acuerdo con el chatbot en un 92%.
Estos hallazgos forman parte de un estudio publicado en la revista Nature titulado “Detección de alucinaciones en grandes modelos de lenguaje mediante entropía semántica”. Como podemos ver, se ha utilizado una metodología bastante manual que puede ser tomada como modelo para inspirar posibles soluciones automatizadas que aborden la falta de fiabilidad de los chatbots de IA que utilizamos a diario.

Las propias herramientas suelen incluir mensajes de advertencia sobre la precisión de las respuestas en la parte inferior de la ventana de chat. “ChatGPT puede cometer errores. Considera verificar la información importante”, dice el chatbot de OpenAI. “Gemini puede mostrar información inexacta, incluso sobre personas, así que vuelve a verificar sus respuestas”, señala la propuesta creada por Google.
Tango OpenAI como Google, y también otras compañías, han dicho que están trabajando para mejorar la fiabilidad y la seguridad de sus productos de IA. De momento, sin embargo, los resultados están lejos de ser perfectos. En muchos casos las respuestas suelen presentar un texto que, a simple vista, parece my coherente, pero puede contener desde pequeñas imperfecciones hasta grandes errores.
Imágenes | Xataka con Bing Image Creator
Ver 12 comentarios
12 comentarios
Usuario desactivado
El deseo por parte de la gente de Silicon Valley y quienes los admiran de eliminar a las personas en la toma de decisiones es una fe fundamentalista.
Suerte en pila.
powerlebrato
Tenemos a un cuñao soltando memeces, así que hagamos un simposio de cuñaos para que diriman entre ellos.
Esto solo ouede acabar a ostias entre (supuestas) IAs, o que se unan en pos de la erradicación de la raza humana...
Parece que las estamos empujando a que nos destruyan xD
guillermoelectrico
¿Quien vigila al vigilante?
jorsus
El retrasado supervisando al tonto.
¿Que podría salir mal?
Usuario desactivado
Pero si esto es una práctica habitual, que tiene de descubrimiento
Casimiro Perono Veonah
Qué idea más buena! Tengo a un tonto que da respuestas equivocadas, así que pongo a otro tonto a supervisar lo que dice el primer tonto.
Y por si el segundo tonto se equivoca pongo un tercer tonto que corrija al segundo tonto cuando corrija al primer tonto...
Uy...creo que hemos entrao en bucle...🤯
t_r_a
jajajajaja, lo que vomitarán no será el doble de mierda, será mierda al cuadrado
marcos.perez.3517563
Un plan sin fisuras. Qué puede fallar…
pocheropochon
No veo por qué limitarse a una sola supervisión. Un tercer chatbot podría evaluar si la corrección del segundo chatbot es correcta.
Y podemos ir más allá. Un grupo de chatbots, cada uno entrenado con sesgos raciales y sociales diversos, puede hacer una reunión y debatir sobre la respuesta del primero, votar correcciones democráticamente, y dar una respuesta final de consenso sobre cuando tiempo ha de hervir el agua en el cazo para hacer un huevo duro.