Elon Musk siempre se ha definido como un "absolutista" de la libertad de expresión. Precisamente uno de los objetivos cuando compró Twitter era convertirlo en una "plaza pública" en la que poder hablar de todo sin tapujos. Parece que lo está logrando, pero ahora va más allá. Ahora quiere que nos creamos que Grok 3 siempre nos va a decir la verdad.
Políticamente incorrecto. Según él, Grok 3 "es una IA que busca la verdad al máximo, aunque a veces esa verdad esté reñida con lo políticamente correcto". Como señalan en TechCrunch, lo dijo ayer durante la presentación de esta nueva familia de modelos de IA.
De censura, poco o nada. Las anteriores versiones de Grok ya demostraron una tendencia a tener un tono y "psicología" distinta a la de sus competidores. La primera versión fue especialmente llamativa por su tono sarcástico, y con Grok 2 las cosas se pusieron especialmente interesantes en el terreno de la censura. Sobre todo, porque no existía, y por ejemplo es posible generar deepfakes de personajes famosos sin ningún tipo de problema desde cualquier cuenta de X.
Grok 3 y el problema de querer decir la verdad. Las promesas de Musk en este sentido son como de costumbre llamativas, pero difícilmente realizables. La razón es sencilla: que las verdades absolutas existan ya es objeto de debate de por sí, pero es que hay un argumento potente en contra: las verdades suelen ser relativas y dependen del contexto o punto de vista. Los hechos están ahí, pero su interpretación es absolutamente variable y está sujeta a sesgos. Humanos, sí, pero a posteriori, también de la IA.
¿Una IA neutral? Grok 3 parece querer aspirar por tanto a convertirse a una IA neutral que se ciñe a los hechos y que nos dice la verdad. Aquí un elemento a favor de estos modelos es que últimamente citan las fuentes en las que se basan para dar sus respuestas. Lo hace por ejemplo Perplexity, y eso ayuda a que podamos contrastar esas respuestas.
OpenAI es (un poco) de izquierdas. Estudios de 2003 detectaron que modelos de IA como ChatGPT tenían ciertos sesgos y parecían posicionarse más hacia quienes apoyan la protección del medioambiente, hacia las ideologías libertarias y hacia posiciones políticas de izquierdas. Gemini, el modelo de Google, fue criticado por crear imágenes "woke" de vikingos o nazis negros, por ejemplo.
Grok 3 podría "hablar" como Donald Trump. Que una IA sea políticamente incorrecta nos hace esperar respuestas singulares. Dan Hendrycks, director del Center for AI Safety y consejero de xAI ha planteado cómo un modelo de IA podría responder como lo hace Donald Trump. Directo, sin ambages y sin tener en cuenta lo políticamente correcto. Eso puede resultar irritante, pero también permitiría expresar opiniones impopulares y puntos de vista controvertidos. Fuera los sesgos, para bien y para mal. Eso sí, teóricamente sin violar las normas sociales y los principios éticos, como explica xAI en su "marco de trabajo para la gestión de riesgos".
Modelos partidistas. El estudio de Hendricks evaluó con qué político de EEUU estaban más alineados modelos como GPT-4o, Grok, o Llama 3.3, y según sus pruebas todos parecían estar más cerca de la visión de Biden que las de Trump, Kamala Harris, o Bernie Sanders. En él desarrolla la idea de lo que llama una "Asamblea Ciudadana" en la que se recolectarían datos del censo de EUU sobre temas políticas para luego usar esas respuestas y modificar los valores de un LLM Open Source. En estos momentos ese modelo tendría valores que serían más cercanos a los de Trump que a los de Biden, por ejemplo.
Pero. Lo cierto es que Grok tuvo que ser actualizado el pasado mes de agosto precisamente por no decir la verdad. Cinco secretarios de estado en EEUU avisaron de que este chatbot estaba difundiendo desinformación cuando los usuarios preguntaban por información sobre las entonces inminentes elecciones. El cambio no afectó a la capacidad de Grok de generar deepfakes de los candidatos, aunque en septiembre de 2023 X eliminó la capacidad de algunos usuarios de republicar desinformación electoral.
El entrenamiento es clave. La IA aprende de aquellos datos que le suministramos en el proceso de entrenamiento, así que los sesgos que pueda tener una IA tendrán su origen en esos datos. Si entrenamos a la IA con datos que perfilan sus respuestas hacia cierta corriente ideológica y critica otra, la IA teóricamente replicará esa posición en su discurso. No se han dado detalles sobre cómo se ha entrenado a Grok 3 y es posible que nunca lo sepamos, pero si xAI quiere que confiemos en su modelo, tendrá que ser mucho más transparente tanto en ese apartado como en el proceso que teóricamente han utilizado para "ajustar" sus perspectivas y sesgos.
Ver 18 comentarios
18 comentarios
soyelotro
No entiendo el titular de esta noticia, insinúa que grok3 puede estar sesgada por Musk y luego lees el articulo y no dice nada de eso, más bien que le parece mal al escritor que la IA diga la verdad, como si decir la verdad sea un sesgo.
El caso es decir algo en contra de Musk todos los días, la cresta de la ola.....
tircooo
"las verdades suelen ser relativas" = FALSO
OpenAI es (un poco) de izquierdas = FALSO (es MUY de izquierdas)
A ver cuando termináis vuestra cruzada sobre Musk y os dedicáis a atacar a supervillanos reales.
marta_mmm
El artículo de 1000 palabras que no dice nada... Esto es el futuro
retorta
Estos son mis postulados:
-Ninguna IA tiene sesgos.
-Los usuarios creen que tienen sesgos las IA's cuyas respuestas no coinciden con su marco ideológico.
-Todos los humanos tienen sesgos.
Por otra parte, ¿Se puede confrontar a varias IA's a discutir sobre algún tema?
Se podrían ver su argumentos, como los defienden, si pueden ser convencidas por otras, o tienen oídos sordos como los humanos.
aplatanado
Pese al titular parece luego decir el artículo que Grok 3 no tiene sesgo. A ver, si por lo que dice Musk de decir la "verdad" y "no tener sesgos" se refiere a que no han sometido a ningún tratamiento a los datos, entonces su IA tiene sesgos, solo que seran aquellos que sean mayoritarios en los datos. El "contenido" si no se analiza y cura no es neutro. Es está más que estudiado. Y las IA no piensa de forma crítica, solo reproducen con lo han sido entrenadas
Lo que hace está IA es realimentar esos sesgos preexistentes reforzándolos, no darnos la verdad. Que supongo que es lo que le gusta a Musk, porque es lo mismo que hace su algoritmo en X, que tampoco es cierto que sea neutral
Si, por ejemplo, una IA responde que el cambio climático puede no ser antropogénico porque ha sido entrenada con contenido de poca calidad, es no será nunca "la verdad". Y corregir esos sesgos no es nunca censura, por mucho que se repita.
pipas75
En resumen las IAs tienden a tener las mismas ideas políticas de quien las usa...
Anda mira, igual que sucede en los medios de comunicación, revisiones historicas, libros y demás...
Está claro que cada un tiene su deriba o tara mental y orienta todo su universo sobre esa concepción.
deadcrowd
Tengo malas noticias para el autor, todas las IA's están sesgadas, pero la palma se la lleva deepseek de la que solo hablan maravillas en Xataka siendo la peor de todas en todos los aspectos
javilopez6
Artículo vacío en el que no se dice casi nada, lo poco que se dice es que las ia normales son izquierdistas (que sorpresa, para llevarnos hacia el globalismo este que querían, menos mal que parece que se va a acabar) y que la de elon en principio no se muerde la lengua aunque las cosas levanten ampollas. Lo que sea con ir en su contra, parque no se que cruzada hay en Europa contra Trump y Musk, solo se que en italia donde se llevaron bien con meloni no van a tener aranceles o van a tener menos (si lo se, están en contra de la agenda globalista y están acabando con los chiringuitos y la malversación)
danielmarin2
Artículo escrito por ChatGPT temiendo por su futuro 😂.
Pero oye, quiero censurar lo que no me gusta, ser totalitarista, antidemocrático... pero los fascistas son los otros 😁
leandroarteagavega
Es divertido ver tantos fans de Musk saltar
fomlimalma
Que openAI una compañía de siliwoke valley es un poquito de izquierdas?? Que dedo nos chupamos?? 😂 🤣