OpenAI ha publicado la llamada GPT-4o System Card, un informe interno en el que muestra el resultado de su investigación sobre lo seguro (o inseguro) que es su último modelo de IA generativa. Los resultados son llamativos.
Riesgo "medio" en persuasión. En su evaluación los ingenieros de OpenAI han evaluado los riesgos que plantea GPT-4o en distintas áreas. Así, estudiaron si este chatbot podría plantear una amenaza en campos como la ciberseguridad, la creación de amenazas biológicas o su autonomía. En todos esos campos el riesgo fue calificado de "bajo", pero hubo uno en que se determinó que el riesgo era "medio": en persuasión.
Textos persuasivos. En las pruebas realizaron pruebas tanto con interacciones con la voz sintetizada de GPT-4o como con sus textos. La voz planteó un riesgo bajo, pero los textos "cruzaron marginalmente al riesgo medio". Se generaron artículos en temas políticos, y se comprobó que en ciertas intervenciones esos textos podían ser más persuasivas que los creados por seres humanos.
Esa voz parece humana. Mucho más interesante fue la evaluación de la interfaz antropomórfica de GPT-4o, es decir, su capacidad de hablar imitando las pausas, entonación y emociones de las voces humanas. Hace meses esa voz original dio problemas por su similitud con la de Scarlett Johansson en 'Her' y fue retirada. En las demos demostró ser especialmente sugerente, y su sustituta plantea también riesgos.
Cuidado con enamorarte de tu chatbot. Esa evaluación reconocía que las "capacidades de audio" (la voz) de GPT-4o podía "facilitar interacciones más similares a las humanas con el modelo". La calidad de esa voz sintetizada es excepcional, y como la propia OpenAI reconoce, puede tener ventajas y desventajas. Por un lado, eso puede ser útil para personas solitarias, pero también puede aislarnos más y dejarnos enganchados a nuestra relación con una máquina. Lo explican en ese informe:
"La socialización similar a la humana con un modelo de IA puede producir externalidades que afecten a las interacciones entre humanos. Por ejemplo, los usuarios podrían entablar relaciones sociales con la IA, reduciendo su necesidad de interacción humana, lo que podría beneficiar a las personas solitarias, pero también afectar a las relaciones sanas. La interacción ampliada con el modelo puede influir en las normas sociales. Por ejemplo, nuestros modelos son deferentes y permiten a los usuarios interrumpir y "tomar el micrófono" en cualquier momento, lo que, aunque esperable en una IA, sería antinormativo en las interacciones humanas".
El riesgo está ahí. Algunos expertos indican que este informe de OpenAI es un buen primer paso, pero hay muchos más riesgos que evaluar. En cuanto al impacto en nuestras relaciones sociales, no es la primera vez que un estudio habla del tema. En abril Google DeepMind publicó su análisis de este tema. Iason Gabriel, uno de los autores de aquel estudio, explicaba que la capacidad del chatbot de comunicarse "crea la impresión de una intimidad genuina", y que ciertas voces, como las creadas por DeepMind, son inquietantes y dan lugar a "preguntas sobre este enredo emocional". La plataforma Replika sabe muy bien lo que está pasando: su chatbot ha conseguido enamorar a sus usuarios en el pasado.
En Xataka | OpenAI acaba de acercarnos más que nunca a 'Her': su nuevo modelo de voz nos acompañará (y quizás enamorará)
Ver 10 comentarios
10 comentarios
ukos
A un tío no le va a pasar eso ¿Quién deja de un lado la parte física y se queda con la charla?
Ninguno al 100%.
En el caso de las mujeres puede ser al contrario perfectamente.
El futuro:
Las mujeres sólo quieren a las IA.
Los hombres ya no tienen mujeres y se fabrican unas robopilinguis.
La raza humana se extingue pero el último hombre morirá feliz.
¿Dónde hay que firmar?
royendershade
Evidentemente que va a suceder: lo mas peligroso de las IAs no va a ser que dominen el mundo o que destruyan todo el trabajo, sino la dimension social que van a tener, y la confusion de la gente. Mucho antes de que pueda existir nada remotamente cercano a una AGI, habra IAs que lo simularan tan bien, que haya personas que terminen teniendo "relaciones" por llamarlo de algun modo, con IAs, de amistad e incluso "romanticas", y con el tiempo veremos repetido el tema de los derechos de los animales con grupos cada vez mayores, de gente exigiendo que se le reconozcan derechos a las IAs. (recordemos que en japon, por ejemplo, hay gente que se casa con personajes de videjuegos en su DS)
ricardouriluriel
Lo dicen para luego no asumir responsabilidades por los efectos que pueden tener. Ya hemos visto como las grandes sabian de los efectos adictivos de redes sociales, de hecho es lo que buscaban. Si ya perdimos un 10 por cien, con el invento de la radio, otro dia con la television, otro 10 con el telefono, otro 10 con el telefono movil, otro 10 con internet, otro 20 con resdes sociales, cuanto nos queda?????? van a por lo que nos queda.
smiley2036
Pues... No sé qué problema hay, la verdad. Se acabó tener que lidiar (fuera del ámbito laboral) con personas q no aguantas, Y sacrificar tu tiempo por ellas porque compromisos que los demás esperan quebse cumplan porque....? Por ej. Por mi fenomenal, la gente es una cárcel. Todos esperan que te amoldes a ellos en mayor o menor medida. Una IA te va a juzgar según unos valores inventados que no sean Los tuyos? Yo lo veo liberador.
lastdanz
Pues a ver si quienes tienen mascotas dejan también de humanizarlas
omarsilva1
Sí claro, dejando de un lado en sí internet, redes sociales, juegos y demás Quizás. Ni un amigo se atrevería escribir tal tontería
luismorales4
Hay que estar muy necesitado para andar ligando con una IA deberás que la sociedad está para ser erradicada.