Uno podría asumir que los robots deberían hacer siempre lo que les digamos sin importar las consecuencias de esas acciones, pero hay demasiados factores en juego en esa actividad de unas máquinas que poco a poco van teniendo más ambición tanto en sus habilidades físicas como en las que les dotan de capacidad de acción y autonomía.
Precisamente un grupo de investigadores de la Universidad de Tufts y del Human-Robot Interaction Lab están desarrollando sistemas que permiten a los robors negarse a cumplir órdenes que atentan contra algunos de los principios de su funcionamiento. No hablamos en realidad de las famosas leyes de la robótica, sino de las llamadas "condiciones de felicidad".
¿Deben los robots obeceder siempre?
Esas condiciones "reflejan nuestra comprensión y capacidadd a la hora de acometer una tarea, no se limitan solo a entender lo que significa la orden". Gordon Briggs y Matthias Scheutz han establecido cinco de esas condiciones que precisamente especifican si sería o no coherente rechazar una orden que las cuestione.
- Conocimiento: ¿sé cómo hacer X?
- Capacidad: ¿soy físicamente capaz de hacer X ahora? ¿Soy normalmente capaz de hacer físicamente X?
- Prioridad del objetivo y elección del momento: ¿Soy capaz de hacer X ahora mismo?
- Papel social y obligación: ¿Estoy obligado a hacer X basándome en mi posición social?
- Permisibilidad normativa: ¿viola algún principio normativo hacer X?
Esas reglas permiten al robot evaluar la orden y decidir si es o no adecuado seguirla o no, y como dicen los responsables del estudio, no solo pueden tomar esa decisión, sino explicar por qué la han tomado. Un ejemplo: ordenar al robot que ande hacia adelante cuando está en el borde de una mesa y eso hará que caiga al vacío.
En el ejemplo del vídeo se ve cómo el robot explica por qué no puede andar hacia delante, pero luego el humano le explica que no se preocupe, "yo te cogeré". Como se puede comprobar luego es necesario que el humano cumpla esa promesa, lo que a su vez establece nuevos escenarios en ese tratamiento de las órdenes en el que también intervienen las leyes de la robótica de Asimov. Un estudio llamativo que vuelve a poner de manifiesto que deberemos ir preparándonos para un futuro (lejano, probablemente) en el que las máquinas y los robots tengan mucha más autonomía.
Vía | IEEE Spectrum
Más información | HRILab
En Xataka | La primera ley de la robótica de Asimov puede dejar paralizados a los robots
Ver 11 comentarios
11 comentarios
herpesg666
Esto me recuerda mogollon a catequesis:
Dios le dice a Abraham que sacrifique a su hijo.
A lo que Abraham le responde:
-Oh Señor, yo te quiero y todo eso pero, con el debido respeto, vete a tomar por cul_ohhh. No eres todopoderoso y tal ? Porque no te lo cargas tu y dejas de joderme, pedazo de mam_on ?
Aqui vemos que Abraham, como buen hipster, tenia los huevos cuadrados.
La moraleja es: No putees al projimo, que esta feo.
eufrasio
Quiero ese robot. :D
jlfc2
Quien dijo Terminator
Skynet
Ups creo que esto no puede ser nada bueno.
Imaginense si ese robot dice no y se arma una revuelta al estilo planeta de los Simios?
drkwzrd
-HAL, no me mates.
-Me temo que eso no lo puedo computar...
kilek
Yo ahi no veo ninguna inteligencia, veo un reconocimiento de palabras y una programacion para respoder una cosa cuando reconoce la combinación adecuada, el robot de por si no entiende el concepto "yo te cogeré" pues deberia saber que el verbo coger en ese tiempo denota una acción determinada hacia el pripio robot en el caso de que X condiciones se cumplan, y para que el robot entienda verbos hay que programarle una base de datos de palabras, vamos, que el robot no se tira de la mesa porque esta programado para no hacerlo, no porque voluntariamente no quiera
queesbitcoin
Mal asunto y aprenden a desobedecer
Miyamoto Gaming
Noice.
"Por favor deja de espiarme"
"Solicitud denegada"
chimbok
Es re falso el video