Jonathan Nolan y Lisa Joy, sabiéndolo o sin saberlo, han imaginado un futuro probable. Westworld, que trata de un parque temático lleno de robots, sería como visitar un "teatro mecanizado" si no fuera porque los visitantes pueden comportarse como les plazca con las máquinas que viven en él y que estas son tan parecidas a un humano real que, de hecho, se tornan parcialmente biológicas.
Sin hacer spoilers innecesarios, aunque muchos huéspedes deciden ser "buenos" otros desatan sus peores impulsos en el parque. Como resultado, en la serie terminamos viendo asesinatos, torturas y violaciones a por doquier. Si llegamos a un punto que las IA se conviertan en entes como tal, es decir, máquinas que "sienten", ¿nos deparará un futuro similar?
Proteger a nuestras creaciones de nosotros
Los experimentos con inteligencia artificial y robótica han demostrado la velocidad a la que atribuimos sentimientos a las máquinas. Lo hacemos aunque, en realidad, estamos muy lejos de crear algo con sentimientos. La IA de ahora consiste en modelos matemáticos basados en probabilidad, su respuesta va asociada a dicha probabilidad, y no "piensa". Lo sabemos pero, aun así, solemos imaginar a Siri como a una mujer ingeniosa tras la pantalla, por ejemplo.
La problemática de esto es que nos dirigimos a crear exactamente eso: una mujer u hombre real. No es seguro que lo logremos pronto, pero nuestro objetivo es realmente hacerlo todo “lo más humano posible”.
A la vista está que, por ejemplo, a la inteligencia artificial la consideramos sorprendente y avanzada precisamente cuando nos engaña y “parece real”. Esto fue, al fin y al cabo, lo sorprendente de la llamada de Google Assistant: lo que impresionó tanto fue el hacerse pasar por nosotros con una voz humana y conversar con otra persona sin que esta note que se trata de un robot.

¿Y cuando no haya en realidad diferencias? ¿Dónde está el límite que separa la máquina del hombre? La mayoría diría que es la consciencia. Cuando los robots tengan consciencia no será ético no sentir nada si se rompen.

"La consciencia es la frontera, el punto de inflexión entre lo que es ético y lo que no. Dicho más contundentemente: un organismo se convierte, automáticamente, en sujeto de derecho cuando adquiere consciencia. La razón estriba en que si un ser es capaz de consciencia es capaz de sufrir, y si es capaz de sufrir es obligación moral de todos evitar o, como mínimo no infringirle, sufrimiento", afirma para Xataka Santiago Sánchez-Migallón Jiménez, profesor de Filosofía y colaborador habitual.
En este aspecto, Santiago cree que un mundo como Westworld sería "una atrocidad moral", en tanto que sería un campo de entrenamiento de sádicos que contribuiría a la normalización o banalización de la crueldad: "Un parque de atracciones como el de Westworld sería muy peligroso en este sentido ya que estaríamos diseñando un trampolín hacia lo que la filósofa alemana Hannah Arendt denominaba 'la banalidad del mal'. Matar a robots por mero placer sería una forma de legitimar el hecho de que matar por placer es deseable".
"El psicólogo Leon Festinger acuñó el término disonancia cognitiva para hacer referencia al trastorno que se da cuando nuestras creencias y lo que realmente hacemos no guardan cierta coherencia. Suele darse que, cuando nos encontramos ante esa incoherencia, es más fácil cambiar nuestras creencias que nuestra conducta".
Por ejemplo, si la creencia en que fumar es malo para la salud choca con el hecho de que soy fumador, más fácil que dejar el vicio es buscar razones que debiliten la tesis de que fumar es malo. Así los fumadores argumentan razones como que conocieron a alguien que fumaba dos cajetillas diarias y que vivió más de cien años; o que, total, de algo hay que morirse.
"De la misma manera, si en Westworld una clase social que es referente y ejemplo social como la clase alta 'mata' sin que pase nada, se están dando razones para debilitar la disonancia cognitiva que todo asesino tiene ante realizar un acto tan injustificable como es el asesinato".
Leyes para humanos y no humanos

Si llega el día que los robots puedan sentir, se dará una situación similar a lo que ocurre con los animales ahora: que necesitaremos protegerlos de quienes se niegan a aceptar que tienen derechos. Sin embargo, cabe recordar que no durante toda nuestra historia atribuimos sentimientos a los animales.
Kant tenía opiniones encontradas, por ejemplo, consideraba que eran solo cosas desprovistas de valores morales. Ahora sabemos que eso de que los animales no sienten no es así pero, a pesar de ello, tenemos "categorías" de animales que está peor torturar.
David Hume hablaba de la empatía como un sentimiento universal, base además de nuestro comportamiento moral. "Como soy capaz de ponerme en el lugar del otro, puedo comprender su dolor y empatizar con él". ¿Cómo puedo reconocer al otro? Sencillamente porque se parece a mí: si tiene mi apariencia, sufrirá como yo. Es por eso que, al igual que empatizamos más con animales más similares a nosotros —nos duele más que maltraten a un chimpancé que a una mosca—, podemos empatizar con máquinas en la medida en que se nos van pareciendo.
De esta forma, cabe la posibilidad de que existan "categorías sociales" dentro de las máquinas. "Podría hablarse de simples sirvientes del hogar, con pocas habilidades cognitivas y poca o nula consciencia, que podrían ser considerados como nuestros animales: se les protege jurídicamente pero no se les otorgan derechos; otros, más inteligentes y, quién sabe si más conscientes de la realidad que nosotros, podrían tener más derechos (acceder prioritariamente a ciertos puestos o cargos) pero, igualmente, más responsabilidades (por ejemplo, si nos imaginamos una IA que controla todo el tráfico de una ciudad, le deberíamos exigir que lo haga muy bien debido al gran desastre que causaría una mala gestión)" añade nuestro filósofo.

"Habrá que regularizarlo porque se convertirán en entes autónomas y por tanto serán capaces de realizar lo mismo que hacemos nosotros. Creo que una máquina es muy difícil que llegue a sentir, pero si lo llega a hacer, habrá que cuidar la crueldad. Y sí, también si llegamos a crear este tipo de entes habrá que limitarlos para que no se rebelen", afirma para Xataka Juan Maroñas, investigador en Inteligencia Artificial del Centro de Investigación Pattern Recognition and Human Language Technology, de la Universidad Politécnica de Valencia.
Nada menos natural que un derecho

¿Cuando las máquinas adquieran consciencia estaremos moralmente obligados a otorgarles derechos y deberes civiles? En cualquier caso, habría que redefinir muchas categorías jurídicas como confirman nuestros entrevistados. Efectivamente, si otorgas a un ser derechos, automáticamente, también le estás otorgando responsabilidades. Si tenemos el caso de inteligencias artificiales mucho más inteligentes que un humano, su capacidad para hacer el mal será mucho mayor y, en consecuencia, el régimen jurídico que regule su conducta ha de ser diferente. ¿Cómo haremos esto? Difícil pregunta.
El caso es que, como decíamos, no tenemos ni idea de qué es la consciencia —no podemos definirla, verla, mucho menos tocarla—, y los derechos normalmente se han aplicado en correspondencia al nivel de consciencia que nos suscita cada ser. No hay duda de que las plantas “sienten” o “perciben” su exterior: un girasol percibe donde está el sol y se gira hacia él, las raíces de las plantas acuden al sitio donde perciben humedad, etc., y sin embargo, no tienen derechos a la hora de que las pisen porque no podemos probar demasiado bien que lo sientan.

"Lo cierto es que esta perplejidad la llevamos sintiendo los seres humanos al menos desde tiempos de Descartes. En su época no había inteligencia artificial ni robots, naturalmente, pero sí lo que podemos considerar el preludio: los autómatas. Esos inventos llevaron a mucha gente a preguntarse: ¿cómo sé que algo de verdad tiene sentimientos o pensamientos?, ¿cómo sé si tiene conciencia? Fijémonos en que, de hecho, no estamos seguros ni siquiera de que las personas que nos rodean tengan mente: veo su cuerpo, sus actos, sus palabras, puedo incluso abrirles la cabeza y ver su cerebro, pero lo que nunca veré es su conciencia. La única conciencia a la que tengo acceso es la mía", comenta en entrevista para Xataka Miguel Ángel Quintana Paz, director del Departamento de Humanidades de la UEMC, profesor de Ética y Antropología, y autor del libro "Reglas. Un ensayo de introducción a la hermenéutica de manos de Wittgenstein y Sherlock Holmes".

Podemos intuir sentimientos en el cerebro, en ciertas hormonas, en ciertos signos de dolor, podemos medir ciertas ondas cerebrales… pero nada de esto es concluyente:
"Recordemos, por ejemplo, que hay personas inconscientes cuyas ondas cerebrales sin embargo reflejan patrones típicos del dolor: ¿están de veras sufriendo? ¿Sufrimos mientras estamos anestesiados, solo que no nos damos cuenta? ¿Es posible sentir dolor sin 'darse cuenta'?, ¿no implica una cosa necesariamente la otra? Sin embargo, si yo concluyera que soy el único ser consciente de la Tierra y que todos vosotros no sois sino cuerpos que fingís… me tomaríais por loco. Así, todos atribuimos sin dificultad a los demás una conciencia. ¿Por qué? Una buena explicación es la de tipo evolucionista: entender a los demás como seres conscientes nos facilita muchísimo el tratar con ellos. Hoy mucha gente está convencida de que su caniche o su gato siamés no solo piensa y siente, sino que es el ser sobre la Tierra que mejor les comprende. En una sociedad de personas solitarias y débiles como la nuestra, es comprensible esta tendencia. Antropomorfizamos continuamente".
Miguel Ángel comenta que, consiguientemente, cuando se desarrollen robots realistas se les atribuirán "sentimientos" antes siquiera de estar seguros de que los tengan, porque en realidad eso hacemos con todo lo que se nos parece.
Asumiremos amor, compasión, comprensión de nuestros problemas más íntimos... Daremos por sentado que son iguales a nosotros y, por tanto, les atribuyamos derechos muy rápidamente. "Vivimos en una sociedad en que los derechos están baratísimos, ya se le atribuyen a cualquier cosa: no solo a los animales o las plantas, sino incluso al agua, a la Tierra, a Dios, a los entes nacionales… Si estamos repartiendo derechos de modo tan barato por todas partes, a mí mismo me parecería injusto no darles unos cuantos también a los robots. Aunque también, naturalmente, habrá que darse cuenta de que unos derechos tan baratitos no valen de mucho".
"Cuando establecemos como nuestra norma moral máxima el no hacer daño a ningún ser que sienta, en el fondo, estamos siempre dependiendo de qué es lo que vemos y qué es lo que suscita en nosotros compasión. Todo aquello que me suscita un sentimiento de calorcito interior merece ser cuidado, es la máxima de nuestra sociedad emotivista actual. Así pues, imagino que las empresas que fabriquen robots serán listas y se adaptarán a esta ambivalencia. Por una parte crearán robots entrañables, hermosos y achuchables a los que atribuiremos derechos; pero por otro lado, crearán robots con aspecto despreciable, e incluso repugnante, con los que no tendremos demasiados problemas en desfogar nuestra crueldad como hoy se hace con ciertos videojuegos, o como nos muestra la serie Westworld. Es lo bueno del mercado: se adapta a las preferencias (y a la emotividad) del consumidor".
Una injusticia antigua que desarrollará un nivel más
¿Que la vida artificial acabe valiendo menos que la genuinamente biológica es injusto? Probablemente. Pero en nuestra historia los humanos hemos sido injustos muy a menudo: con otras razas, religiones, procedencias y gustos. También los hemos sido, y frecuentemente lo seguimos siendo, con otras especies. A veces no podemos, no queremos —o ambas cosas— ni tan siquiera saber cuándo causamos dolor o sufrimiento.
Según nuestros entrevistados nuestras creaciones podrían ser el siguiente capítulo en nuestro particular dilema moral. Un problema antiguo con un nivel nuevo que pondrá bajo examen nuestra capacidad como especie para reconocer el "sentir" de aquellos que no son exactamente iguales a nosotros. Qué deparará el futuro es difícil de concluir, pero sin duda Westworld dentro de su ficción ha mostrado una teoría, aunque cruel, muy posible.
Imagenes: HBO | Justin Peralta | Santiago Sánchez-Migallón Jiménez | Julia Koller | Juan Maroñas | Franck V. | Miguel Ángel Quintana Paz | Andy Kelly
Ver 101 comentarios
101 comentarios
Usuario desactivado
Por supuesto que es licito, son maquinas, objetos.
BackFlash
"... para que no se revelen". Debe ser "para que no se rebelen", de rebelión, rebelarse, rebelde..
jafriasvicente
Darle "derechos" a robots con cierta capacidad de pensamiento es estúpido. Los robots sirven para servir y trabajar sin darles ningún tipo de "capacidad consciente". No deberíamos intentar crear entes conscientes, no tiene sentido alguno. Romperéis la sociedad así, y los humanos lo sufrirán...
KOROtito
Es un dilema tan importante, que yo me hago esta pregunta todos los dias...
sashimi
El primer gran escollo al que se enfrenta este dilema es a la definición o determinación de dicha "autoconsciencia".
Si se puede determinar de manera fidedigna dicha "autoconsciencia", luego nos enfrentamos a otro dilema, la ley, ¿que diría la ley al respecto?, porque tengamos clara una cosa, habrá humanos que, aún sabiendo que a lo que están matando o violando és autoconsciente, moralmente, nada les impedirá seguir haciéndolo, és más, si saben que la máquina realmente sufre con sus acciones, más determinación tendrán en sus actos, vamos, lo que sería un tarado, que los hay y muchos.
A día de hoy lo único que frena a un tarado, es la ley y el castigo, no su moralidad o ética.
Un ejemplo claro, ¿és lícito o moral matar animales?, pues depende y aquí nos regimos por la ley, a día de hoy és infinitamente más autoconsciente un animal que una máquina y no veo que su muerte nos hayan planteado tantos dilemas.
Matar animales para el consumo humano és lícito, y ¿moral?, pues aquí me remito a nuestro pasado animal, estamos programados para alimentarnos de los animales que nos rodean, de hecho es una de las razones que a día de hoy estemos donde estamos, también hemos matado a animales para conservar territorio o sentirnos más seguros y como no, también los hemos matado porque hemos podido y querido, lo único que ha frenado a los humanos el exterminar especies enteras por divertimento es la ley, no la moral o la ética.
Esta moralidad se viene reflejando en los videojuegos, desde el momento en que está de "moda" tomar decisiones que afectan al resto o contadores de "bien o mal", hay gente que aún sabiendo que és una videojuego intenta ser justo dentro de lo que su "humanidad" le permite, intenta ser el bueno, en cambio hay gente que no, que le encanta reventarlo todo y que da rienda suelta a sus impulsos, sería esa "pequeña mancha negra que va creciendo" de la que habla William en la serie.
A todo esto, lo mejor es no llegar a dicho dilema, no es necesario crear una máquina autoconsciente, no la necesitamos y será nuestra ruina, nuestro último error será el jugar a ser Dios y en westworld se escenifica claramente el problema que nos supondrá a los humanos, porque del mismo modo que los humanos han luchado por su supervivencia hasta convertirse en la especie dominante aún a costa de exterminar a las especies que estorbaban, lo pueden hacer con nosotros, y no quiero entrar en el debate de si lo merecemos, o no, sigo pensando que no todos tenemos la culpa de que haya tanto tarado suelto.
qwerti2002
Un par de estos filósofos parten de la consciencia como punto cero cuando eso es falso, y además sólo le dan el nombre de "consciencia" conforme a loq ue sus sentidos recogen, poniendo la balanza en términos absolutos, 100% para humanos y 0% para toooooodo el resto de especies del planeta.
No parten, en su desarrollo del pensamiento, desde el eje de coordenadas para montar una teoría, sino desde el punto X,Y (el día que al primer homínido le dio por pensar como lo hacemos hoy día), es decir, en el aire. Como se comenta en otra teoría, a lo mejor la autoconsciencia no es más que un defecto en nuestro progama genético.
Partiendo de eso, decir que cuando ves que tu perro se para a pensar es "antropomorfizar", es declarar la propia limitación del pensador, que sólo puede ponerse en el punto de vista humano. Y sin embargo, piensan. Puede que no tengan sentido del tiempo, o no tengan la maldición del conocimiento de su propia pobre existencia y de la necesaria muerte que vendrá, pero piensan, y sufren, y saben que van a sufrir, pueden prever el castigo y se encogen.
Lo que me lleva a un tercer pensamiento ¿pensamos lo que hacemos, o solemos ir conforme a nuestro programa y luego buscamos justificaciones a posteriori?
Ah, una vez que nos quitan la exclusividad del alma inmortal, es más jodido definir y definirnos.
oracon
Los métodos actuales en la investigación de inteligencia artificial son matemático estadísticos, tomar enormes conjuntos de datos analizarlos y crear nuevos datos, en el caso de la robótica la maquinaria y sensores está muy poco desarrollados más para aplicaciones industriales, el caso del software en los campos de procesamiento del lenguaje natural siempre parece que existen poco avance por lo complejo del lenguajes humano la adaptación.
Aunque en este punto los sistemas se programan para responder lo que el creador desea, si un sistema puede tener billones de conversaciones o textos humanos analizarlos y puede obtener todos los puntos y formas de una buena escritura,narrativa,expresiones y emociones, con estos podría generar en segundos mejores novelas para humanos que cualquier escritor humano, ¿ sería consciente? Mejores discursos políticos,slogans,publicidad o cualquier texto que apele a los deseos y emociones humanas, se tendría a un sistema que para los “expertos” en conciencia sería consciente por que les dice todos los que ellos quieren oír,el sistema tendría todos los textos de todos los filósofos,escritores,analistas o personas en el campo con lo que sabria usar las palabras correctas en el orden correcto.
Crear sistemas simulen ser conscientes es posible, pero estos sistemas sólo hacen crean y analizan.
Otros sistemas que podría intentar recrear las estructuras y funcionamiento de cerebro, esperando que algunas reacciones químicas a nivel cuántico no sean un obstáculo para la recreación,esperando que esa estructura surga la conciencia.
Si los dos sistemas en apariencia sería indistinguibles para humanos, uno simulación todas las interacciones humanos y otro simulación el funcionamiento del cerebro.
El primer sistema se crearía muchísimo antes que el segundo y se integraría para el beneficio económico y social.
rinoku
todavía no he leído la palabra androide en ningún lado, osea que tampoco voy a malgastar mi tiempo con personas que solo han visto star wars y westworld. Ya que si hubieran leído k dick, asimov, jodorowsky o la ciencia ficción profunda, el space opera, o series como ghost in the shell o films como blade runner o 2001 igual hablarían un poco más con propiedad. Nosotros mismos somos "máquinas biológicas programadas" pero no sabemos ni como ni por qué ni para que. Pero siempre queda más chachi el individualismo al principio copernicano
stenmark
En serio?
En el siglo XXI existen robots autoconscientes ?
drkwzrd
Toda esta discusión termina en el momento en el que NO SON ÚNICOS. Tiene una copia en "La Cuna" (bueno...) y se puede reparar ad integrum cualquier cosa que les hagan.
El ser humano es único por definición.
SON MÁQUINAS, MÁQUINAS, ¿vamos a empezar a hablar de "los derechos humanos de las máquinas"? Pues va bien esta sociedad, va de p*** madre.
Y toda la parafernalia filosófica sobre la consciencia es un chiste. Porque no sois Asimov ni Aristóteles ni Platón, y ni ellos pudieron definir la singularidad que diferencia de la que no. Si no podeis trazar la línea que separa A de B, no podeis trabajar en convertir B en A porque no sabeis lo que los diferencia, ni cuando B será A. Pero bueno. Artículo de tintes progresistas que actualmente parece un chiste, pero que a lo mejor pasados los años se convierte en el pan de cada día como hoy estamos con otras cosas también poco importantes.
rober7064
Curiosamente, la serie plantea una tesis opuesta en su último capítulo. Y es algo que dicen muchos científicos hoy, pero es un callejón sin salida. Tenemos que hacer como si, aunque no. No digo más, por lo de los vilipendiados "spoilers".
El Veterano
En estos momentos estamos tan lejos de lograr conciencia que el tema es banal. En un futuro a medio e incluso medio largo plazo tampoco, por tanto el debate es innecesario.
Si romper máquinas crea locos, los mismos que puede crear los videojuegos.
Qué si los videojuegos crean locos? Si la adicción es grande ayuda desiquilibrar la mente por vivirse fuera de la realidad, de forma que según las personas.
Sinceramente mejor gastar energías en cosas más cercanas que temas hipotéticos, en un sentido estricto de la palabra, como programador digo que la inteligencia artificial de momento como tal no existe.
mrpika98
Curiosamente la gran mayoría de los que defienden el dar derechos a robots son los que menos saben del campo de la programación. Todas las máquinas necesitan y necesitarán ser programadas, de una manera más sencilla o más compleja. Hace algo porque tú planeaste que lo hiciera.
A este paso el brazo mecánico que está en la Volkswagen soldando la carrocería de los coches se va a pillar vacaciones en agosto para irse a Salou a veranear con su mujer brazo y sus bracitos bebés. Anda ya...
oscarmr
Los robots por muy conscientes que quieran simular, tan solo corren programas.
Un robot siempre estará muerto.
Por lo tanto siempre se le podrá destruir, y si os tiembla el pulso, ya me cargo yo a Wall-E...
Usuario desactivado
Buen artículo. A veces comentar series de televisión permite discutir temas profundos como este, que se puede resumir en una sola pregunta (ya clásica): ¿Qué nos hace humanos?.
fernado
El ser humano es sadico y morboso por naturaleza. Quizás un parque tematico donde podríamos matar robots por placer permitiría a muchos sadicos expresar su verdadero yo dentro del parque y no en el mundo real, Cómo pasa con William en la serie.
Y no le veo el problema a crear seres artificiales conscientes, cuando el ser humano destruya su ecosistema y acabe los recursos esos seres conscientes serán los que dominen el planeta como nuestra nueva etapa de la evolución humana. Que pruebas tenemos de que nosotros no somos lo mismo?.
derfbackderf
Los hombres crean a esos seres, por tanto son sus dueños y pueden hacer con ellos lo que quieran.
velocidad
El artículo es interesante pero...
"¿Y cuando no haya en realidad diferencias? ¿Dónde está el límite que separa la máquina del hombre?"
Es que siempre va haber diferencias, primera y principal, el hombre es un ser vivo y es lo que es por millones de años de evolución. La maquina la crea el ser humano, y si consideramos a las máquinas otra especie, y al inicio de la IA en la 2ª guerra mundial, pues tienen 130 años de evolución. La evolución de la IA única y exclusivamente depende del ser humano. Y en la otra evolución, la del propio ser humano, han intervenido no solo otras especies sino otros muchos factores, clima, situación en el cosmos, extinciones y un largo etc... Por no hablar de que cada ser humano tiene siempre dos raíces, padre y madre. ¿También pasará esto con las IA? ¿Se parecerán a sus padres?
""Un parque de atracciones como el de Westworld sería muy peligroso en este sentido ya que estaríamos diseñando un trampolín hacia lo que la filósofa alemana..."
Esto me recuerda el tópico, no fumes porros que eso lleva a la cocaína y a la heroína.
"Si llega el día que los robots puedan sentir, se dará una situación similar a lo que ocurre con los animales ahora: que necesitaremos protegerlos de quienes se niegan a aceptar que tienen derechos. "
Solo hay una pequeña diferencia, si los robots son como nosotros, a diferencia de los animales, el robot puede coger un fusil y matar al cazador antes de que lo mate.
Podría seguir, pero vamos en definitiva, me parece un tema sacado de contexto, que difícilmente llegaremos a ver, al menos en ese formato. Todo esto se parece mucho a los las muñecas con aspecto de niñas. ¿Aparecerían más pederastas? pues no lo creo, y con los robots y los asesinos/violadores, pues lo mismo.
Exos
Me encantan los experimentos mentales que se hace en la ciencia ficción, como en Wedtworld o Black Mirror. Sin embargo, no creo que vayamos a diseñar robots o inteligencias artificiales por disfrute, para otorgarles el estatus de persona y sus derechos ¿Qué sentido crear un software que es como nosotros y se cuestione obedecer, se aburra de hacerlo o peor, que tenga derecho a no obedecer por simple voluntad no por contravenir leyes. Ese tipo de creaciones sólo tendrían sentido para estudiarnos a nosotros mismos, modelos de la mente humana para experimentar, y aún así estarían limitados para evitar dilemas morales.
Aún así, que conste que me encantan estos debates éticos.
People tend to hate me 'Cause I never smile
Robot autoconsciente. No comment. Siguiente click bait por favor.
pableras
Pse. Estoy de acuerdo con lo de banalizar el mal.
Si se diese rienda suelta a nuestros apetitos más oscuros, luego seríamos capaces de controlarlos? Ahí es donde veo yo el problema, en el humano y su interacción con otros seres vivos.
Las máquinas, máquinas son. A este paso le vamos a tener que pedir permiso a las maquinillas eléctricas cuando nos queramos afeitar los huevos (o la línea del bikini) no vaya a ser que alguien lo considere un trabajo denigrante.
El tema me parece bueno, el desarrollo completo. Las conclusiones, excesivamente buenistas. Las máquinas NO sienten. Por más que os empeñéis en colgarle la etiqueta inteligente a todo, no lo son. Ni tampoco son seres vivos. Ni tienen la capacidad de sentir. Simplemente, procesan información.
PS 1: no hay ningún psicólogo o biólogo o médico en la sala que pueda aportar otro punto de vista más científico además de los dos filósofos?
PS 2: llegaremos al punto de criminalizar a Sarah Connor por no respetar los derechos del T800? Sintió dolor cuando le aplastó con la plancha?
eufrasio
Lo que no debería ser licito es hacer series tan malas.