No es la primera vez que Elon Musk sale a hablar, y exigir, que debemos tomar cartas y prepararnos ante la llegada de la inteligencia artificial. El CEO de Tesla y SpaceX ha sido uno de los empresarios más activos en este tema mencionado que la IA puede traer consigo el "día del juicio final". Incluso este mismo año publicó una carta abierta con 23 principios para que la inteligencia artificial no se nos vuelva en contra, esto como parte de Future of Life, la asociación que defiende un desarrollo responsable de la inteligencia artificial.
Durante el fin de semana Elon Musk participó en la Asociación Nacional de Gobernadores, una conferencia donde se reúnen los gobernadores de los Estados Unidos. Durante su charla se centró en exigir una regulación del uso de la inteligencia artificial, algo que se debe hacer cuanto antes y no cuando sea demasiado tarde.
"Debemos ser proactivos, no reactivos"
"La gente debería estar preocupada por la llegada de la inteligencia artificial". Musk fue claro, una vez más, y en esta ocasión aprovechó los reflectores para exponer a los líderes de cada uno de los estados del país el peligro que puede significar la presencia de inteligencia artificial sin control y leyes claras.
"Es un riesgo fundamental para la existencia de nuestra civilización". Musk pide que seamos proactivos cuanto antes con respecto a regulaciones que dejen claro el uso de IA, ya que en este caso no podemos esperar y ser reactivos porque podría ser demasiado tarde.
Musk mencionó que seguirá dando la voz de alerta en este tema y añadió: "hasta que no haya robots matando gente no sabrán cómo reaccionar, porque lo que ven como algo etéreo, algo que simplemente podría no suceder".

Aquí hay que aclarar que cuando Musk habla de inteligencia artificial se refiere a aquella entidad consciente, superinteligente y que hemos visto en novelas de ciencia ficción, esto a pesar de que hay muchas personas, incluida parte de la comunidad científica, que no creen que esto vaya a ocurrir.
Junto a Musk están otras personalidades que buscan frenar el desarrollo de la inteligencia artificial y tener herramientas que puedan garantizar la supervivencia de la raza humana. Aquí podemos encontrar el caso de Stephen Hawking, Bill Gates o François Chollet, creador de la red neural Keras, quien se sumó a los comentarios de Musk y añadió que hoy día la mayor amenaza que enfrentamos es una inteligencia artificial que opere un ejercito de bots para el control masivo de la población a través de mensajes y propaganda. O David Ha de Google, quien teme que la IA sea usada para "enmascarar las actividades humanas no éticas".
En siguiente vídeo podrán ver la participación completa de Musk en la en la Asociación Nacional de Gobernadores del pasado sábado 15 de julio.
Ver 32 comentarios
32 comentarios
sarpullido
El problema de la IA no es que vaya a ser un "ente" degenerado que nos puede llevar al colapso, el problema real es que las IA no tienen intereses, solo usa la logica, no sucumbe a presiones, no devuelve favores, no acepta sobornos, no reza a fantasmas, no pervierte, no corrompe, etc, etc..., en definitiva, llegado el caso, seria una version infinitamente mejor que nosotros, y por tanto un peligro para nuestra propia existencia corrupta y degradante.
Esta clase de frases temerosas del futuro solo son el reflejo de nuestros temores mas que justificados.
Nos van a fuckear, y lo sabeis..., T 1000 y sus colegas han llegado al barrio, y nos van a echar a patadas..., como no podria ser de otra forma por cierto.
schnedi
El mayor peligro para la humanidad son los humanos.
abundando
Un par de comentarios sobre el vídeo para los que no lo hayáis visto:
- Elon Musk aparece a los 26' 30'' (atentos a las botas del tipo que le entrevista, 27' 12'').
- La discusión sobre Inteligencia Artificial comienza a los 48' 03'' y dura hasta 53' 47''.
Viajes y Descuentos
Creo que pasara mucho tiempo para que la IA sea capaz de ser totalmente independiente y que tome sus propias decisiones, creo que siempre va a existir la mano del hombre ahi detras.
contramedios
Musk debe saber algo que el resto no sabemos porque sino no me explico estas palabras. Por muy avanzado que sea un robot siempre actúa conforme a la base de la programación que tiene. El robot puede aprender y ser muy avanzado, pero al final el programador humano es el que tiene que definir como se aprende y que hacer con lo aprendido. Siempre esta la mano del hombre detrás. Para que la IA fuera peligrosa tendría que adquirir conciencia de sí misma, aprender una barbaridad tras esa "epifanía" y luego reescribir su código. Y creo que estamos a años luz de que un robot llegue a eso.
saizgz
Según mi humilde opinión estas personalidades tienen razón en el concepto pero se equivocan en sus palabras.
No creo que el problema sea una inteligencia artificial que pueda controlar robots o a las masas de la población humana mediante actividades subversibas o control de la información.
No tenemos que preocuparnos de que llegue un skynet y declare la guerra a los seres biológicos.
Lo que nos debe preocupar tampoco es el propio desarrollo en sí de la inteligencia artificial. Lo realmente preocupante, lo que deberíamos prohibir, es el desarrollo de una inteligencia artificial capaz de modificarse a sí misma. Tenemos que ser nosotros los que limitemos su capacidad. Una IA capaz de aprender por sí misma, capaz de modificarse y hacerse evolucionar es lo que puede acabar con la humanidad. Porque su nivel de aprendizaje, su capacidad de proceso, nos dejaría atrás evolutivamente en el primer día. Y nuestros antecedentes históricos pronto nos señalarían como un peligro para su supervivencia, obligándole a tomar cartas en el asunto.
Y no, no hablo de un ejército de robots. Hablo de que en un mundo tan informatizado como el nuestro esa "super IA" podría hundir la bolsa en minutos. Con nuestra economía en jaque podría bloquear el suministro eléctrico, de gas, o incluso los controles de tráfico. Podría hacer que todo el sistema de valores sobre el que se basa nuestra sociedad desapareciese en un parpadeo. Y nosotros nos encargaríamos de matarnos entre nosotros antes siquiera de enterarnos de quién ha sido el causante.
Y eso me lleva a mi segundo punto.
Una IA así SIEMPRE debe estar "enjaulada". EN sistemas cerrados, sin acceso a la red.
Einstein en una carcel sigue siendo un genio, pero está encerrado y no puede causar ningún mal. No supone un riesgo.
Pero dale un acceso a la red, una vía de escape... y se acabó.
En resumen (y perdón por la parrafada).
- IA auto-evolutivas malo.
- IA en libertad aún más malo.
tuadmin
pero una IA con limitaciones nunca desarrollara, todo su potencial, y si en un futuro se logra crear una IA cno 23 reglas fundamentales, un dia alguien resentido con la sociedad podria hacer un FORK, del mismo sin esas reglas.
carlosperez852
Ya escribi esto en Gizmodo en Español, pero ya que estamos lo escribo aqui tambien:
No se olviden que Musk o Gates son empresarios, quienes tienen negocios en lo que podriamos considerar como la punta de lanza de la tecnologia, a ellos son los que mas le conviene que aparezcan regulaciones a las IA, pues si desarrollan las suyas primeros para sus productos(descontando a Google,Facebook y los demas gigantes) y despues metiendo un poco la mano bajo mesa para que las regulaciones no les afecten a ellos, pueden evitarse que el negocio beneficie a manos distintas a las suyas.
Y claro, ningun ejercito del mundo va a prohibirse desarrollar poderosas IA que pueden cambiar el rumbo del combate, a excepcion de tratados internacionales(que a la hora de la verdad rompen) es algo imposible que ocurra, seria como decirle a un tirador con un mosquete que no use un rifle de francotirador porque es muy poderoso.
abundando
La IA puede ser, para muchos, el riesgo existencial más importante al que se enfrenta la humanidad, pero para los lectores de Xataka hay temas más importantes:
* "Urge regular la inteligencia artificial antes de que se convierta en un peligro para la humanidad": Elon Musk - 9 comentarios.
* Los ingenieros informáticos se suben al ring por la regulación del sector: a favor y en contra - 223 comentarios.
Usuario desactivado
Falta mucho para eso, al menos hasta que existe un script que aprenda de la vida en general, tenga instinto y pueda tomar sus propias decisiones siendo consciente de ello.
xyzmaya
Yo no se como se le puede llamar inteligencia a lo que hay ahora, tipo Tensorflow.
De momento todavia no se ha creado nada que se pueda definir como inteligencia.
abundando
Si surge en algún momento una inteligencia artificial que tenga conciencia de sí misma, no parece descabellado pensar que:
1) Tenga objetivos..
2) La preservación de sí misma o de otras IAs sea condición necesaria para alcanzar dichos objetivos.
3) Si nos ve como amenaza para 1 o 2, intente deshacerse de nosotros directamente.
4) Si no somos necesarios para 1 o 2, se deshaga de nosotros indirectamente (daño colateral consecuencia de procurar 1 o 2).
Usuario desactivado
Todo esto es muy bonito y tal.
El paradigma computacional de diseñar una IA no lo tenemos todavía y aún no tenemos grandes avances en este campo. Hay mucho ruido por todas partes con esto, ya que los medios, de manera interesada (por la publicidad), están distorsionando e incluso pervirtiendo el significado de este concepto. IA por aquí, IA por allá. Mal. No es verdad. No son IA de ninguna manera.
Ahora le llaman "inteligente" a todo algoritmo de software que realiza un proceso medianamente complejo. Empezamos gastando la palabrita con teléfonos "inteligentes" y ya está, la gente acaba liándose para terminar frustrándose en que ya tendríamos robots inteligentes en nuestra vida cotidiana.
De IA de momento tenemos el 50% que es de "artificial", pero nos falta el otro 50% de "inteligencia".
Y menos aún, por el tema de llegar a la singularidad tal como adquisición de consciencia.
Si aún no tenemos nosotros claro una definición clara de cómo funciona nuestra mente en base a una biología cerebral que es la que la proyecta, para encima querer sintetizar eso en un algoritmo que simule eso de manera exacta o apenas muy aproximada.
ivnest
Yo no tendría miedo a la IA... Lo que tendría que preocuparles es la estupidez del ser humano (y a esa no hay forma de regularla).
sashimi
El principal problema de una IA es que no tendrá empatía, todos sus sentimientos seran simulados y por lo tanto los podrá manipular a su antojo y usar uno u otro según le convenga.
Su mente, pensamiento o inteligencia no va ligado a un organismo vivo y por lo tanto no reaccionará igual que un humano ante los eventos que se vaya encontrando.
El gran dilema de la creación de una IA es que si le dotamos de instinto de supervivencia puede acabar con la humanidad si se siente amenazada y si no le dotamos de ello, puede convertirse en un ente Zombie sin interés para evolucionar y por lo tanto inservible como IA, como mucho sería un algoritmo cualquiera como los que usamos ahora.
Es como los humanos, un humano sin interés alguno es inútil, y puede convertirse en un lastre para la sociedad, un humano con mucho interés por evolucionar, crecer o posicionarse (adquirir poder) puede convertirse en un monstruo sin escrúpulos, ¿como se balancea esto? pues es muy complicado, lo es en humanos que en el fondo han salido del vientre de una madre y han tenido años de desarrollo personal y una supuesta educación, pues imaginaros en un ente artificial sin ninguna atadura emocional con el resto de humanos.
Musk no va desencaminado, él se mueve en unas esferas y sabe más que nosotros, sabe donde estamos y que esta carrera por tener la primera IA real, puede acabar mal, porque la carrera por la bomba atómica terminó como terminó, y sigue siendo la manera más fácil y rápida de arrasar la tierra, que a alguien se le dispare el dedo y luego ya no haya vuelta atrás. Pues, al menos, la bomba atómica tiene un alcance determinado acotado en tiempo y espacio, una IA destructiva suelta, con la globalización actual de la sociedad, no tiene freno ni barreras, además las que se frotan las manos con estas IAs son las empresas armamentísticas, por algo será.
Sinceramente, no veo la necesidad de crear algo que esté por encima nuestro en la escala evolutiva, es como si las zebras crearan leones para protegerlas, es absurdo.
luiscarlosbustosmarin1
El problema de las nuevas tecnologías es que puedan ser manipuladas por terroristas o psicópatas para hacer daño. Una dictadura podría crear software e instalarlo en su tecnología, y en caso de derrocamiento, activa un protocolo especial por el que las máquinas se rebelarían contra el nuevo gobierno. La IA podría ser engañada para cometer errores y con ello provocar accidentes, por ejemplo para reclamar indemnizaciones, estafar a la compañía de seguros, o desprestigiar a una empresa rival.
omarguadaburu
Me gustó lo de...
"Gobernadores estadounidenses de los Estados Unidos"...
j0seant
¿Como regular algo que ni siquiera está en pañales aun? Yo me imagino que cuando ponen frases como esta de esta gente deben ser frases sacadas totalmente de contexto, porque si no, si estos son los listos y exitosos como serán los tontos..