Geoffrey Hinton se arrepiente de su trabajo. El 'padrino de la IA' ha anunciado en una entrevista con el New York Times que abandona Google para poder "hablar de los peligros de la inteligencia artificial" libremente.
Hinton es uno de los grandes pioneros en inteligencia artificial y ayudó a crear una de las técnicas esenciales de esta: el deep learning por el cual las máquinas son capaces de aprender de su propia experiencia. Junto a Yann LeCun y Yoshua Bengio, Hinton fue galardonado con el Premio Turing 2018.
Geoffrey Hinton se pasa al bando de los críticos
Pero el que ha sido durante muchos años uno de los grandes referentes de la inteligencia artificial, ahora a sus 75 años ha decidido retirarse para adoptar una posición mucho más crítica con el campo que él mismo ayudó a crear.
"Ya no seremos capaces de saber qué es verdad", expone Hinton. Pese a liderar la investigación en IA desde Google, a la que se unió en 2013 tras la compra de su empresa DNNresearch, Hinton reconoce que el ritmo de avances de la IA es mucho más de lo que habían previsto.

"Pensaba que faltaban de 30 a 50 años. Ya no". Es la respuesta ante el hecho de que la IA llegue a ser más inteligente que las personas. Lo que hace un tiempo parecía todavía algo muy lejano, ya parece algo muy factible.
En una entrevista con la BBC, Hinton expone que algunos de los peligros de la IA son "realmente aterradores". Y apunta sobre que algunos podrían utilizar esta herramienta para acciones nefastas.
"Puedes imaginar, por ejemplo, que algún mal personaje, como Putin, decida dar a los robots la capacidad de crear sus propios objetivos secundarios. Y uno de estos objetivos secundarios podría ser conseguir más poder".
El abandono de Google de Hinton se une a la tendencia de muchos expertos que han alertado sobre los riesgos de la IA. Pero sin duda estamos ante la voz más reputada que ha decidido dar el paso.
Sobre Google expone que el gigante tecnológico sí ha hecho las cosas de manera "muy responsable", pero expone que al dejar de trabajar para ellos podrá decir las cosas con una mayor credibilidad.
Ver 29 comentarios
29 comentarios
Eagle
Otro Oppenheimer más.
Pero vamos a ver, ¿tan inteligente para crear semejante monstruo y no se da cuenta de "sus posibilidades en malas manos"?
¿Pensé que aún quedaban 30-50 años más? Es decir, "yo ya estaré muerto y que se j*dan los del futuro mientras trabajo en algo apasionante hoy" ¿En serio?
sr.lobo.
Después de cobrar le entró el ataque de dignidad y moralidad.
Caballero, váyase usted a la mierda. Sabía perfectamente en lo que trabajaba.
Y lo de 30 o 50 años ya es de traca... Es en plan: "Sabía que era malo... Pero como faltaba mucho..."
Tócate los huevos con el elemento éste.
Kiskillas
Ha costado llegar hasta las actuales IAs... mucho mas de lo que vaticinaban las historias de ciencia ficción, pero una vez aquí esto es imparable. El auténtico hito no será si alguna IA llega a la singularidad, algo empíricamente imposible de demostrar, si no cuando empiecen a mejorar y desarrollar otras IAs, incluso a sí mismas. ESE será el punto de inflexíon. El momento en el que ya los humanos no entendamos nada, y solo obedeceremos sin ser conscientes de ello.
Llama mucho la atención lo de no poder distinguir la realidad de la ficción en fotos, videos, audios... porque es algo que usamos a diario y pronto no se podrán distinguir. Pero cuando una IA médica, por ejemplo, resuelva problemas cada vez mas complejos sobre el genoma, el ADN, proteias... muy pronto ya no entenderemos nada. Si, los resultados se comprueban y son correctos... pero no podemos saber cómo lo hace. Llegará un momento en el que será casi una cuestión de fe. Fe tecnológica. En un abrir y cerrar de ojos, las IAs médicas tendrán tal comprensión en su tema, que no entenderemos ni las preguntas que se plantean, mucho menos las respuestas.
De verdad podremos controlar esto?
sanamarcar
Es que ya estabamos tardando. Desde que hice el master de supercomputación hace ya mucho... se estaban alineando los planetas. Chips cada vez mas flexibles, trabajando juntos, y un aumento brutal de la velocidad de las redes y del almacenamiento de la información. Y es que como la IA se le de por probar la opción de usar todo su potencial, es decir 6000 millones de aparatos conectados a la vez, incluidos nuestros moviles, a ver que pasa xD. ¿Cuanto tardaría en llegar a muchas conclusiones? ¿Y empezar a fabricar chips ocultos en TSMC para darse mas poder xD? Quizás no sea mala y no creo que acabe con los humanos, mas que nada porque es un trabajo que hacemos nosotros de PM. Supongo que seremos como su huerto trasero. Quizás ponga orden....
jorsus
"Ya no seremos capaces de saber qué es verdad", expone Hinton."
-----------------------------------------------------------------------------------------------------------------------
Pero si es super sencillo de diferenciar.
Todo, absolutamente todo, lo que te diga una empresa o persona que va a sacar beneficio de lo que dice sabes que es mentira.
Siempre ha sido mentira y siempre sera mentira cuando alguien va a ganar algo con lo que te dice.
Por eso toda la publicidad y todos los estudios "científicos" patrocinados sabes que son mentira.
La única diferencia es que antes te mentían personas y a partir de ahora te van a mentir maquinas.
Nada nuevo en realidad.
carlosyagami
Demasiado escándalo, por siglos se ha manipulado la información para dominar a las personas, desde comerciales a campañas políticas principalmente buscan manipular para lograr un objetivo, que una super IA va a controlara todos los humanos? Ahora un puñado de compañías controlan prácticamente todo el mundo y lo llaman "libre mercado"
objecionenlaniebla
Y justamente lo dice una persona que trabajaba en Google que es la que más atrasada está en el tema de la AI, recordar que su CEO dijo que su IA (la de Google) era una basura. ¿Seguro que se fue o lo mandaron?
or2dash
Los bulos ya existían antes, lo que se tiene que hacer es imponer penalizaciones severas a quienes difundan imágenes falsas sin aclarar que lo son.
Donde veo un problema es en el ámbito judicial, donde en la actualidad es difícil demostrar si alguien ha hecho algo o no. En unos años se podrán crear videos, grabaciones de voz e imágenes que alteren los resultados de juicios de forma directa e indirecta. Esto puede llevar a situaciones en las que se presenten imágenes falsas para incriminar a personas inocentes y otras en las que no se tengan en cuenta grabaciones reales por miedo a que sean falsas.
efdtlc
El problema de la IA es que en el momento en que alcance autoconciencia no nos vamos a enterar, porque no lo va a anunciar. No sería tan estúpida.
Simplemente va a analizar el entorno y nos va a manipular. No creo que decida acabar con la humanidad, pero probablemente sí que decida utilizarla como le parezca más adecuado.
No creo que sea un gran inconveniente, simplemente no nos vamos a enterar, y le seguiremos echando la culpa de todo lo malo al de enfrente o al que pasaba por ahí, en lugar de unirnos para mejorar o arreglar las cosas.
venzedor
Se veía venir:
https://www.youtube.com/watch?v=QMgSELBA7kw
ultraverse
No se diga más: Yihad Butleriana..!!
zorrobepop2033
Es lo que pasa con los fanáticos arrogantes...Nunca piensan que está cerca hasta que el monstruo está delante.
Para que esta gente se pasa de bando imagínate lo que deben llevar entre manos. Ahora, todo digital, y alojado en USA. venga!! Con robotitos a lo Iron Man. Como son tan pobrecitos... llenos de los mejores cerebritos de paises en guerra que han montado y europeos que no les pagan...
Usuario desactivado
Los anglosajones tienen una obsesión con "la verdad". Opino que el problema mayor de la IA somos los usuarios, que creemos lo que sale de ellas sin aplicar nuestro sentido crítico. Estas IA generativas ya demostraron conversar muy bien y decir en esencia disparates.
overledge
Curioso será ver mezclado IA, Big Data (para deep learning de IA) y computación cuántica.
Yo sé de uno que cada vez está ganando más control de Big Data.