¿Es más probable que muera por cáncer o sea eliminado por una computadora malévola??
Ese pensamiento probablemente nunca se le ha ocurrido, pero ha estado molestando tanto a uno de los cofundadores de Skype que se ha asociado con los investigadores de Oxbridge que intentan predecir qué superinteligencia de la máquina significará para el mundo, para mitigar los Amenaza existencial de nueva tecnología, es decir, la posibilidad de que destruya la humanidad.
La tecnología ha sido durante mucho tiempo una fuente de peligro en las fértiles imaginaciones de los novelistas de ciencia ficción, pero la idea está ganando apoyo académico, con investigadores del Instituto Futuro de la Humanidad (FHI) de la Universidad de Oxford que se unen a los del Centro recién lanzado para el estudio de riesgo existencial (CSER) en la Universidad de Cambridge para analizar más ampliamente las posibles repercusiones de la nanotecnología, la robótica, la inteligencia artificial y otras innovaciones.
El concepto es simple, pero las soluciones son cualquier cosa menos. Los investigadores están tratando de evitar una situación en la que nos burlemos de nosotros mismos, y creamos un sistema que a su vez puede inventar sus propias tecnologías, que podría "vaporizar" a la humanidad, no porque sea malvado, sino simplemente porque no pudimos prever el largo plazo ramificaciones de cómo lo programamos.
Sopesando los riesgos
Esta idea ha sido estudiada desde 2005 por el FHI, a la que se unió el año pasado el CSER, fundada por Huw Price, Bertrand Russell Profesor de Filosofía en la Universidad de Cambridge, el astrónomo Royal Lord Martin Rees y Jaan Tallin, cofundador de Skype.
¿Tenemos más probabilidades de morir por un accidente de IA que por cáncer o enfermedad cardíaca??
El instituto fue provocado en parte por una conversación entre Price y Tallinn, durante la cual este último se preguntó: "En sus momentos pesimistas", si es "más probable que muera por un accidente de IA que por cáncer o enfermedad cardíaca".
El anuncio de lanzamiento de CSER comenzó con lo que suena como la premisa de una broma nerd, pero rápidamente se volvió más serio: “Un filósofo, un científico y un ingeniero de software se han unido para proponer un nuevo centro en Cambridge para abordar los desarrollos en tecnologías humanas que podrían Pose los riesgos 'a nivel de extinción' para nuestra especie, desde la biotecnología hasta la inteligencia artificial."
Suena fantástico, pero el trío y sus colegas de Oxford son serios mortales. El trabajo también tiene raíces largas. En 1965, Irving Good, un amigo de Alan Turing que trabajó en Bletchley Park, describió la primera "máquina ultra inteligente" en una luz positiva en un nuevo artículo científico, señala el CSER.
"Esta máquina, continuó, sería la" última invención "que la humanidad hará, lo que lleva a una" explosión de inteligencia ", un aumento exponencial en la inteligencia de la máquina autogenerada. Para Good, quien aconsejó a Stanley Kubrick en 2001: una odisea espacial, la 'supervivencia del hombre' dependía de la construcción de esta máquina ultra inteligente ", dijo el comunicado de CSER.
"Si bien pocos negarían los beneficios que la humanidad ha recibido como resultado de su genio de ingeniería, desde una vida más larga hasta redes globales, algunos comienzan a cuestionar si la aceleración de las tecnologías humanas dará como resultado la supervivencia del hombre, como bueno o si De hecho, esto es lo que nos terminará ”, dijo el CSer solemnemente.
Problema singular
En el centro de esto, esto es una idea comúnmente conocida como "singularidad", el punto en el que la tecnología puede comenzar a hacer su propia tecnología y volverse más avanzada que nosotros, lo que hace imposible predecir lo que viene a continuación.
El filósofo Nick Bostrom, el fundador de la FHI de Oxford, duda en usar esa palabra, ya que significa "tantas cosas para diferentes personas, todas enrolladas en este paquete de expectativas sin aliento". En cambio, como dijo en una conferencia realizada por el economista a principios de este año, simplemente se refiere a la "superinteligencia".