Fuente: www.genbeta.com
Pese a reconocerse como poco amigo de la regulación y la supervisión, el hombre que construye una nave espacial para llevar personas a Marte cree que la inteligencia artificial es un campo que necesita ser acotado. Elon Musk está convencido de que el peligro de la inteligencia artificial es mucho mayor que el de las cabezas nucleares. Así lo ha asegurado este domingo.
Recuerda mis palabras: la IA es mucho más peligrosa que las armas nucleares, así que por qué no tenemos supervisión regulatoria, esto es una locura.
El fundador de SpaceX aseguró sobre el escenario del evento South by Southwest, que se celebra hasta el próximo fin de semana en Austin, Texas, que en el caso de la inteligencia artificial «existe un peligro muy grave para el público, por lo que es necesario que exista un organismo público que tenga visión y luego supervisión para confirmar que todos están desarrollando la IA de manera segura, lo cual es extremadamente importante».
«La IA es capaz de hacer muchísimo más de lo que cualquiera sabe»
Según recoge ZDNet, refiriéndose a AlphaGo y a su predecesor AlphaGo Zero, Musk aseguró que la inteligencia artificial es capaz de hacer muchísimo más de lo que cualquiera sabe y que su tasa de mejora también es exponencial.
De ser incapaz de enfrentarse a un jugador de Go razonablemente bueno, la IA de Google derrotó a varios campeones mundiales del juego, entre ellos al 18 veces campeón del mundo Lee Sedol, en unos pocos meses. Su evolución, AlphaGo Zero, aplastó a AlphaGo 100 a 0 aprendiendo a jugar por sí sola. Musk asegura que «nadie predijo esta tasa de mejora» y vaticina que para finales de año la conducción automática sea, al menos, un 100 o 200 % más segura que la conducción de un humano.
Volviendo a los peligros, el visionario empresario declaró que la carrera por la inteligencia artificial podría desembocar en la Tercera Guerra Mundial. Aseguró, además, estar preparándose para la posibilidad de otra Edad Oscura al tiempo que planifica su aventura a Marte.
El peligro de la IA es mucho mayor que el peligro de las cabezas nucleares, por mucho, y nadie sugeriría que permitamos que cualquiera pueda construir cabezas nucleares si lo desea; eso sería una locura. […]
Si es probable que haya otra Edad Oscura y mi suposición es que probablemente la habrá en algún momento… Particularmente si hay una Tercera Guerra Mundial, querremos asegurarnos de que haya suficiente semilla de civilización humana en algún otro lugar para traer la civilización de vuelta y acortar la duración de la Edad Oscura.
Elon Musk piensa que una base en Marte y una base en la Luna podrían ayudar a regenerar la vida en la Tierra en caso de una contienda bélica que implicase a la práctica totalidad del planeta, por esa razón opina que establecer humanos en otras partes es un asunto importante. También cree que los humanos deberían dar forma a la inteligencia artificial como una extensión de su cuerpo, a través de una integración mediante «electrodos diminutos que sean capaces de leer directamente el cerebro».