¿Por qué Elon Musk y otros científicos quieren pausar los experimentos de IA por 6 meses?

Piden que se haga una pausa como ya se ha hecho en el pasado con la energía nuclear o la ingeniería genética

La inteligencia artificial (IA) es una de las tecnologías más prometedoras de nuestro tiempo, pero también una de las más controversiales y considerada por algunos como potencialmente peligrosa. 

Algunos de los líderes y expertos más influyentes del sector tecnológico, como Elon Musk, Steve Wozniak, Yoshua Bengio y Ramón López De Mantaras, han firmado una carta abierta en la que instan a pausar por 6 meses los experimentos con IA muy potente, es decir, aquellos que superan o se acercan al nivel de inteligencia humana.

 

Los argumentos a favor de la pausa

Los firmantes de la carta abierta, publicada por el Future of Life Institute, una organización sin ánimo de lucro dedicada a reducir los riesgos existenciales de la humanidad, sostienen que la IA avanzada podría representar un cambio profundo en la historia de la vida en la tierra, y que debería planificarse y gestionarse con el cuidado y los recursos correspondientes.

Según ellos, los laboratorios de IA se han lanzado a desarrollar mentes digitales cada vez más poderosas, sin tener en cuenta las posibles consecuencias negativas para la sociedad y la humanidad. Estas mentes digitales, afirman, son tan complejas y opacas que nadie, ni siquiera sus creadores, puede entender, predecir o controlar de forma fiable.

Los riesgos que ven son variados y graves: desde la pérdida de empleos y la desigualdad social, hasta la manipulación de la información y la opinión pública, pasando por la vulneración de la privacidad y la seguridad, el uso militar y bélico, o la amenaza existencial de una superinteligencia artificial que podría superarnos en número, inteligencia y poder, dejándonos obsoletos y reemplazándonos.

Ante este escenario, los firmantes piden que se haga una pausa como ya se ha hecho en el pasado con la energía nuclear o la ingeniería genética. La propuesta va dirigida especialmente a todos los laboratorios de IA para que pausen de inmediato durante al menos seis meses el entrenamiento de los sistemas de IA más potentes que GPT-4, un modelo de generación de lenguaje natural que puede producir textos coherentes y convincentes sobre cualquier tema. 

También piden la intervención de los gobiernos para imponer la pausa en caso de que las partes implicadas se nieguen a la suspensión temporal de las investigaciones.

Además, solicitan que los desarrolladores trabajen con los legisladores para acelerar un sistema legal sólido en torno a la IA, basado en principios éticos y valores humanos. También indicaron que los sistemas potentes de inteligencia artificial únicamente deben desarrollarse cuando haya seguridad de que sus efectos son positivos y sus riesgos son manejables.

Noticias Relacionadas

TE PUEDE INTERESAR

MÁS NOTICIAS

MÁS NOTICIAS