Un grupo de industriales y expertos del sector tecnológico advirtió este martes que la inteligencia artificial supone un “riesgo de extinción” que los líderes mundiales deberían comprometerse a reducir.
Entre los firmantes se encuentran el director ejecutivo de OpenAI, Sam Altman, y el primer ejecutivo de GoogleDeepMind, Demis Hassabis y más personalidades del sector tecnológico. Cualquier experto se puede sumar al comunicado en el formulario que ofrece la web de la organización AI Safety, publicadora del escrito.
El comunicado apenas abarca una línea, o 22 palabras, en inglés: “Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”.
El escrito fue publicado por la organización sin fines de lucro con sede en San Francisco Center for AI Safety y no es el primero que firman los expertos del sector, que, al mismo tiempo que invierten y atraen miles de millones de dólares en la IA, dejan claro que hasta para ellos es difícil estimar los límites de esta nueva tecnología.
Prevenir efectos nocivos
Hace apenas dos meses, importantes ejecutivos, científicos y humanistas, entre ellos el multimillonario Elon Musk, firmaron una carta más extensa en el que pedían detener el desarrollo de nuevas tecnologías hasta poder garantizar su seguridad total y evitar efectos nocivos.
Eliezer Yudkowsky decía que sería preferible que hubiera una guerra nuclear a desarrollar sistemas avanzados de IA. Geoffrey Hinton advertía por ejemplo de la amenaza de la desinformación. En su declaración ante el congreso, Sam Altman que “si esta tecnología va mal, puede ir bastante mal”.
Estas afirmaciones llegan en un momento en el que el número de herramientas de inteligencia crecen vertiginosamente, a la vez que los retos actuales, como la guerra en Ucrania o la crisis climática, demuestran el riesgo que supone la inteligencia artificial, especialmente en torno a la desinformación.