Reunida con los directivos de Google, Microsoft, OpenAI y Anthropic, Kamala Harris recordó la obligación moral y legal de garantizar la seguridad de sus productos.
La vicepresidenta Kamala Harris instó este jueves a las empresas líderes en inteligencia artificial (IA) a que asuman el deber “moral” de salvaguardar a la sociedad de los peligros potenciales de esta tecnología. Harris se reunió con Satya Nadella (Microsoft), Sundar Pichai (Google), Sam Altman (OpenAI) y Dario Amodei (Anthropic) y varios miembros del gobierno.
“El sector privado tiene el deber ético, moral y legal de asegurarse de la seguridad de sus productos”, afirmó Harris en un comunicado tras el encuentro. Añadió que la IA tiene el “potencial de mejorar la vida cotidiana y abordar algunos de los mayores desafíos de la sociedad”, pero también podría “aumentar drásticamente las amenazas a la seguridad, reducir los derechos humanos y la privacidad y socavar la confianza pública en la democracia”.
Harris apoya nuevas regulaciones y legislación para la IA
Kamala Harris tambien declaró que apoya “posibles nuevas regulaciones” y “nueva legislación” para la IA, junto con el presidente Joe Biden, que se apresuró a participar en la reunión.
La inteligencia artificial está presente en la vida cotidiana desde hace muchos años, ya que se utiliza en diversos ámbitos, desde las redes sociales a los electrodomésticos de gama alta, pasando por los programas de reclutamiento personal.
“Los propios patrones reclaman más regulaciones”, remarcó, aunque Facebook, a pesar de haber “llamado públicamente” a mejorar las leyes que rigen la confidencialidad de los datos personales, “paga al mismo tiempo a lobbis que combaten estos proyectos de ley”.
Sin embargo, el deslumbrante éxito desde fines del año pasado de ChatGPT, la interfaz de IA generativa de OpenAI, una empresa emergente financiada ampliamente por Microsoft, fue el punto de partida para una carrera hacia sistemas cada vez más intuitivos y eficientes, que son capaces de generar textos, imágenes y códigos de programación cada vez más complejos.
Harris se reunió con los líderes de Google, Microsoft, OpenAI y Anthropic
En una reunión con los directivos de las principales empresas de inteligencia artificial (IA), la vicepresidenta Kamala Harris les pidió este jueves que actúen con responsabilidad ética y moral para proteger a la sociedad de los riesgos asociados a esta tecnología.
Harris conversó con Satya Nadella (Microsoft), Sundar Pichai (Google), Sam Altman (OpenAI) y Dario Amodei (Anthropic) y varios miembros del gobierno.
“El sector privado tiene el deber ético, moral y legal de asegurarse de la seguridad de sus productos”, declaró Harris en un comunicado después de la reunión.
También destacó que la IA tiene el “potencial de mejorar la vida cotidiana y abordar algunos de los mayores desafíos de la sociedad”, donde podría “aumentar drásticamente las amenazas a la seguridad, reducir los derechos humanos y la privacidad y socavar la confianza pública en la democracia”.
Los gigantes de la IA reconocen la existencia de riesgos en su uso
Sin embargo, les preocupa que unas leyes excesivamente restrictivas ahoguen la innovación. Michael Schwarz, economista jefe de Microsoft, confirmó que la AI será utilizada por agentes malintencionados, Asimismo, instó a los legisladores a tomarse el tiempo necesario y asegurarse de que, cuando exista un daño real, los beneficios de la regulación compensen el coste para la sociedad.
En Europa, se espera liderar el camino hacia la regulación ad-hoc en torno a la IA. La presidenta de la Comisión Federal de Comercio, Lina Khan, compara la actual convulsión social con la que se vivió a comienzos de la web 2.0 en los años 2002.
“La IA será utilizada por actores maliciosos, y sí, va a causar daños”, dijo el miércoles el economista jefe de Microsoft, Michael Schwarz, durante un panel en el Foro Económico Mundial, según Bloomberg.
Aunque, existe un complejo equilibrio entre innovación y regulación, lo cierto es que es crucial que las principales empresas de IA asuman su responsabilidad moral de garantizar la seguridad de sus productos y evitar causar daños a la sociedad. De esta manera, se podrá fomentar el desarrollo de una inteligencia artificial ética y beneficiosa para todos.