¿Lo que acaba de suceder? Un grupo de más de 100 figuras globales del mundo de los negocios, la política y otros campos firmaron una carta abierta instando a los líderes globales a abordar las amenazas existenciales actuales y futuras, incluida la inteligencia artificial, el cambio climático, las pandemias y la guerra nuclear.
El cartapublicado el jueves, proviene de The Elders, una organización no gubernamental creada por el ex presidente sudafricano Nelson Mandela, y del Future of Life Institute, una organización sin fines de lucro que tiene como objetivo orientar la tecnología transformadora hacia el beneficio de la vida y lejos de los riesgos a gran escala.
Entre los firmantes de la carta se encuentran el multimillonario fundador de Virgin Group, Richard Branson, el exsecretario general de las Naciones Unidas, Ban Ki-moon, y Charles Oppenheimer (nieto de J. Robert Oppenheimer). También está firmado por varios ex presidentes y primeros ministros, activistas, directores ejecutivos, fundadores y profesores.
«Nuestro mundo está en grave peligro», comienza la carta. «Nos enfrentamos a una serie de amenazas que ponen en riesgo a toda la humanidad. Nuestros líderes no están respondiendo con la sabiduría y la urgencia necesarias».
El cambio climático, la pandemia y las guerras en las que se ha planteado la opción del uso de armas nucleares se citan como ejemplos de amenazas actuales. La carta afirma que podría llegar lo peor, especialmente porque todavía no sabemos cuán significativas serán las amenazas emergentes asociadas con la IA no gobernada.
«Un liderazgo con visión de largo plazo significa mostrar determinación para resolver problemas difíciles, no sólo gestionarlos, sabiduría para tomar decisiones basadas en evidencia científica y razón, y humildad para escuchar a todos los afectados».
La carta pide a los gobiernos que se pongan de acuerdo sobre ciertos puntos, como acordar cómo financiar la transición de los combustibles fósiles a la energía limpia, relanzar las conversaciones sobre control de armas para reducir el riesgo de una guerra nuclear y crear un tratado pandémico equitativo. Cuando se trata de IA, la sugerencia es construir la gobernanza necesaria para hacer de la tecnología una fuerza para el bien, no un riesgo desbocado.
El cosmólogo del MIT Max Tegmark, quien creó el Future of Life Institute junto con el cofundador de Skype, Jaan Tallinn, dijo CNBC que The Elders y su organización no ven la IA como «malvada», pero temen que pueda usarse como una herramienta destructiva si avanza rápidamente en manos de las personas equivocadas.
El Future of Life Institute también publicó el año pasado una carta abierta en la que pedía una pausa de seis meses sobre el desarrollo avanzado de IA. Fue firmado por 1.100 personas, entre ellas el cofundador de Apple, Steve Wozniak, Elon Musk y el cofundador de Pinterest, Evan Sharp. Esa carta no tuvo el efecto deseado; Las empresas de IA no sólo no lograron frenar el desarrollo, sino que muchas de hecho aceleraron sus esfuerzos para desarrollar IA avanzada.
Las comparaciones entre la IA y la guerra nuclear no son nuevas. Expertos y directores ejecutivos advirtieron sobre la riesgo de extinción que planteó la tecnología el pasado mes de mayo. E incluso OpenAI, creador de ChatGPT, dice que existe una IA más inteligente que la gente podría causar la extinción de la raza humana.