La demanda de Elon Musk contra Sam Altman y OpenAI, presentado la semana pasada en el tribunal estatal de California, acusa a los acusados de olvidar partes centrales de la misión declarada de OpenAI de desarrollar inteligencia artificial general útil y no dañina. Desde entonces, Altman ha tomado medidas para reforzar sus credenciales de IA responsable. incluyendo la firma de una carta abierta prometiendo desarrollar IA «para mejorar la vida de las personas».
Los críticos, sin embargo, no están convencidos de la demostración de responsabilidad de Altman. Desde la rápida popularización de la IA generativa (genAI) durante el año pasado, esos críticos han estado advirtiendo que las consecuencias del desarrollo desenfrenado y no regulado de la IA podrían ser no sólo corrosivos para la sociedad humana, sino una amenaza para ella por completo.
Ritu Jyoti, vicepresidente del grupo de investigación mundial de IA y automatización en IDC, dijo que la decisión de Altman de abrazar públicamente el desarrollo responsable equivale a poco más que una mentira.
«Si bien existe un acuerdo en la industria de que existe una responsabilidad colectiva para desarrollar y desplegar la IA de manera responsable, esta carta no incluye las acciones específicas necesarias», dijo. «Así que, en mi opinión, no hay mucho valor añadido».
Altman también es signatario de una carta reconociendo los riesgos que alteran el mundo de la IA, pero los críticos siguen argumentando que la naturaleza autorreguladora de los esfuerzos para abordar estos riesgos es insuficiente.
La clave está en la incapacidad de la industria para resolver el problema de alineación, que surge cuando las herramientas de IA comienzan a desarrollar un comportamiento más allá de sus especificaciones de diseño. El temor es que las instancias de IA más avanzadas puedan potencialmente repetirse sobre sí mismas, lo que representa un grave riesgo de desarrollarse de maneras que los humanos no desean.
«La pregunta es: ¿somos capaces de controlar un sistema si es más inteligente que nosotros?» preguntó Joep Meindertsma, desarrollador holandés y fundador del grupo PauseAI, que se dedica a mitigar los riesgos que plantea la IA.
Meindertsma dio el ejemplo de un sistema como AutoGPT, que esencialmente puede hacerse preguntas y crear sus propias consultas para realizar tareas de investigación complejas como el tipo de tecnología que podría resultar altamente disruptiva y peligrosa.
«En algún momento, alguien le preguntará a esa computadora algo que implicaría la idea de que es útil para extenderse a otras máquinas», dijo. «La gente literalmente le ha pedido a AutoGPT que intente conquistar el mundo».
En cuanto a demanda contra Altman y OpenAI, dijo Meindertsma, Musk podría tener razón. Sostuvo que el objetivo de fundar OpenAI en primer lugar era guiar el desarrollo de la IA en direcciones responsables. El estado actual de desarrollo de alta velocidad está superando rápidamente cualquier barrera que las organizaciones de la industria hayan creado bajo el liderazgo de Altman y OpenAI.
Por lo tanto, no se puede confiar en que la industria se regule a sí misma y el gobierno debe intervenir para evitar una posible catástrofe, han argumentado los críticos. Meindertsma dijo que las capacidades ya demostradas, como la capacidad de GPT4 para piratear sitios web de forma autónoma, son críticamente peligrosas, y que la falta de regulación combinada con la rápida evolución de genAI es una amenaza existencial.
«Deberíamos regularlo de la misma manera que regulamos el material nuclear», dijo Meindertsma.
Copyright © 2024 IDG Communications, Inc.