La inteligencia artificial (IA) tiene potencial para mejorar el mundo. Pero su uso no está, ni mucho menos, libre de riesgos para la sociedad. Que se lo pregunten, sino, a Brian Hood , alcalde de la pequeña localidad australiana de Hepburn Shire, que está amenazando con presentar la primera demanda por difamación contra OpenAI , empresa detrás del desarrollo de esa máquina capaz de responder prácticamente a cualquier pregunta llamada ChatGPT . Otra cosa bien distinta es que los datos que comparte el ingenio sean veraces o, simplemente, desinformación. El caso comenzó después de que el político descubriese que el ‘chatbot inteligente’ estaba afirmando en sus respuestas a usuarios que fue condenado en 2011 a 30 meses de prisión como culpable en un sonado caso de sobornos a funcionarios extranjeros de Malasia e Indonesia. ¿El problema? Que, en realidad, Hood no fue condenado por ningún tribunal. Ni siquiera se encontró entre los acusados del caso. Fue el denunciante. «(Cuando me enteré del error) me sentí atontado. Porque era tan incorrecto, tan salvajemente incorrecto, que simplemente me sentí asombrado. Y luego me enfade mucho por ello», afirmó el afectado en declaraciones al ‘ Sydney Morning Herald ‘. De acuerdo con el medio australiano, los abogados del alcalde enviaron una queja a OpenAI a finales del mes pasado que, por el momento, no ha recibido respuesta. Si el caso sigue adelante, y llega a juicio, se convertirá en el primero que enfrenta un chatbot movido por IA a causa de la difusión de desinformación. También podría ayudar a determinar si las empresas tienen alguna responsabilidad legal por los resultados falaces que puedan ofrecer sus máquinas. Noticias Relacionadas estandar No Italia bloquea ChatGPT «con efecto inmediato» por no respetar la legislación de protección de datos R. A. / AFP estandar No Elon Musk carga contra Bill Gates: «su comprensión de la inteligencia artificial es limitada» R. A. En lo que se refiere a ChatGPT, la propia OpenAI ha reconocido en varias ocasiones que la tecnología que lo mueve no es perfecta. Que puede cometer errores y mostrar a los usuarios información falsa. Incluso la versión más reciente de la IA, presentada hace escasas semanas, tiene este problema. «Estoy preocupado de que estos modelos puedan usarse para la desinformación a gran escala», reconoció recientemente Sam Altman , director ejecutivo de OpenAI, en entrevista con la cadena ‘ ABC ‘. Al final, ChatGPT, como el resto de herramientas similares no se inventa nada. Ni una palabra. Todos los datos proceden de Internet: desde ‘papers’ científicos hasta publicaciones en tablones de Facebook. Si el ser humano que ha realizado la publicación con la que la máquina ha sido entrenada se equivoca, la máquina también. Y esto vale para el caso de Brian Hood, pero también para otros tantos. Ya hemos visto a sistemas movidos por la misma tecnología alucinar, llegando a declarar su amor al usuario o a amenazar con ‘hackeos’. Incluso Europol, así como varias empresas de ciberseguridad, ha alertado sobre el peligro de que la tecnología sea explotada en masa por el cibercrimen. La preocupación por los malos usos de la IA, que no cuenta con ningún tipo de regulación, ya comienza a calar entre los legisladores. Tanto en la UE, donde se está trabajando en una normativa que debería ver la luz antes de finales de año, como en EE.UU., donde ChatGPT está siendo investigado para dilucidar si su lanzamiento violó las leyes federales de consumo. Todo porque la herramienta no pasó ninguna evaluación independiente antes de que comenzase a estar a disposición de los usuarios. Precisamente, más de mil empresarios y académicos firmaron una carta abierta la semana pasada en la que solicitan una paralización en el desarrollo de nueva IA hasta que se establezcan unos estándares de seguridad.
Enlace fuente
