Aquí hay algo alegre que debes considerar la próxima vez que uses un herramienta de inteligencia artificial. La mayoría de las personas involucradas en la inteligencia artificial creen que podría acabar con la humanidad. Ésa es la mala noticia. La buena noticia es que las probabilidades de que esto suceda varían enormemente dependiendo de a quién escuches.
p(doom) es la «probabilidad de fatalidad» o las posibilidades de que la IA se apodere del planeta o haga algo para destruirnos, como crear un arma biológica o iniciar una guerra nuclear. En el extremo más alegre de la escala p(doom), Yann LeCun, uno de los “tres padrinos de la IA”, que actualmente trabaja en Meta, sitúa las posibilidades en <0,01%, o menos probable que un asteroide nos aniquile.
Lamentablemente, nadie más está siquiera cerca de ser tan optimista. Geoff Hinton, uno de los otros tres padrinos de la IA, dice que hay un 10% de posibilidades de que la IA nos aniquile en los próximos 20 años, y Yoshua Bengio, el tercero de los tres padrinos de la IA, eleva la cifra al 20%.
99,999999% de probabilidad
En el extremo más pesimista de la escala se encuentra Roman Yampolskiy, científico de seguridad de la IA y director del Laboratorio de Seguridad Cibernética de la Universidad de Louisville. Él cree que es casi seguro que sucederá. Él sitúa las probabilidades de que la IA acabe con la humanidad en un 99,999999%.
Elon Musk, hablando en un seminario sobre el «Gran Debate sobre la IA» en la Cumbre de la Abundancia de cuatro días a principios de este mes, dijo: «Creo que hay alguna posibilidad de que acabe con la humanidad. Probablemente estoy de acuerdo con Geoff Hinton en que se trata de un 10% o un 20%». % o algo así”, antes de agregar: “Creo que el probable escenario positivo supera al escenario negativo”.
En respuesta, Yampolskiy dijo Business Insider Pensó que Musk era «demasiado conservador» en su estimación y que deberíamos abandonar el desarrollo de la tecnología ahora porque sería casi imposible controlar la IA una vez que se vuelva más avanzada.
«No estoy seguro de por qué cree que es una buena idea dedicarse a esta tecnología de todos modos», dijo Yamploskiy. «Si él [Musk] «Le preocupa que los competidores lleguen primero, no importa, ya que la superinteligencia incontrolada es igualmente mala, sin importar quién la haga existir».
En la Cumbre, Musk tuvo una solución para evitar que la IA acabe con la humanidad. «No lo obligues a mentir, incluso si la verdad es desagradable», dijo Musk. «Es muy importante. No hagas que la IA mienta».
Si se pregunta dónde se ubican actualmente otros investigadores y pronosticadores de IA en la escala p(doom), puede consultar la lista aquí.