Cuando una tecnología apasionante se precipita hacia nosotros, tendemos a quedar atrapados en la emoción.
Especialmente cuando se trata de algo tan dramático como inteligencia artificial.
También: La Casa Blanca planea regular el uso de IA por parte del gobierno
La IA puede escribir nuestros exámenes. La IA puede escribir anuncios. La IA puede incluso hacer películas. Sin embargo, todavía existe la idea persistente de que la IA no es exactamente perfecta, especialmente cuando se trata de alucinaciones: esos molestos momentos en los que la IA simplemente inventa cosas.
Sin embargo, la impresión es que empresas como Google y Microsoft están decididamente decididas a inyectar IA en todos los aspectos de la sociedad.
¿Dónde, entonces, podemos encontrar un sentido –un verdadero sentido– de lo que todavía hay que hacer con la IA para que sea confiable?
Confieso que he estado en esa búsqueda durante algún tiempo, por lo que me impulsó a leer repetidamente una expresión de honestidad que sostiene el alma y afirma la vida de Ayanna Howard, investigadora de IA y decana de la Facultad de Ingeniería de la Universidad Estatal de Ohio. .
En un artículo de MIT Sloan Management Review, Howard Ofrecido el resumen más sucinto de la brecha entre los tecnólogos y, bueno, todos los demás.
Ofreció este simple pensamiento: «Los tecnólogos no están capacitados para ser científicos sociales o historiadores. Estamos en este campo porque nos encanta y, por lo general, somos positivos acerca de la tecnología. porque es nuestro campo.»
También: Los mejores chatbots de IA: ChatGPT no es el único que vale la pena probar
Pero éste, dijo proféticamente Howard, es precisamente el problema: «No somos buenos para tender puentes con otros que pueden traducir lo que vemos como positivo y lo que sabemos que también son algunos de los negativos».
De hecho, existe una necesidad desesperada de traducción, una necesidad desesperada de que los tecnólogos tengan un poco más de inteligencia emocional mientras crean la tecnología del futuro.
«La primera [need] -y esto probablemente requiera regulación- es que las empresas de tecnología, en particular las de inteligencia artificial y IA generativanecesitamos encontrar maneras de combinar la humanidad cociente emocional (EQ) con tecnología para dar a la gente pistas sobre cuándo cuestionar dichas herramientas», afirmó Howard.
Piense en los primeros días de Internet. Nos dejaron a nuestra suerte descubrir qué era verdad, qué era exagerado y qué era una tontería total.
También: Microsoft quiere impedir que uses chatbots de IA para el mal
Estamos muy entusiasmados, pero aún avanzamos hacia cierto nivel de certeza.
Howard explicó que mientras una pieza de tecnología parezca funcionar, los humanos generalmente confiarán en ella. Incluso si, como en un experimento en el que ella participó, la gente sigue ciegamente a un robot lejos de una escalera de incendios… sí, durante un incendio.
Con la IA, sugiere Howard, empresas como ChatGPT deberían admitir cuando tienen falta de certeza.
Esto no exime nuestra necesidad de estar alerta, pero seguramente crearía un mayor nivel de confianza que es vital para que la IA sea aceptada, en lugar de temida o impuesta.
A Howard le preocupa que, actualmente, cualquiera pueda crear un producto de IA. «Tenemos inventores que no saben lo que están haciendo y que venden a empresas y consumidores que son demasiado confiados», afirmó.
También: La IA generativa cambiará el servicio al cliente para siempre. Así es como llegamos allí
Si sus palabras parecen cautelosas, no dejan de ser una revelación excepcionalmente positiva de puras verdades, de los desafíos que implica traer una tecnología potencialmente revolucionaria al mundo y hacerla confiable.
En última instancia, si la IA no es confiable, no puede ser la tecnología que se promociona como.