La startup francesa de inteligencia artificial Mistral fue lanzada el martes Mixtral 8x22B, un nuevo modelo de lenguaje grande (LLM) y su último intento de competir con los grandes en el campo de la IA. Se espera que Mixtral 8x22B supere al anterior Mixtral 8x7B LLM de Mistral, que a su vez mostró signos de eclipsar a GPT-3.5 de OpenAI y Llama 2 de Meta. según Gigazine.
El nuevo modelo Mixtral cuenta con una ventana de contexto de 65.000 tokens, que se refiere a la cantidad de texto que un modelo de IA puede procesar y hacer referencia al mismo tiempo. Además, Mixtral 8x22B tiene un tamaño de parámetro de hasta 176 mil millones, una referencia a la cantidad de variables internas que utiliza el modelo para tomar decisiones o predicciones.
Fundado por investigadores de Google y Meta, Mistral adopta un enfoque de código abierto a sus modelos de IA. En este caso, Mixtral 8x22B está disponible para que cualquiera lo use después de descargar un archivo de 281 GB. Para hacerlo usted mismo, simplemente pegue el enlace magnético de Puesto X de Mistral AI en su cliente BitTorrent favorito.
También: Lo que hay que saber sobre Mistral AI: la empresa detrás del último rival GPT-4
El lanzamiento del nuevo LLM de Mistral llega en un momento de gran actividad en la industria de la IA en busca de modelos nuevos e innovadores.
El martes, OpenAI lanzado GPT-4 Turbo con Vision, el último modelo GPT-4 Turbo con capacidades de visión para trabajar con fotografías, dibujos y otras imágenes cargadas por el usuario. El mismo día, Google lanzó su avanzado Gemini Pro 1.5 LLM a los desarrolladores con una opción gratuita que concede hasta 50 solicitudes por día. Para no quedarse atrás, Meta reveló que su Debutaría el modelo Llama 3 a finales de este mes.
Mixtral 8x22B y estos otros LLM avanzados se conocen como modelos de frontera, que pueden manejar una amplia variedad de tareas y solicitudes. Evocando el Salvaje Oeste, su objetivo es superar a los modelos anteriores con tecnología más pionera. El término frontera también evoca una sensación de peligro. En julio de 2023 entrada en el blogOpenAI describió los riesgos de los modelos de frontera.
«Los modelos de IA fronteriza plantean un desafío regulatorio distinto: pueden surgir capacidades peligrosas inesperadamente; es difícil evitar de manera sólida que un modelo implementado sea mal utilizado; y es difícil evitar que las capacidades de un modelo proliferen ampliamente», escribió OpenAI. «La autorregulación de la industria es un primer paso importante. Sin embargo, se necesitarán debates sociales más amplios y la intervención del gobierno para crear estándares y garantizar su cumplimiento».
El enfoque de código abierto de Mistral también ha merecido algunas críticas, según El guardián. Al permitir que cualquiera descargue y desarrolle sus modelos de IA, la startup no puede evitar que sus sistemas se utilicen con fines dañinos. Además, los modelos no se pueden desconectar si surgen ciertos defectos o sesgos que deben resolverse.