microsoft el martes lanzó Phi-3, su lenguaje más pequeño inteligencia artificial (AI) modelo hasta la fecha. Los modelos de IA más pequeños son importantes porque tienen el potencial de ejecutarse en teléfonos inteligentes. El último modelo de IA es el sucesor del Phi-2, que se lanzó en diciembre de 2023, y viene con una base de datos de entrenamiento más alta y parámetros más grandes. Los parámetros aumentados ayudan al modelo de IA a comprender y responder preguntas más complejas en comparación con su predecesor. También se afirma que está a la par con modelos entrenados con más de 10 veces la cantidad de parámetros utilizados para Phi-3.
una preimpresión papel Los detalles del modelo de lenguaje pequeño (SLM) se han publicado en arXiv. Sin embargo, como arXiv no realiza revisiones por pares, la validez de las afirmaciones aún no se ha determinado. Los entusiastas de la IA pueden probar el modelo de IA a través de Azure y Ollama. Microsoft dijo que el modelo de IA también está disponible en el microservicio Nvidia NIM con una interfaz API estándar y ha sido optimizado para las GPU de Nvidia. Una cara abrazadora Catálogo También se ha creado para el Phi-3-mini, pero los pesos aún no se han publicado.
phi-3 está aquí, y es… bueno :-).
Hice una breve demostración para darle una idea de lo que puede hacer el phi-3-mini (3.8B). ¡Estén atentos al lanzamiento de pesos abiertos y más anuncios mañana por la mañana!
(¡Y por supuesto, esto no estaría completo sin la tabla habitual de puntos de referencia!) pic.twitter.com/AWA7Km59rp
— Sébastien Bubeck (@SebastienBubeck) 23 de abril de 2024
En cuanto al rendimiento, el modelo de IA se ha entrenado en 3,3 billones de tokens, unidades de datos que incluyen palabras, frases o subsecciones de palabras que se introducen en el sistema para entrenar un modelo de IA. También contiene 3.800 millones de parámetros, que resaltan el nivel de complejidad que el chatbot puede comprender. Son esencialmente conexiones neuronales donde cada punto es conocimiento sobre un tema determinado y se conecta a varios otros puntos que contienen información contextual al punto original.
Microsoft afirma, basándose en evaluaciones comparativas internas, que el chabot Modelos rivales como Mixtral 8x7B y GPT-3.5, que son mucho más grandes que el SML. La IA está alineada para el formato de chat, lo que significa que puede responder a consultas conversacionales. «También proporcionamos algunos resultados iniciales de escalado de parámetros con modelos 7B y 14B entrenados para tokens de 4,8T, llamados phi-3-small y phi-3-medium, ambos significativamente más capaces que phi-3-mini», el gigante tecnológico. dice.
Reuters informes que el modelo de IA, diseñado para realizar tareas más simples, también está alojado en Microsoft Azure y Ollama. La compañía aún debe compartir detalles sobre la licencia de código abierto de Phi-3-mini. En particular, la licencia Apache 2.0, que Grok AI recientemente emitidopermite un uso tanto académico como comercial.
Para lo último noticias tecnicas y opinionessigue Gadgets 360 en X, Facebook, WhatsApp, Hilos y noticias de Google. Para ver los últimos vídeos sobre gadgets y tecnología, suscríbete a nuestro Canal de Youtube. Si quieres saber todo sobre los principales influencers, sigue nuestro interno. ¿Quién es ese 360? en Instagram y YouTube.