Cuando se habla de la cima del mundo AI empresas, normalmente hablamos de Google y OpenAI. Estas dos empresas chocaron en 2023 cuando ChatGPT se enfrentó a Google Bard (ahora llamado Gemini). Bien, Anthropic, otra empresa líder en inteligencia artificial, acaba de anunciar Claude 3y este poderoso modelo de IA es lo suficientemente poderoso como para intercambiar golpes con GPT-4 y Gemini.
Anthropic ha estado trabajando e investigando mucho sobre su IA. Sin embargo, simplemente no destacó entre la competencia. Sin embargo, acaba de estrenar Claude 3, la obra maestra de la compañía.
Anthropic AI presenta Claude 3, su modelo más potente
Cualquier nuevo modelo de IA que vaya más allá de los límites nos acerca a la inteligencia artificial general (AGI). Esto es algo que ha hecho Anthropic. Según el informe, Claude 3 pudo superar los puntos de referencia de GPT-4 y Gemini en la industria, incluidos conocimientos a nivel de pregrado, razonamiento a nivel de posgrado y matemáticas básicas.
Claude 3, al igual que Géminis, viene en tres tamaños diferentes. Estos son Opus, Soneto y Haiku. Opus es el más grande y poderoso de los modelos. Este es el que pasó por los puntos de referencia. Sonnet y Haiku son los modelos más pequeños y eficientes. Estos modelos se ofrecerán a un precio más económico. Además, no estamos seguros de si alguno de los dos modelos más pequeños podrá adaptarse a dispositivos como Gemini Nano. Si es así, hará posible la IA generativa en el dispositivo para más dispositivos.
En cuanto a las capacidades de Claude 3, tiene algunas habilidades importantes. Por ejemplo, Claude 3 puede resumir hasta 150.000 palabras.. Esto le da la capacidad de resumir novelas enteras. Un ejemplo que dio CNBC fue poder resumir la totalidad de Harry Potter y las Reliquias de la Muerte. Es un libro enorme, en caso de que no lo sepas. Esto es el doble de las 75.000 palabras de Claude 2, y muchas veces más que ChatGPT 3.000 palabras.
Entonces, es espacio más que suficiente para resumir extensos documentos comerciales, casos judiciales, libros, artículos, etc. Entonces, si usted es una empresa que utiliza Claude, tendrá un compañero poderoso.
Riesgo y seguridad
Uno de los aspectos principales de la IA generativa tiene que ver con el sesgo y la seguridad. En este momento, la inteligencia artificial no tiene una brújula moral. Por lo tanto, se deben incorporar barreras de seguridad en los modelos para que no generen contenido que cancelaría a cualquier YouTuber. Según la cofundadora de Anthropic, Daniela Amodei, Claude 3 tiene una comprensión más matizada de ciertas indicaciones que Claude 2.
«En nuestra búsqueda por tener un modelo altamente inofensivo, Claude 2 a veces se negaba demasiado», dijo Amodei a CNBC. «Cuando alguien se topaba con algunos de los temas más picantes o las barreras de confianza y seguridad, a veces Claude 2 tendía a ser un poco conservador al responder esas preguntas». Parece que Claude 3 comprendería mejor los temas delicados y sería más capaz de navegarlos.
Hablando de riesgo, Anthropic Cloud 3 no genera imágenes. Se le permite cargar imágenes como entrada, pero no le dará salidas de imágenes. El informe se refiere a la actual controversia de Google con Gemini como una de las razones por las que Claude 3 no genera imágenes.
Este modelo está actualmente disponible para probar ahora. Puedes probarlo visitando el sitio web oficial de Claude 3.