El Claude 2 anterior se lanzó en julio con la friolera de 100.000 (100.000) tokens, lo que permite una entrada y salida más largas que la versión gratuita de ChatGPT. Esta capacidad significa que los usuarios pueden intercambiar hasta alrededor de 75.000 palabras en cada conversación. La última versión disponible actualmente, Claude 3, puede manejar alrededor de 200.000 palabras, con un contexto de 195 000, lo que le otorga una capacidad aún mejor para comprender el contexto en las conversaciones.
El contexto de 195K de Claude supera el contexto de 4K de ChatGPT en GPT-3.5. El contexto permite a los LLM generar un lenguaje natural y matizado aprovechando la información de conjuntos de datos masivos utilizados para entrenar los modelos sobre las relaciones contextuales entre palabras y frases.
En términos simples, este contexto es la información de fondo, como los chats anteriores, la conversación anterior y las preferencias del usuario que le dan al robot de IA una mejor comprensión de lo que está sucediendo. Esta información podría mantener el contexto dentro de una conversación larga o aplicarla a la configuración de un usuario. Normalmente, cuanto más amplio sea el contexto, más precisa será la información de una conversación.
También: GPT-4 Turbo recupera la corona de ‘mejor modelo de IA’ de Claude 3 de Anthropic
El contexto ayuda al chatbot de IA a comprender cuándo un usuario, por ejemplo, podría estar refiriéndose a un «murciélago» en un equipo deportivo o a un animal alado.
El contexto de Claude significa que puede analizar y resumir documentos extensos, incluidos estudios, libros e informes científicos y médicos. Este contexto también significa que Claude puede generar textos largos de hasta varios miles de palabras.