En un intento por competir de manera más agresiva con compañías de IA rivales como Google, OpenAi está lanzando Procesamiento flexibleuna opción API que proporciona precios de uso del modelo de IA más bajos a cambio de tiempos de respuesta más lentos y «no disponibilidad de recursos ocasionales».
Flex Processing, que está disponible en Beta para el lanzado recientemente O3 y O4-Mini Los modelos de razonamiento están dirigidos a tareas de menor prioridad y «no producción», como evaluaciones de modelos, enriquecimiento de datos y cargas de trabajo asincrónicas, dice OpenAI.
Reduce los costos de API exactamente la mitad. Para O3, el procesamiento flexible es de $ 5/m de tokens de entrada (~ 750,000 palabras) y tokens de salida de $ 20/m versus tokens de entrada estándar de $ 10/m y tokens de salida de $ 40/m. Para O4-Mini, Flex reduce el precio a tokens de entrada de $ 0.55/M y tokens de salida de $ 2.20/m desde tokens de entrada de $ 1.10/m y tokens de salida de $ 4.40/m.
El lanzamiento de Flex Processing viene cuando el El precio de la IA fronteriza continúa subiendoy como rivales lanzan modelos más baratos y más eficientes orientados al presupuesto. El jueves, Google se lanzó Géminis 2.5 Flashun modelo de razonamiento que coincida o lo mejor que Deepseek’s R1 En términos de rendimiento a un costo de token de entrada más bajo.
En un Correo electrónico a los clientes Al anunciar el lanzamiento de precios flexibles, OpenAi también indicó que los desarrolladores en los niveles 1-3 de su jerarquía de niveles tendrán que completar el proceso de verificación de identificación recientemente introducido Para acceder a O3. (Los niveles están determinados por la cantidad de dinero gastado en servicios de Operai).
Operai dijo anteriormente que la verificación de identificación está destinada a evitar que los malos actores violen sus políticas de uso.