Apple Intelligence no ha aterrizado en la forma en que Apple probablemente esperaba que lo haría, pero eso no impide que la compañía continúe iterando en su conjunto de herramientas de IA. Durante su WWDC 2025 Conferencia el lunes, Apple anunció una colección de Nuevas características para la inteligencia de Applecomenzando con actualizaciones a Genmoji y Playground de imagen que llegará junto a iOS 26 y los otros sistemas operativos actualizados de la compañía.
En los mensajes, podrá usar Image Playground para generar fondos coloridos para los chats de su grupo. Al mismo tiempo, Apple ha agregado la integración con ChatGPT a la herramienta, lo que significa que puede producir imágenes en estilos completamente nuevos. Como antes, si decide usar chatGPT directamente a través de su iPhone de esta manera, su información solo se compartirá con Opadai Si proporciona permiso.
Por separado, Genmoji permitirá a los usuarios combinar dos emoji de la biblioteca Unicode para crear nuevos caracteres. Por ejemplo, puede fusionar el perezoso y el emoji de bombilla si quieres burlarse de ti mismo por ser lento para entender una broma.
A través de mensajes, FaceTime y su aplicación telefónica, Apple está traer traducción en vivo a la mezcla. En los mensajes, los modelos AI en dispositivo de la compañía traducirán un mensaje al idioma preferido de su destinatario a medida que escribe. Cuando respondieron, cada mensaje se traducirá instantáneamente a su idioma. En FaceTime, verá subtítulos en vivo como la persona con la que hablas de una persona, y a través de una llamada telefónica, Apple Intelligence generará una traducción expresada.
La inteligencia visual también está en línea para una actualización. Ahora, además de trabajar con la cámara de su iPhone, la herramienta puede escanear lo que hay en su pantalla. Al igual que Genmoji, Visual Intelligence también se beneficiará de una integración más profunda con ChatGPT, lo que le permitirá hacer las preguntas de Chat Bot sobre lo que ve. Alternativamente, puede buscar en Google, Etsy y otras aplicaciones compatibles para encontrar imágenes o productos que puedan ser una coincidencia visual. Y si la herramienta se detecta cuando está mirando un evento, iOS 26 le sugerirá que agregue un recordatorio a su calendario. Nifty eso. Si desea acceder a la inteligencia visual, todo lo que necesita hacer es presionar los mismos botones que debe tomar una captura de pantalla en su iPhone.
Como se esperaba, Apple también está haciendo posible que los desarrolladores usen su modelo fundamental en el dispositivo para sus propias aplicaciones. «Con el marco de los modelos de Foundation, los desarrolladores de aplicaciones podrán construir sobre la inteligencia de Apple para brindar a los usuarios nuevas experiencias inteligentes, disponibles cuando están fuera de línea y que protegen su privacidad, utilizando una inferencia de IA que es gratuita», dijo la compañía en su comunicado de prensa. ¡Apple sugiere una aplicación educativa como Kahoot! podría usar su modelo en el dispositivo para generar cuestionarios personalizados para los usuarios. Según la compañía, el marco admite Swift, el propio lenguaje de codificación de Apple, y el modelo es tan fácil como escribir tres líneas de código.
Una aplicación de accesos directos actualizados tanto para iOS como para iOS como para macosa También está en camino, con apoyo a acciones impulsadas por Apple Intelligence. Podrá aprovechar cualquier modelo de cómputo de nube o de nube privado de la compañía para generar respuestas que formen parte de cualquier atajo que desee llevar a cabo. Apple sugiere que los estudiantes podrían usar esta función para crear un atajo que compara una transcripción de audio de una conferencia de clase a las notas que escribieron por su cuenta. Aquí nuevamente los usuarios pueden recurrir a ChatGPT si lo desean.
Hay muchas otras mejoras más pequeñas habilitadas por actualizaciones que Apple ha realizado a su suite AI. En particular, Apple Wallet resumirá automáticamente los detalles de seguimiento que los comerciantes y los operadores de entrega le enviarán para que pueda encontrarlos en un solo lugar.
Un año desde su debut en WWDC 2024, es seguro decir que Apple Intelligence no ha logrado cumplir con las expectativas. El Siri más inteligente y más personal que fue lo más destacado de la presentación del año pasado aún no se ha materializado. De hecho, la empresa demorado El asistente digital actualizado en marzo, solo diciendo en ese momento que llegaría en algún momento del próximo año. Otras partes de la suite pueden haber enviado a tiempo, pero a menudo no mostraron el nivel habitual de esmalte de la compañía. Por ejemplo, los resúmenes de notificación eran bastante erróneos en el lanzamiento, y Manzana Terminó reelaborando los mensajes para dejarlo más claro que Apple Intelligence los generaron. Con los anuncios de hoy, Apple todavía tiene un largo camino por recorrer antes de que se ponga al día con competidores como Google, pero al menos la compañía mantuvo el enfoque en las características prácticas.
Si compra algo a través de un enlace en este artículo, podemos ganar comisión.