Hola amigos, y bienvenidos al boletín informativo periódico sobre IA de TechCrunch.
Esta semana en IA, Apple se robó el centro de atención.
En la Conferencia Mundial de Desarrolladores (WWDC) de la compañía en Cupertino, Apple presentó Apple Intelligence, su tan esperado impulso en todo el ecosistema hacia la IA generativa. Apple Intelligence impulsa una gran cantidad de funciones, desde un Siri actualizado hasta Emoji generado por IA hasta herramientas de edición de fotografías que eliminan personas y objetos no deseados de las fotografías.
La compañía prometió que Apple Intelligence se está construyendo teniendo en cuenta la seguridad, junto con experiencias altamente personalizadas.
«Tiene que entenderte y basarse en tu contexto personal, como tu rutina, tus relaciones, tus comunicaciones y más», señaló el director ejecutivo Tim Cook durante el discurso de apertura del lunes. “Todo esto va más allá de la inteligencia artificial. Es inteligencia personal y es el próximo gran paso para Apple”.
Apple Intelligence es clásicamente Apple: oculta la tecnología esencial detrás de funciones obviamente útiles e intuitivas. (Cook no pronunció ni una sola vez la frase “modelo de lenguaje grande”). Pero como alguien que se gana la vida escribiendo sobre los aspectos más vulnerables de la IA, desearía que Apple fuera más transparente, solo por esta vez, sobre cómo se hizo la salchicha.
Tomemos, por ejemplo, las prácticas de formación modelo de Apple. Apple reveló en una publicación de blog que entrena los modelos de IA que impulsan Apple Intelligence en una combinación de conjuntos de datos con licencia y la web pública. Los editores tienen la opción de optar por no participar en futuras capacitaciones. Pero, ¿qué pasa si eres un artista y sientes curiosidad por saber si tu trabajo fue incluido en la formación inicial de Apple? Mala suerte: mamá es la palabra.
El secreto podría deberse a razones competitivas. Pero sospecho que también es para proteger a Apple de desafíos legales, específicamente desafíos relacionados con los derechos de autor. Los tribunales aún tienen que decidir si proveedores como Apple tienen derecho a capacitarse con datos públicos sin compensar ni acreditar a los creadores de esos datos; en otras palabras, si la doctrina del uso legítimo se aplica a la IA generativa.
Es un poco decepcionante ver a Apple, que a menudo se presenta como un defensor de la política tecnológica de sentido común, abrazar implícitamente el argumento del uso legítimo. Envuelta detrás del velo del marketing, Apple puede afirmar que está adoptando un enfoque responsable y mesurado con respecto a la IA, aunque es muy posible que se haya entrenado en las obras de los creadores sin permiso.
Una pequeña explicación sería de gran ayuda. Es una pena que no hayamos conseguido uno, y no tengo esperanzas de que lo hagamos pronto, salvo una demanda (o dos).
Noticias
Las principales funciones de IA de Apple: Un servidor realmente reunió las principales características de IA que Apple anunció durante el discurso de apertura de la WWDC esta semana, desde Siri actualizado hasta integraciones profundas con ChatGPT de OpenAI.
OpenAI contrata ejecutivos: OpenAI contrató esta semana a Sarah Friar, ex directora ejecutiva de la red social hiperlocal Nextdoor, para que fuera su directora financiera, y a Kevin Weil, quien anteriormente dirigió el desarrollo de productos en Instagram y Twitter, como su director de productos.
Correo, ahora con más IA: Esta semana, Yahoo (la empresa matriz de TechCrunch) actualizó Yahoo Mail con nuevas capacidades de inteligencia artificial, incluidos resúmenes de correos electrónicos generados por inteligencia artificial. Google introdujo recientemente una función de resumen generativo similar, pero está detrás de un muro de pago.
Puntos de vista controvertidos: Un estudio reciente de Carnegie Mellon encuentra que no todos los modelos de IA generativa son iguales, particularmente en lo que respecta a cómo tratan temas polarizantes.
Generador de sonido: Stability AI, la startup detrás del generador de arte impulsado por IA Stable Diffusion, ha lanzado un modelo de IA abierto para generar sonidos y canciones que, según afirma, fue entrenado exclusivamente en grabaciones libres de derechos.
Trabajo de investigación de la semana.
Google cree que puede construir un modelo de IA generativa para la salud personal, o al menos dar pasos preliminares en esa dirección.
En un nuevo periódico presentado en el blog oficial de IA de Googlelos investigadores de Google abren el telón sobre el Modelo de lenguaje grande de salud personal, o PH-LLM para abreviar, una versión perfeccionada de uno de Los modelos Géminis de Google. PH-LLM está diseñado para brindar recomendaciones para mejorar el sueño y el estado físico, en parte mediante la lectura de datos de frecuencia cardíaca y respiratoria de dispositivos portátiles como relojes inteligentes.
Para probar la capacidad de PH-LLM para brindar sugerencias de salud útiles, los investigadores crearon cerca de 900 estudios de casos sobre sueño y estado físico en los que participaron sujetos residentes en Estados Unidos. Descubrieron que PH-LLM daba recomendaciones de sueño que eran cerca de (pero no tan buenas como) las recomendaciones dadas por expertos en sueño humano.
Los investigadores dicen que PH-LLM podría ayudar a contextualizar los datos fisiológicos para «aplicaciones de salud personal». Me viene a la mente Google Fit; No me sorprendería ver que PH-LLM eventualmente impulse alguna característica nueva en una aplicación de Google centrada en el fitness, ya sea Fit o no.
modelo de la semana
Apple dedicó bastante copia del blog detallando sus nuevos modelos de IA generativa en el dispositivo y en la nube que componen su suite Apple Intelligence. Sin embargo, a pesar de lo larga que es esta publicación, revela muy poco sobre las capacidades de los modelos. Aquí está nuestro mejor intento de analizarlo:
El modelo de dispositivo anónimo que Apple destaca es de tamaño pequeño, sin duda, por lo que puede funcionar sin conexión en dispositivos Apple como el iPhone 15 Pro y Pro Max. Contiene 3 mil millones de parámetros (los “parámetros” son las partes del modelo que esencialmente definen su habilidad en un problema, como generar texto), lo que lo hace comparable al modelo Gemini Nano de Google en el dispositivo, que viene en 1.8 mil millones de parámetros y Tamaños de 3,25 mil millones de parámetros.
Mientras tanto, el modelo de servidor es más grande (Apple no dirá con precisión cuánto más grande). lo que nosotros hacer Lo que sabemos es que es más capaz que el modelo integrado en el dispositivo. Si bien el modelo en el dispositivo funciona a la par con modelos como el Phi-3-mini de Microsoft, el Mistral 7B de Mistral y el Gemma 7B de Google en los puntos de referencia que enumera Apple, el modelo de servidor «se compara favorablemente» con el modelo insignia más antiguo de OpenAI, GPT-3.5 Turbo, según Apple. reclamos.
Apple también dice que tanto el modelo en el dispositivo como el modelo en el servidor tienen menos probabilidades de descarrilarse (es decir, generar toxicidad) que los modelos de tamaños similares. Puede que sea así, pero este escritor se reserva su opinión hasta que tengamos la oportunidad de poner a prueba la inteligencia de Apple.
bolsa de agarre
Esta semana se cumplió el sexto aniversario del lanzamiento de GPT-1, el progenitor de GPT-4o, el último modelo emblemático de IA generativa de OpenAI. Y mientras El aprendizaje profundo podría estar chocando contra una paredes increíble lo lejos que ha llegado el campo.
Considere que tomó un mes entrenar GPT-1 en un conjunto de datos de 4,5 gigabytes de texto (el BookCorpus, que contiene ~7000 libros de ficción inéditos). GPT-3, que tiene casi 1.500 veces el tamaño de GPT-1 según el recuento de parámetros y es significativamente más sofisticado en la prosa que puede generar y analizar, tardó 34 días en entrenarse. ¿Qué te parece eso de escalar?
Lo que hizo que GPT-1 fuera innovador fue su enfoque de entrenamiento. Las técnicas anteriores dependían de grandes cantidades de datos etiquetados manualmente, lo que limitaba su utilidad. (Etiquetar datos manualmente lleva mucho tiempo y es laborioso). Pero GPT-1 no lo hizo; se entrenó principalmente en sin etiquetar datos para “aprender” cómo realizar una variedad de tareas (por ejemplo, escribir ensayos).
Muchos expertos creen que no veremos un cambio de paradigma tan significativo como el de GPT-1 en el corto plazo. Pero, de nuevo, el mundo tampoco vio venir el GPT-1.