Anteriormente informamos que Meta Platforms, la empresa matriz de Facebook, planea implementar su propia chips de inteligencia artificial diseñados a medidacon nombre en código Artemis, en sus centros de datos este año, pero continuaría usando NVIDIA GPU H100 junto a ellos, al menos en el futuro previsible.
Sin embargo, El registro ahora afirma que se han visto anuncios de trabajo para ingenieros de ASIC con experiencia en arquitectura, diseño y pruebas en Bangalore, India y Sunnyvale, California, lo que indica las intenciones de Meta de desarrollar su propio hardware de IA.
Las descripciones de los puestos sugieren que Meta está buscando profesionales para «ayudar a diseñar aceleradores de aprendizaje automático de última generación» y diseñar SoC e IP complejos para aplicaciones de centros de datos. Algunos de estos puestos se publicaron inicialmente en LinkedIn a finales de diciembre de 2023 y se volvieron a publicar hace dos semanas, y los puestos de Sunnyvale ofrecían salarios cercanos a los 200.000 dólares.
Inteligencia artificial general
Si bien la naturaleza exacta del proyecto de Meta aún no se especifica, es probable que esté vinculado a los «Aceleradores de inferencia de meta entrenamiento» previamente anunciados por la compañía, que se lanzarán a finales de este año.
Las ambiciones de Meta también se extienden a la inteligencia artificial general, una empresa que podría necesitar silicio especializado.
Con la creciente demanda de IA y la lucha de Nvidia por satisfacer esta demanda, la decisión de Meta de desarrollar su propia tecnología es un paso estratégico para garantizar que no tenga que competir con rivales por hardware en un mercado muy caliente.
El Registro informa que el gobierno indio probablemente acogerá con agrado la decisión de Meta de anunciarse en Bangalore, ya que la nación busca convertirse en un actor importante en la industria global de semiconductores.
Además, los rumores sugieren que microsoft También está reduciendo su dependencia de Nvidia mediante el desarrollo de una tarjeta de red de servidor para optimizar el rendimiento de la carga de trabajo de aprendizaje automático. Esta tendencia sugiere que los rivales más formidables de Nvidia están buscando formas de volverse menos dependientes de su hardware de gran demanda.