Lima, Perú
+5113014109

Tesla entrena su IA autónoma con una supercomputadora

Tesla entrena su IA autónoma con una supercomputadora


Ilustración para el artículo titulado Tesla entrenará su IA de conducción autónoma con la quinta computadora más poderosa del mundo

Captura de pantalla: YouTube

No lo decimos nosotros, lo cuenta la propia Tesla en la presentación de su nueva “supercomputadora”, la que será la predecesora del proyecto Dojo. En palabras de la compañía, el “cerebro” informático será el quinto más poderoso del mundo.

Tal y como han contado, en los últimos años se han centrado en la potencia informática tanto dentro como fuera de sus vehículos. La razón es sencilla: con ellas se entrena las redes neuronales que impulsan el Autopilot de Tesla y ese próximo salto que estará protagonizado por la conducción autónoma.

Tesla afirma que en el interior de los autos necesita computadoras lo suficientemente potentes para ejecutar su software de conducción autónoma, y ​​en el exterior necesita supercomputadoras para entrenar un software de conducción autónoma que se alimenta de una enorme cantidad de datos procedentes de la flota.

Ilustración para el artículo titulado Tesla entrenará su IA de conducción autónoma con la quinta computadora más poderosa del mundo

Captura de pantalla: YouTube

Todo ello llevó a desarrollar el proyecto Dojo, en esencia, una supercomputadora capaz de un exaFLOP, un quintillón (1018) de operaciones por segundo o 1.000 petaFLOPS, lo que la convertía en una de las computadoras más poderosas.

Ocurre que mientras se trabajaba en Dojo, en el camino se desarrollaban otras supercomputadoras, y el director de IA de Tesla, Andrej Karpathy, acaba de presentar su último trabajo, un “cerebro” con especificaciones que colocan a la herramienta en el top5 mundial con las siguientes cifras:

  • 720 nodos de 8x A100 80GB. (5760 GPU en total)
  • 1.8 EFLOPS (720 nodos * 312 TFLOPS-FP16-A100 * 8 gpu / nodos)
  • 10 PB de almacenamiento NVME de “nivel activo” a 1,6 TBps
  • 640 Tbps de capacidad de conmutación total 

Según explicó Karpathy sobre el desarrollo:

Tenemos una red de arquitectura de red neuronal y tenemos un conjunto de datos de 1,5 petabytes que requiere una gran cantidad de computación. Así que quería conectar esta loca supercomputadora que estamos construyendo y usando ahora. Para nosotros, la visión por computadora es el pan y la mantequilla de lo que hacemos y lo que habilita el Autopilot. Y para que eso funcione realmente bien, necesitamos dominar los datos de la flota, entrenar redes neuronales masivas y experimentar mucho. Así que invertimos mucho en la computación. En este caso, tenemos un clúster que construimos con 720 nodos de 8x A100 de la versión de 80GB. Así que esta es una supercomputadora enorme. De hecho, creo que en términos absolutos, es aproximadamente la supercomputadora número 5 del mundo.

Por cierto, Musk llegó a decir en el pasado que en algún momento planeaba poner sus supercomputadoras a disposición de otras compañías para que puedan entrenar sus redes neuronales en ellas. Me pregunto si seguirá opinando lo mismo. [Electrek]



Enlace fuente

Post Relacionados
× ¿Cómo puedo ayudarte? Available from 09:00 to 18:00