Sebuah makalah ilmiah baru dari Google merinci kinerja platform superkomputer Cloud TPU v4, mengklaimnya memberikan kinerja exascale untuk pembelajaran mesin dengan peningkatan efisiensi.
Penulis makalah penelitian mengklaim TPU v4 1,2x–1,7x lebih cepat dan menggunakan daya 1,3x–1,9x lebih sedikit daripada Nvidia A100 dalam sistem berukuran serupa. Makalah tersebut mencatat bahwa Google belum membandingkan TPU v4 dengan GPU Nvidia H100 yang lebih baru karena ketersediaannya yang terbatas dan arsitektur 4nm (vs arsitektur 7nm TPU v4).
Karena model pembelajaran mesin telah tumbuh lebih besar dan lebih kompleks, demikian pula kebutuhan sumber daya komputasi mereka. Unit Pemrosesan Tensor (TPU) Google adalah akselerator perangkat keras khusus yang digunakan untuk membuat model pembelajaran mesin, khususnya jaringan saraf dalam.
Mesin ini dioptimalkan untuk operasi tensor dan dapat secara signifikan meningkatkan efisiensi dalam pelatihan dan inferensi model ML skala besar. Google mengatakan kinerja, skalabilitas, dan ketersediaan menjadikan superkomputer TPU sebagai pekerja keras model bahasa besarnya seperti LaMDA, MUM, dan PaLM.
Insinyur Google dan penulis makalah Norm Jouppi dan David Patterson menjelaskan dalam postingan blog bahwa berkat inovasi utama dalam teknologi interkoneksi dan akselerator khusus domain (DSA), Google Cloud TPU v4 memungkinkan lompatan hampir 10x dalam penskalaan kinerja sistem ML dibandingkan TPU v3. Ini juga meningkatkan efisiensi energi sekitar 2-3x dibandingkan dengan DSA ML kontemporer dan mengurangi CO2e sekitar 20x dibandingkan DSA dalam apa yang oleh perusahaan disebut sebagai pusat data lokal biasa.
Sistem TPU v4 telah beroperasi di Google sejak 2020. Chip TPU v4 diluncurkan pada konferensi pengembang I/O 2021 perusahaan. Google mengatakan superkomputer secara aktif digunakan oleh tim AI terkemuka untuk penelitian dan produksi ML di seluruh model bahasa, sistem pemberi rekomendasi, dan AI generatif lainnya.
Mengenai sistem pemberi rekomendasi, Google mengatakan superkomputer TPU-nya juga yang pertama dengan dukungan perangkat keras untuk penyematan, komponen kunci Model Rekomendasi Pembelajaran Mendalam (DLRM) yang digunakan dalam periklanan, peringkat pencarian, YouTube, dan Google Play. Hal ini karena setiap TPU v4 dilengkapi dengan SparseCores, yang merupakan prosesor aliran data yang mempercepat model yang mengandalkan penyematan sebesar 5x–7x tetapi hanya menggunakan 5% area die dan daya.
Infrastruktur yang dapat diskalakan,” kata David Holz, pendiri dan CEO Midjourney dalam posting blog Google. “Mulai dari melatih versi keempat algoritme kami pada TPU v4 terbaru dengan JAX, hingga menjalankan inferensi pada GPU, kami terkesan dengan kecepatan TPU v4 yang memungkinkan pengguna kami mewujudkan ide cemerlang mereka.”
Superkomputer TPU v4 tersedia untuk peneliti dan pengembang AI di kluster ML Google Cloud di Oklahoma, yang dibuka tahun lalu. Pada kinerja agregat puncak sembilan exaflops, Google yakin cluster ini adalah hub ML terbesar yang tersedia untuk umum yang beroperasi dengan 90% energi bebas karbon. Lihat makalah penelitian TPU v4 di sini.
'Berita' 카테고리의 다른 글
15 Game FPS Seluler Terpopuler Saat ini (0) | 2023.11.01 |
---|---|
Apa itu ISO dalam Fotografi? Apa Fungsinya? (0) | 2023.09.01 |
Pengamat AI Mengeluarkan Peringatan: Jadikan AI sebagai Prioritas Resiko Global (0) | 2023.06.07 |
Cloudera: Melayani lebih dari 25 Juta Terabyte Data (0) | 2023.06.07 |
Intel Meluncurkan Prosesor Workstation Xeon Baru (0) | 2023.06.07 |