Proyek Ceiba

Membangun superkomputer AI terbesar di dunia di cloud

Membangun superkomputer AI terbesar di dunia di cloud

Project Ceiba, kolaborasi inovatif antara AWS dan NVIDIA, bertujuan untuk mendorong batas-batas kecerdasan buatan (AI) dengan membangun superkomputer AI terbesar di cloud. Di-host secara eksklusif di AWS, superkomputer mutakhir ini akan mendukung upaya penelitian dan pengembangan NVIDIA dalam AI.

Mendorong inovasi mutakhir

Tim penelitian dan pengembangan NVIDIA akan memanfaatkan kekuatan luar biasa Project Ceiba untuk mendorong kemajuan di berbagai bidang mutakhir, termasuk model bahasa besar (LLM), grafis (gambar, video, dan generasi 3D), simulasi, biologi digital, robotika, kendaraan otonom, prediksi iklim dengan NVIDIA Earth-2, dan banyak lagi. Inisiatif inovatif ini akan mendorong pekerjaan NVIDIA untuk memajukan AI generatif, membentuk masa depan kecerdasan buatan dan aplikasinya di berbagai domain.

Pola desain

Infrastruktur AI yang dapat diskalakan

Project Ceiba akan tersedia melalui arsitektur Cloud NVIDIA DGX. DGX Cloud adalah platform AI end-to-end yang dapat diskalakan untuk pengembang, menawarkan kapasitas yang dapat diskalakan yang dibangun di atas arsitektur NVIDIA terbaru dan direkayasa bersama di setiap lapisan dengan AWS. DGX Cloud akan tersedia di AWS akhir tahun ini, dan AWS akan menjadi Penyedia Layanan Cloud pertama yang menawarkan DGX Cloud berbasis arsitektur NVIDIA Blackwell dengan GB200. Project Ceiba dibangun di atas infrastruktur AI AWS yang dibuat khusus, direkayasa untuk memberikan skala besar, keamanan yang ditingkatkan, dan kinerja tak tertandingi yang diperlukan untuk superkomputer sebesar ini.

Pola desain

Exaflops AI diproses, sekitar 375 kali lebih kuat dari superkomputer tercepat di dunia Frontier saat ini

per superchip, memungkinkan transfer dan pemrosesan data secepat kilat

GPU NVIDIA Blackwell, superkomputer pertama di dari jenisnya

Fitur

Proyek bersama ini telah menetapkan beberapa tonggak pencapaian penentuan industri:
Konfigurasi Proyek Ceiba mencakup 20.736 NVIDIA GB200 Grace Blackwell Superchip. Superkomputer pertama di jenisnya ini dibangun menggunakan GB200 NVL72 terbaru dari NVIDIA, sistem skala rak berpendingin cair yang menampilkan NVLink generasi kelima, yang diskalakan menjadi 20.736 GPU Blackwell yang terhubung ke 10.368 CPU Grace NVIDIA. Superkomputer ini mampu memproses 414 exaflops AI masif, sekitar 375 kali lebih kuat dibandingkan Frontier superkomputer tercepat di dunia saat ini. Jika kapasitas superkomputer di seluruh dunia saat ini digabungkan, kapasitas tersebut tidak akan mencapai 1% dari daya komputasi yang diwakili oleh 414 exaflops. Sebagai gambaran, hal ini setara dengan memiliki lebih dari 6 miliar komputer laptop tercanggih di dunia yang bekerja bersama-sama. Sebagai gambaran lebih jauh, jika setiap manusia di Bumi melakukan satu penghitungan per detik, mereka akan membutuhkan waktu lebih dari 1.660 tahun untuk menyamai apa yang dapat dicapai Proyek Ceiba hanya dalam satu detik.

Proyek Ceiba adalah sistem pertama yang memanfaatkan kemampuan menambahkan skala (scale out) yang masif dan diaktifkan oleh jaringan AWS Elastic Fabric Adapter (EFA) generasi keempat, yang menyediakan 1.600 Gbps per superchip dengan throughput jaringan bandwidth tinggi serta latensi rendah yang luar biasa, yang memungkinkan transfer dan pemrosesan data secepat kilat. 

Pendinginan cair telah ada selama bertahun-tahun. Gamer akan memilikinya untuk komputer gaming pribadi mereka. Meskipun hal ini bukan teknologi baru dan AWS sengaja memilih pendinginan udara dibandingkan pendinginan cair sebelum Proyek Ceiba karena pendinginan udara masuk akal untuk efektivitas biaya. Untuk mengatasi tantangan kepadatan daya dan memberikan daya komputasi yang tak tertandingi ini di Proyek Ceiba, AWS telah memelopori penggunaan pendinginan cair dalam skala besar di pusat data untuk solusi komputasi performa tinggi yang lebih efisien serta berkelanjutan.

Proyek Ceiba akan menggabungkan fitur keamanan terkemuka di industri yang dirancang untuk melindungi bahkan data AI yang paling sensitif sekalipun. Arsitektur GPU Blackwell NVIDIA, yang menyediakan komunikasi aman antara GPU yang terintegrasi dengan teknologi AWS Nitro System dan EFA, akan memungkinkan data terenkripsi end-to-end yang aman untuk beban kerja AI generatif. Solusi bersama ini menyediakan dekripsi dan pemuatan data AI sensitif ke dalam GPU sambil menjaga isolasi penuh dari operator infrastruktur. Semuanya sambil memverifikasi keaslian aplikasi yang digunakan untuk memproses data. Menggunakan Nitro System, pelanggan dapat memvalidasi aplikasi mereka secara kriptografis ke AWS Key Management System (KMS) dan melakukan dekripsi data hanya ketika pemeriksaan yang diperlukan lulus, sehingga memastikan enkripsi end-to-end untuk data mereka saat mengalir melalui beban kerja AI generatif. Baca blog ini dan kunjungi halaman web AI yang aman untuk mempelajari selengkapnya.