Instans P3 Amazon EC2

Percepat aplikasi machine learning dan komputasi kinerja tinggi dengan GPU yang kuat

Instans P3 Amazon EC2 memberikan komputasi berperforma tinggi di cloud dengan hingga 8 GPU NVIDIA® V100 Tensor Core dan throughput jaringan hingga 100 Gbps untuk machine learning dan aplikasi HPC. Instans ini memberikan hingga satu petaflop performa presisi campuran per instans untuk mempercepat machine learning dan aplikasi komputasi berperforma tinggi secara signifikan. Instans P3 Amazon EC2 telah terbukti mengurangi waktu pelatihan machine learning dari hitungan hari ke menit, serta meningkatkan jumlah simulasi yang diselesaikan untuk komputasi berperforma tinggi sebesar 3-4x.

Dengan bandwidth jaringan instans P3.16xlarge hingga 4x, instans P3dn.24xlarge Amazon EC2 merupakan tambahan terbaru untuk keluarga P3, yang dioptimalkan untuk aplikasi HPC dan machine learning terdistribusi. Instans ini memberikan throughput jaringan hingga 100 Gbps, 96 vCPU Intel® Xeon® Scalable (Skylake) kustom, 8 GPU NVIDIA® V100 Tensor Core dengan memori masing-masing sebesar 32 GiB, dan penyimpanan SSD berbasis NVMe lokal sebesar 1,8 TB. Instans P3dn.24xlarge juga mendukung Elastic Fabric Adapter (EFA) yang mengakselerasi aplikasi machine learning terdistribusi yang menggunakan NVIDIA Collective Communications Library (NCCL). EFA dapat diskalakan hingga ribuan GPU, secara signifikan meningkatkan throughput dan skalabilitas model pelatihan pembelajaran mendalam, yang akan memberikan hasil yang lebih cepat.

Ikhtisar Instans P3 Amazon EC2 (2:18)

Manfaat

Kurangi waktu pelatihan pembelajaran mesin dari hitungan hari menjadi hitungan menit

Untuk ilmuwan data, peneliti, dan pengembang yang perlu mempercepat aplikasi ML, instans P3 Amazon EC2 adalah yang tercepat di cloud untuk pelatihan ML. Instans P3 Amazon EC2 dilengkapi dengan hingga delapan GPU NVIDIA V100 Tensor Core generasi terbaru dan memberikan hingga satu petaflop performa presisi campuran untuk mempercepat beban kerja ML secara signifikan. Pelatihan model yang lebih cepat memungkinkan ilmuwan data dan perekayasa pembelajaran mesin mengulangi proses dengan lebih cepat, melatih lebih banyak model, dan meningkatkan akurasi.

Solusi paling hemat biaya di industri untuk pelatihan ML

Salah satu instans GPU yang paling tangguh di cloud yang digabungkan dengan paket harga yang fleksibel menghasilkan solusi yang sangat hemat biaya untuk pelatihan pembelajaran mesin. Seperti instans Amazon EC2 secara umum, instans P3 tersedia sebagai Instans Sesuai Permintaan, Instans Cadangan, atau Instans Spot. Instans Spot memanfaatkan kapasitas instans EC2 yang tidak digunakan dan dapat menurunkan biaya Amazon EC2 secara signifikan dengan diskon hingga 70% dari harga Sesuai Permintaan.

Komputasi yang fleksibel, tangguh, dan berkinerja tinggi

Tidak seperti sistem lokal, menjalankan komputasi berkinerja tinggi di instans P3 Amazon EC2 menawarkan kapasitas yang tidak terbatas secara virtual untuk memperluas skala infrastruktur, dan fleksibilitas untuk mengubah sumber daya dengan mudah dan sesering yang diminta oleh beban kerja Anda. Anda dapat mengonfigurasi sumber daya untuk memenuhi permintaan aplikasi Anda, dan meluncurkan klaster HPC dalam hitungan menit, dengan membayar hanya sesuai yang Anda gunakan.

Segera mulai membangun

Gunakan citra Docker yang sudah dikemas sebelumnya untuk menerapkan lingkungan deep learning dalam hitungan menit. Citra tersebut berisi pustaka kerangka kerja deep learning yang diperlukan (saat ini TensorFlow dan Apache MXNet) serta alat-alat dan telah sepenuhnya diuji. Anda dapat dengan mudah menambahkan pustaka dan alat Anda sendiri pada citra tersebut untuk tingkat kontrol yang lebih tinggi atas pemantauan, kepatuhan, dan pemrosesan data. Selain itu, instans P3 Amazon EC2 bekerja tanpa hambatan dengan Amazon SageMaker untuk memberikan platform machine learning lengkap yang kuat dan intuitif. Amazon SageMaker merupakan platform pembelajaran mesin yang dikelola secara penuh yang memungkinkan Anda membangun, melatih, dan menerapkan model pembelajaran mesin dengan cepat dan mudah. Selain itu, instans P3 Amazon EC2 dapat diintegrasikan dengan Amazon Machine Image (AMI) AWS Deep Learning yang diinstal sebelumnya dengan kerangka kerja deep learning populer. Cara ini akan mempercepat dan mempermudah untuk memulai dengan pelatihan dan inferensi pembelajaran mesin.

Pelatihan pembelajaran mesin multi-node yang dapat diskalakan

Anda dapat menggunakan instans P3 Amazon EC2 dengan throughput jaringan hingga 100 Gbps untuk melatih model pembelajaran mesin dengan cepat. Throughput jaringan yang lebih tinggi memungkinkan pengembang mengatasi kemacetan transfer data dan secara efisien memperluas skala tugas pelatihan model mereka di beberapa instans P3. Pelanggan dapat melatih ResNet-50, model klasifikasi gambar umum, sesuai akurasi standar industri hanya dalam 18 menit menggunakan 16 instans P3. Tingkat performa ini sebelumnya tidak dapat tercapai oleh sebagian besar pelanggan ML karena memerlukan investasi CapEx yang besar untuk membangun klaster GPU lokal. Dengan instans P3 dan ketersediaannya melalui model penggunaan Sesuai Permintaan, tingkat performa ini kini dapat diakses oleh semua developer dan teknisi pembelajaran mesin. Selain itu, instans P3dn.24xlarge mendukung Elastic Fabric Adapter (EFA) yang menggunakan NVIDIA Collective Communications Library (NCCL) untuk meningkatkan skala hingga ribuan GPU.

Dukungan untuk semua kerangka kerja pembelajaran mesin utama

Instans P3 Amazon EC2 mendukung semua kerangka kerja pembelajaran mesin utama termasuk TensorFlow, PyTorch, Apache MXNet, Caffe, Caffe2, Microsoft Cognitive Toolkit (CNTK), Chainer, Theano, Keras, Gluon, dan Torch. Anda memiliki fleksibilitas untuk memilih kerangka kerja yang berfungsi paling baik untuk aplikasi Anda.

Kisah pelanggan

Airbnb

Airbnb menggunakan pembelajaran mesin untuk mengoptimalkan rekomendasi pencarian dan meningkatkan panduan harga dinamis untuk host, yang keduanya berarti peningkatan konversi pemesanan. Dengan instans P3 Amazon EC2, Airbnb dapat menjalankan beban kerja pelatihan yang lebih cepat, melalui lebih banyak iterasi, membangun model pembelajaran mesin yang lebih baik, dan mengurangi biaya.

Celgene

Celgene adalah sebuah perusahaan bioteknologi global yang sedang mengembangkan terapi bertarget yang sesuai dengan perawatan pasien. Perusahaan ini menjalankan berbagai beban kerja HPC mereka untuk pengurutan genomik dan simulasi kimiawi generasi berikutnya di instans P3 Amazon EC2. Dengan ketangguhan komputasi ini, Celgene dapat melatih model deep learning untuk membedakan sel-sel ganas dan sel-sel jinak. Sebelum menggunakan instans P3, menjalankan tugas komputasional berskala besar yang sebelumnya perlu waktu dua bulan kini hanya perlu waktu empat jam. Teknologi AWS telah memungkinkan Celgene untuk mempercepat pengembangan terapi obat-obatan untuk penyakit kanker dan peradangan.

Hyperconnect memiliki keahlian dalam menerapkan teknologi baru berbasis pembelajaran mesin untuk pada pemrosesan gambar dan video, serta merupakan perusahaan pertama yang mengembangkan webRTC untuk platform seluler.

“Hyperconnect menggunakan klasifikasi gambar berbasis AI pada aplikasi komunikasi videonya untuk mengenali lingkungan tempat pengguna berada saat ini. Kami mengurangi waktu pelatihan model ML dari satu pekan lebih menjadi kurang dari satu hari dengan memigrasi dari tempat kerja lokal ke sejumlah instans P3 Amazon EC2 menggunakan Horovod. Dengan menggunakan PyTorch sebagai kerangka kerja pembelajaran mesin, kami mampu mengembangkan model dengan cepat dan memanfaatkan pustaka yang tersedia di komunitas sumber terbuka.”

Sungjoo Ha, Director of AI Lab - Hyperconnect

Baca studi kasus lengkap »

NerdWallet adalah startup keuangan pribadi yang menyediakan alat dan saran yang memudahkan nasabah dalam membayar utang, memilih produk dan layanan keuangan terbaik, serta mencapai tujuan besar dalam hidup seperti membeli rumah atau menabung untuk masa pensiun. Perusahaan ini sangat mengandalkan ilmu data dan pembelajaran mesin (ML) untuk menghubungkan nasabah dengan produk keuangan yang dipersonalisasi.

Penggunaan Amazon SageMaker dan instans P3 Amazon EC2 dengan GPU Tensor Core NVIDIA V100 juga telah meningkatkan fleksibilitas serta kinerja NerdWallet, dan mengurangi waktu yang dibutuhkan para ilmuwan data dalam melatih model ML. “Sebelumnya kami membutuhkan waktu berbulan-bulan untuk meluncurkan dan mengulang model; kini dapat selesai dalam hitungan hari,”

Ryan Kirkman, Senior Engineering Manager - NerdWallet

Baca studi kasus lengkap »

Pemimpin dalam solusi sistem berkualitas, PathWise milik Aon merupakan suite aplikasi SaaS berbasis cloud yang sesuai untuk pembuatan model manajemen risiko perusahaan yang memberikan kecepatan, keandalan, keamanan, dan layanan sesuai permintaan ke banyak pelanggan.

“PathWise Solutions Group milik Aon menyediakan solusi manajemen risiko yang memungkinkan pelanggan kami memanfaatkan teknologi terbaru untuk mengatasi tantangan utama asuransi saat ini dengan cepat, seperti mengelola dan menguji strategi lindung, regulasi serta prakiraan ekonomi, juga penyusunan anggaran. PathWise telah berjalan di AWS dalam produksi sejak 2011, dan kini menggunakan instans Seri P Amazon EC2 untuk mempercepat kebutuhan komputasi guna mengatasi tantangan bagi pelanggan kami di seluruh dunia dalam pasar yang terus maju dan berevolusi.”

Van Beach, Global Head of Life Solutions, Aon Pathwise Strategy and Technology Group

Baca studi kasus »

Pinterest

Pinterest menggunakan pelatihan presisi campuran pada instans P3 di AWS untuk mempercepat pelatihan model deep learning, serta menggunakan instans tersebut untuk inferensi yang lebih cepat dari model tersebut, untuk memberi pengguna pengalaman pencarian yang cepat dan unik. Pinterest menggunakan PinSage, yang dibuat menggunakan PyTorch di AWS. Model AI ini mengelompokkan beberapa gambar berdasarkan tema tertentu. Dengan 3 miliar gambar pada platform, terdapat 18 miliar keterkaitan berbeda yang menghubungkan gambar. Keterkaitan tersebut membantu Pinterest mengontekstualisasikan tema, gaya, dan menghasilkan pengalaman pengguna yang lebih dipersonalisasi

Salesforce

Salesforce menggunakan pembelajaran mesin untuk menjalankan Einstein Vision, yang memungkinkan pengembang memanfaatkan daya pengenalan gambar untuk kasus penggunaan seperti pencarian visual, deteksi merek, dan identifikasi produk. Instans P3 Amazon EC2 memungkinkan pengembang melatih model pembelajaran mendalam jauh lebih cepat sehingga mereka dapat mencapai sasaran pembelajaran mesin dengan cepat.

Schrodinger

Schrodinger menggunakan komputasi kinerja tinggi (HPC) untuk mengembangkan model prediktif untuk memperluas skala pencarian dan optimalisasi serta memberi pelanggan kemampuan untuk memasarkan dengan cepat obat-obatan yang menyelamatkan nyawa. Instans P3 Amazon EC2 memungkinkan Schrodinger menjalankan empat kali lebih banyak simulasi dalam satu hari dengan instans P2.  

Subtle Medical merupakan perusahaan teknologi kesehatan yang bekerja untuk meningkatkan efisiensi pencitraan medis dan pengalaman pasien dengan solusi pembelajaran mendalam yang inovatif. Timnya terdiri dari ilmuwan pencitraan terkemuka, pakar radiologi, dan ahli AI dari Stanford, MIT, MD Anderson, dan banyak lagi.

“Rumah sakit dan pusat pencitraan ingin mengadopsi solusi ini tanpa membebani departemen IT mereka guna memperoleh keahlian GPU dan membangun serta memelihara pusat data atau cloud mini berbiaya tinggi. Mereka ingin berhasil dalam penerapan mereka dengan upaya dan investasi dalam jumlah kecil... AWS membuat semua ini mungkin.”

Enhao Gong, Pendiri dan CEO - Subtle Medical

Baca studi kasus lengkap »

Western Digital

Western Digital menggunakan HPC untuk menjalankan ribuan ribu simulasi untuk ilmu material, aliran panas, magnetika, dan transfer data untuk meningkatkan kinerja dan kualitas drive disk serta solusi penyimpanan. Berdasarkan pengujian awal, instans P3 memungkinkan tim teknik menjalankan simulasi setidaknya tiga kali lebih cepat dari solusi yang diterapkan sebelumnya.  

Instans P3 Amazon EC2 dan Amazon SageMaker

Cara tercepat untuk melatih dan menjalankan model pembelajaran mesin

Amazon SageMaker adalah layanan yang dikelola sepenuhnya untuk membuat, melatih, dan menerapkan model pembelajaran mesin. Pada saat diagunakan dengan instans P3 Amazon EC2, pelanggan dapat menskalakan ke puluhan, ratusan, atau ribuan GPU dengan mudah untuk melatih model dengan cepat pada segala skala tanpa perlu khawatir menyiapkan klaster dan pipeline data. Anda juga dapat mengakses sumber daya Amazon Virtual Private Cloud (Amazon VPC) dengan mudah untuk alur kerja pelatihan dan hosting di Amazon SageMaker. Dengan fitur ini, Anda dapat menggunakan bucket Amazon Simple Storage Service (Amazon S3) yang hanya dapat diakses melalui VPC untuk menyimpan data pelatihan, serta menyimpan dan meng-hosting artefak model yang berasal dari proses pelatihan. Selain S3, model dapat mengakses semua sumber daya AWS lain yang terdapat di VPC. Pelajari selengkapnya.

Bangun

Amazon SageMaker mempermudah untuk membangun model pembelajaran mesin dan menyiapkannya untuk pelatihan. Layanan ini memberikan segala hal yang Anda perlukan untuk tersambung dengan cepat ke data pelatihan Anda, dan untuk memilih serta mengoptimalkan algoritme dan kerangka kerja terbaik untuk aplikasi Anda. Amazon SageMaker meliputi buku catatan Jupyter yang di-host yang memudahkan untuk mengeksplorasi dan memvisualisasikan data pelatihan Anda yang disimpan di Amazon S3.  Anda juga dapat menggunakan instans buku catatan untuk menulis kode pembuatan tugas pelatihan model, menerapkan model ke hosting Amazon SageMaker, dan menguji atau memvalidasi model Anda.

Latih

Anda dapat mulai melatih model Anda dengan sekali klik di konsol atau dengan panggilan API. Amazon SageMaker telah dikonfigurasi sebelumnya dengan versi terbaru TensorFlow dan Apache MXNet, dan dengan dukungan pustaka CUDA9 untuk performa optimal dengan GPU NVIDIA. Selain itu, optimalisasi hiper-parameter dapat menyesuaikan model Anda secara otomatis dengan menyesuaikan kombinasi parameter yang berbeda secara cerdas untuk mencapai prediksi yang paling akurat dengan cepat. Untuk keperluan skala yang lebih besar, Anda dapat menskalakan ke puluhan instans untuk mendukung pembuatan model yang lebih cepat.

Terapkan

Setelah pelatihan, Anda dapat menggunakan fitur sekali klik untuk menerapkan model Anda di instans Amazon EC2 auto-scaling di beberapa Availability Zone. Dalam produksi, Amazon SageMaker membantu Anda mengelola infrastruktur komputasi untuk melakukan pemeriksaan kesehatan, menerapkan patch keamanan, dan melakukan perawatan rutin lain, semuanya dengan pemantauan dan pencatatan log Amazon CloudWatch bawaan.

 

Instans P3 Amazon EC2 dan AMI AWS Deep Learning

Lingkungan pengembangan yang sudah dikonfigurasi sebelumnya untuk mulai membangun aplikasi deep learning dengan cepat

Selain Amazon SageMaker bagi pengembang yang memiliki persyaratan yang lebih terkustomisasi, AMI AWS Deep Learning menyediakan praktisi dan peneliti machine learning dengan infrastruktur dan peralatan guna mempercepat proses deep learning dalam cloud, pada segala skala. Anda dapat dengan cepat meluncurkan instans P3 Amazon EC2 yang telah diinstal sebelumnya dengan kerangka kerja deep learning populer seperti TensorFlow, PyTorch, Apache MXNet, Microsoft Cognitive Toolkit, Caffe, Caffe2, Theano, Torch, Chainer, Gluon, dan Keras untuk melatih model AI kustom yang canggih, bereksperimen dengan algoritme baru, atau mempelajari keahlian dan teknik baru. Pelajari selengkapnya >>

Instans P3 Amazon EC2 dan komputasi berkinerja tinggi

Atasi masalah komputasi besar dan dapatkan wawasan baru menggunakan keunggulan HPC di AWS

Instans P3 Amazon EC2 merupakan platform yang ideal untuk menjalankan simulasi teknik, keuangan komputasional, analisis seismik, pemodelan molekul, genomik, rendering, dan beban kerja komputasi GPU lainnya. Komputasi performa tinggi (HPC) memungkinkan ilmuwan dan teknisi memecahkan masalah komputasi yang intensif dan kompleks ini. Aplikasi HPC sering kali memerlukan performa jaringan yang tinggi, penyimpanan cepat, memori dalam jumlah besar, kemampuan komputasi tinggi, atau semua yang disebutkan di atas. AWS memungkinkan Anda meningkatkan kecepatan penelitian dan mengurangi waktu-ke-hasil dengan menjalankan HPC di cloud dan penskalaan ke sejumlah besar tugas paralel yang praktis di sebagian besar lingkungan lokal. Misalnya, instans P3dn.24xlarge mendukung Elastic Fabric Adapter (EFA) yang memungkinkan aplikasi HPC menggunakan Message Passing Interface (MPI) untuk meningkatkan skala hingga ribuan GPU. AWS membantu mengurangi biaya dengan menyediakan solusi yang dioptimalkan untuk aplikasi tertentu, dan tanpa perlu investasi modal besar. Pelajari selengkapnya >>

Dukungan untuk Stasiun Kerja Virtual NVIDIA RTX

AMI Stasiun Kerja Virtual NVIDIA RTX memberikan kinerja grafis tinggi menggunakan instans P3 dengan GPU NVIDIA Volta V100 yang berjalan di AWS Cloud. AMI ini memiliki perangkat lunak grafis GPU NVIDIA terbaru yang diinstal sebelumnya bersama dengan driver RTX dan sertifikasi NVIDIA ISV yang mendukung resolusi desktop hingga empat 4K. Instans P3 dengan GPU NVIDIA V100 yang dikombinasikan dengan vWS RTX memberikan stasiun kerja performa tinggi di cloud dengan memori GPU hingga 32 GiB, ray tracing cepat, dan rendering yang didukung kecerdasan buatan (AI).

AMI baru tersedia di AWS Marketplace serta mendukung Windows Server 2016 dan Windows Server 2019.

Instans P3dn.24xlarge Amazon EC2

Ukuran instans yang lebih cepat, lebih tangguh, dan lebih besar yang dioptimalkan untuk machine learning terdistribusi dan komputasi performa tinggi

Instans P3dn.24xlarge Amazon EC2 adalah ukuran instans P3 tercepat, tertangguh, dan terbesar yang tersedia serta memberikan throughput jaringan hingga 100 Gbps, 8 GPU NVIDIA® V100 Tensor Core dengan masing-masing memori sebesar 32 GiB, 96 vCPU Intel® Xeon® Scalable (Skylake) kustom, dan penyimpanan SSD lokal berbasis NVMe sebesar 1,8 TB. Jaringan yang lebih cepat, prosesor yang baru, penggandaan memori GPU, dan vCPU tambahan memungkinkan developer untuk secara signifikan mengurangi waktu untuk melatih model ML mereka atau menjalankan lebih banyak simulasi HPC dengan menskalakan keluar tugas mereka di beberapa instans (misalnya, 16, 32 atau 64 instans). Model machine learning memerlukan data dalam jumlah besar untuk pelatihan dan, selain untuk meningkatkan throughput data yang lewat antar-instans, throughput jaringan tambahan instans P3dn.24xlarge juga dapat digunakan untuk mempercepat akses ke sejumlah data pelatihan dengan menghubungkan ke Amazon S3 atau solusi sistem file bersama seperti Amazon EFS.

Mengatasi bottleneck dan mengurangi waktu pelatihan machine learning

Dengan throughput jaringan sebesar 100 Gbps, developer dapat secara efisien menggunakan instans P3dn.24xlarge dalam jumlah besar untuk pelatihan terdistribusi dan untuk secara signifikan mengurangi waktu dalam melatih model mereka. 96vCPUs prosesor Skylake Intel kustom AWS dengan instruksi AVX-512 yang beroperasi pada 2,5GHz membantu mengoptimalkan pra-pemrosesan data. Selain itu, instans P3dn.24xlarge menggunakan AWS Nitro System, kombinasi perangkat keras khusus dan hypervisor ringan, yang mengirimkan hampir seluruh sumber daya memori dan komputasi perangkat keras host ke instans Anda. Instans P3dn.24xlarge juga mendukung Elastic Fabric Adapter yang memungkinkan aplikasi ML menggunakan NVIDIA Collective Communications Library (NCCL) untuk menskalakan hingga ribuan GPU.

TCO yang lebih rendah dengan mengoptimalkan utilisasi GPU

Peningkatan jaringan menggunakan versi terbaru Elastic Network Adapter dengan bandwidth jaringan gabungan hingga 100 Gbps tidak hanya dapat digunakan untuk berbagi data di beberapa instans P3dn.24xlarge, tetapi juga untuk akses data throughput tinggi melalui Amazon S3 atau solusi sistem file bersama seperti Amazon EFS. Akses data throughput tinggi sangat penting untuk mengoptimalkan utilisasi GPU dan memberikan performa maksimum instans komputasi.

Mendukung model yang lebih besar dan lebih kompleks

Instans P3dn.24xlarge menawarkan GPU NVIDIA V100 Tensor Core dengan memori 32GiB yang memberikan fleksibilitas untuk melatih model machine learning yang lebih canggih dan lebih besar serta memproses batch data yang lebih besar seperti gambar 4k untuk sistem klasifikasi gambar dan deteksi objek.

Detail produk Instans P3 Amazon EC2

Ukuran Instans GPU – Tesla V100 Peer to Peer GPU Memori GPU (GB) vCPU Memori (GB) Bandwidth Jaringan Bandwidth EBS Harga Sesuai Permintaan/jam* Instans Cadangan 1 Tahun Efektif Per Jam* Instans Cadangan 3 Tahun Efektif Per Jam*
p3.2xlarge 1 N/A 16 8 61 Hingga 10 Gbps 1,5 Gbps 3,06 USD 1,99 USD 1,05 USD
p3.8xlarge 4
NVLink 64 32 244 10 Gbps 7 Gbps 12,24 USD 7,96 USD 4,19 USD
p3.16xlarge 8 NVLink 128 64 488 25 Gbps 14 Gbps 24,48 USD 15,91 USD 8,39 USD
p3dn.24xlarge 8 NVLink 256 96 768 100 Gbps 19 Gbps 31,218 USD 18,30 USD 9,64 USD

* - Harga yang ditampilkan adalah untuk Linux/Unix di Wilayah AWS AS Timur (Virginia Utara) dan dibulatkan ke sen terdekat. Untuk detail harga lengkap, lihat halaman harga Amazon EC2.

Pelanggan dapat membeli instans P3 sebagai Instans Sesuai Permintaan, Instans Terpesan, Instans Spot, dan Host Khusus.

Penagihan menurut detik

Salah satu kelebihan komputasi cloud adalah sifat penyediaan dan pembatalan penyediaan sumber daya yang elastis sesuai kebutuhan Anda. Dengan menagih penggunaan menurut detik penggunaan, kami memungkinkan pelanggan menyesuaikan elastisitas mereka, menghemat biaya, dan memungkinkan mereka mengoptimalkan alokasi sumber daya untuk mencapai sasaran pembelajaran mesin.

Harga Instans Cadangan

Instans Terpesan memberi Anda diskon yang signifikan (hingga 75%) dibandingkan dengan harga Instans Sesuai Permintaan. Selain itu, ketika Instans Terpesan ditetapkan pada Availability Zone tertentu, Instans tersebut menyediakan pencadangan kapasitas, sehingga Anda semakin yakin pada kemampuan Anda untuk meluncurkan instans saat Anda memerlukannya.

Harga Spot

Dengan Instans Spot, Anda membayar harga Spot yang berlaku untuk periode waktu berjalannya instans Anda. Harga Instans Spot diatur oleh Amazon EC2 dan disesuaikan secara bertahap berdasarkan tren jangka panjang dalam persediaan dan permintaan untuk kapasitas Instans Spot. Instans Spot tersedia dengan diskon hingga 90% jika dibandingkan dengan harga Sesuai Permintaan.

Ketersediaan global terluas

Ketersediaan global instans P3

Instans P3.2xlarge, P3.8xlarge, dan P3.16xlarge Amazon EC2 tersedia di 14 Wilayah AWS sehingga pelanggan memiliki fleksibilitas untuk melatih dan menerapkan model pembelajaran mesin di mana pun data mereka disimpan. Wilayah yang tersedia untuk P3 adalah Wilayah AWS AS Timur (Virginia U.), AS Timur (Ohio), AS Barat (Oregon), Kanada (Pusat), Eropa (Irlandia), Eropa (Frankfurt), Eropa (London), Asia Pasifik (Tokyo), Asia Pasifik (Seoul), Asia Pasifik (Sydney), Asia Pasifik (Singapura), Tiongkok (Beijing), Tiongkok (Ningxia), dan GovCloud (AS Barat).

Instans P3dn.24xlarge tersedia di wilayah AWS Asia Pasifik (Tokyo), Eropa (Irlandia), AS Timur (Virginia U.), AS Barat (Oregon), GovCloud (AS Barat), dan GovCloud (AS Timur).

Mulai menggunakan instans P3 Amazon EC2 untuk pembelajaran mesin

Untuk memulai dalam hitungan menit, pelajari selengkapnya tentang Amazon SageMaker atau gunakan AMI AWS Deep Learning, yang telah diinstal sebelumnya dengan kerangka kerja pembelajaran mendalam seperti Caffe2 dan MXNet. Atau, Anda juga dapat menggunakan AMI NVIDIA dengan driver GPU dan toolkit CUDA yang telah diinstal sebelumnya.

Blog, Artikel, dan Webinar

Tanggal Siaran: 19 Desember 2018

Tingkat: 200

Visi komputer berkaitan dengan bagaimana komputer dapat dilatih guna memperoleh pemahaman tingkat tinggi dari gambar atau video digital. Sejarah visi komputer berasal dari tahun 1960-an, tetapi kemajuan terbaru dalam teknologi pemrosesan telah memungkinkan aplikasi seperti navigasi kendaraan otonom. Bincang-bincang teknologi ini akan meninjau berbagai langkah yang diperlukan untuk membangun, melatih, dan menerapkan model pembelajaran mesin untuk visi komputer. Kami akan membandingkan dan membedakan pelatihan model visi komputer menggunakan berbagai instans Amazon EC2 dan menyoroti bagaimana penghematan waktu dapat dicapai dengan menggunakan instans P3 Amazon EC2.

Tanggal Siaran: 31 Juli 2018

Tingkat 200

Organisasi menangani pertanyaan kompleks secara eksponensial di bidang ilmiah, energi, teknologi tinggi, dan medis lanjutan. Machine learning (ML) memungkinkan untuk mengeksplorasi banyak skenario dengan cepat dan menghasilkan jawaban terbaik, mulai dari gambar, video, dan pengenalan suara hingga sistem kendaraan otonom serta prediksi cuaca. Untuk ilmuwan data, peneliti, dan pengembang yang perlu mempercepat pengembangan aplikasi ML, instans P3 Amazon EC2 adalah instans komputasi GPU yang paling kuat, hemat biaya, dan serbaguna yang tersedia di cloud.

Tentang Amazon SageMaker

Klik di sini untuk mempelajari selengkapnya

Tentang Deep Learning di AWS

Klik di sini untuk mempelajari selengkapnya

Tentang Komputasi Berperforma Tinggi (HPC)

Klik di sini untuk mempelajari selengkapnya
Siap untuk memulai?
Daftar
Ada pertanyaan lagi?
Hubungi kami