Amazon SageMaker のよくある質問

全般

SageMaker は、フルマネージドインフラストラクチャ、ツール、ワークフローを使用して、あらゆるユースケース向けのデータの準備、機械学習 (ML) モデルの構築、トレーニング、デプロイを行うフルマネージドサービスです。

サポートされている SageMaker リージョンの一覧は、AWS リージョン別のサービスのページをご覧ください。詳細については、AWS の全般的なリファレンスガイドでリージョン別エンドポイントを参照してください。

SageMaker では、高可用性が実現されるように設計されています。メンテナンスの時間帯や定期的なダウンタイムはありません。SageMaker API は、Amazon の実績ある高可用性データセンターで実行されます。リージョンごとにサービススタックレプリケーションが 3 施設にまたがって構成されており、サーバー障害やアベイラビリティーゾーンの機能停止が発生した場合に耐障害性を発揮します。

SageMaker は、ML ストレージボリュームにコードを保存し、セキュリティグループで保護します。また、必要に応じて保管時に暗号化します。

SageMaker では、ML モデルと他のシステムのアーティファクトが転送中も保管時も暗号化されます。SageMaker の API とコンソールに対するリクエストには、安全な SSL 接続が使用されます。お客様は、AWS Identity and Access Management ロールを SageMaker に渡すことで、お客様に代わってトレーニングとデプロイのリソースにアクセスするための権限を付与します。暗号化された Amazon Simple Storage Service (Amazon S3) バケットをモデルアーティファクトやデータに使用し、AWS Key Management Service (AWS KMS) キーを SageMaker ノートブック、トレーニングジョブ、およびエンドポイントに渡すと、接続されている ML ストレージボリュームを暗号化できます。SageMaker は、Amazon Virtual Private Cloud (Amazon VPC) と AWS PrivateLink もサポートしています。

SageMaker は、顧客モデル、トレーニングデータやアルゴリズムを使用または共有しません。お客様がプライバシーとデータセキュリティについて懸念されるのは当然のことです。このため、AWS ではコンテンツの所有権と管理権をお客様にお渡ししています。簡素化されたパワフルなツールによって、自分のコンテンツをどこに保存するかをお客様に決定していただき、転送中のコンテンツと保管中のコンテンツを保護し、お客様のユーザーの AWS のサービスとリソースに対するアクセスを管理できるようにしています。また、お客様のコンテンツに対する不正アクセスや開示を防止するよう設計された技術的および物理的な管理を実践しています。お客様のコンテンツの所有権はお客様が保持します。また、お客様のコンテンツを処理、保存、ホストする AWS のサービスはお客様が選択します。いかなる目的であっても、AWS はお客様の同意を得ることなく、お客様のコンテンツにアクセスすることはありません。

ノートブックのホスティング、モデルのトレーニング、予測の実行、および出力のロギングのためにお客様が使用した ML 計算、ストレージ、およびデータ処理リソースに対してお支払いいただきます。SageMaker では、ホスト型のノートブック、トレーニング、およびモデルホスティングに使用するインスタンスの数とタイプを選択できます。最低使用料金や前払いの義務はなく、実際に使用した分に対してのみお支払いいただきます。詳細については、Amazon SageMaker の料金ページAmazon SageMaker の料金計算ツールをご覧ください。

SageMaker のリソース使用量を最適化するために採用できるベストプラクティスがいくつかあります。構成の最適化を伴うアプローチもあれば、プログラムによるソリューションを伴うアプローチもあります。ビジュアルチュートリアルとコードサンプルを含むこの概念についての完全なガイドは、本ブログ記事にあります。

SageMaker は十分で完全なエンドツーエンドのワークフローを提供しますが、引き続き既存のツールを SageMaker と共に使用することもできます。ビジネス要件に応じて、簡単に各ステージの結果を SageMaker に転送したり、SageMaker から転送したりできます。

はい。R は、SageMaker ノートブックインスタンス内で使用できます。これには、事前インストールされた R カーネルと reticulate ライブラリが含まれています。Reticulate は、Amazon SageMaker Python SDK 向けの R インターフェイスを提供し、機械学習の専門家が R モデルの構築、トレーニング、調整、デプロイに役立ちます。また、Amazon SageMaker Studio で R の統合開発環境 (IDE) である RStudio を起動することもできます。 

Amazon SageMaker Studio は、すべての機械学習開発ステップを実行できる、単一のウェブベースビジュアルインターフェイスを提供します。SageMaker Studio はデータの準備、モデルの構築、トレーニング、デプロイに必要な各ステップに対し、完全なアクセス、管理、可視性をもたらします。データのアップロード、新規ノートブックの作成、モデルのトレーニングと調整、ステップ間での移動などを迅速にこなし、さまざまな試みを調整したり、結果を比較したり、本番環境にモデルをデプロイするといった処理をすべて 1 か所から実行でき、生産性を飛躍的に向上できます。ノートブック、試作管理、自動のモデル作成、デバッグ、プロファイリング、モデルの変動検出など、すべての ML 開発手順は SageMaker Studio のビジュアルインターフェイスで実行できます。

SageMaker Studio は、追加料金なしでご利用いただけます。SageMaker Studio 内で使用するサービスの基礎となるコンピューティングおよびストレージ料金のみを支払います。

SageMaker Studio がサポートされているリージョンは、Amazon SageMaker デベロッパーガイドでご覧いただけます。

Amazon SageMaker Clarify は、機械学習ワークフロー全体で統計的バイアスを検出することにより、モデルの透明性を向上させるのに役立ちます。SageMaker Clarify は、データの準備中、トレーニング後、および時間の経過とともに不均衡をチェックし、ML モデルとその予測を説明するのに役立つツールも備えています。検出結果は、説明可能性レポートを通じて共有できます。

ML モデルでバイアスを測定することは、バイアスの軽減に向けた最初のステップです。バイアスは、(データ準備の一環として) トレーニング前、(Amazon SageMaker Experiments を利用して) トレーニング後、および (Amazon SageMaker Model Monitor を利用して) デプロイされたモデルの推論中に測定できます。20 を超えるバイアスメトリクスはそれぞれ、さまざまな公平性の概念に対応しています。調査対象のアプリケーションと状況で有効なメトリクスを選択します。例えば、トレーニング前に、クラスの不均衡やグループ間のラベル分布の差などのメトリクスで、トレーニングデータが母集団全体をどの程度よく表しているのかを確認できます。SageMaker Clarify は、あるグループが過小評価されていないかどうかを検出するために、肯定的な (好ましい) 結果の差と個々のラベル分布の差の両方を考慮します。トレーニング後またはデプロイ中に、バイアスメトリクスは、モデルのパフォーマンスがグループ間で異なるかどうか、どの程度異なるかを測定するのに役立ちます。同等の代表や異なる影響などのメトリクスは、肯定的な予測における差を測定します。精度 (肯定的な予測が正しい可能性) や再現率 (モデルが肯定的な例に正しくラベル付けする可能性) の差などの同等のパフォーマンスのメトリクスは、グループ全体で誤差分布が等しいかを評価します。詳細については、このブログ記事をご覧ください。 

SageMaker Clarify は SageMaker Experiments と統合されており、トレーニングされた後のモデルの全体的な意思決定プロセスにおける各入力の重要度を詳細に示す特徴の重要度のグラフを提供します。これらの詳細は、特定のモデル入力がモデル全体の動作に必要以上の影響を与えるかどうかを判断するのに役立ちます。また、SageMaker Clarify では、個々の予測結果に対する解説を API を通じて公開しています。 

機械学習ガバナンス

SageMaker は、機械学習ライフサイクル全体にわたって、目的に応じた機械学習ガバナンスツールを提供します。Amazon SageMaker Role Manager を使用すると、管理者は最小限の権限を数分で定義できます。Amazon SageMaker Model Cards を使用すると、構想からデプロイまで、重要なモデル情報を簡単に取得、検索、共有でき、Amazon SageMaker Model Dashboard を使用すると、本番モデルの動作に関する情報をすべて 1 か所で把握することができます。詳細については、
Amazon SageMaker による 機械学習ガバナンスを参照してください。

SageMaker Role Manager を使用して、最小限のアクセス許可を数分で定義できます。SageMaker Role Manager は、事前に構築された IAM ポリシーのカタログを使用して、機械学習アクティビティとペルソナのための権限のベースラインセットを提供します。基本的な権限を維持することも、特定のニーズに基づいてさらにカスタマイズすることもできます。ネットワークアクセスの境界や暗号化キーなど、一般的なガバナンスの構成は、いくつかのセルフガイドプロンプトですぐに入力できます。SageMaker Role Manager は、IAM ポリシーを自動的に生成します。生成されたロールと関連するポリシーは、AWS IAM コンソールで確認できます。ユースケースに合わせて権限をさらに調整するには、マネージド IAM ポリシーを、SageMaker Role Manager で作成した IAM ロールにアタッチします。また、タグを追加してロールを識別し、AWS のサービス間で整理することができます。

SageMaker Model Cards は、モデル情報の単一の情報源を作成することによって、機械学習ライフサイクル全体を通してモデルドキュメントの一元化と標準化を支援します。SageMaker Model Cards は、トレーニングの詳細をオートポピュレートし、ドキュメント化プロセスを加速します。また、モデルの目的やパフォーマンス目標などの詳細を追加することもできます。モデルの評価結果をモデルカードに添付し、モデルのパフォーマンスに関する重要なインサイトを得るための視覚化を提供することができます。SageMaker Model Cards は、PDF 形式でエクスポートすることで、簡単に他の人と共有することができます。

SageMaker Model Dashboard は、デプロイされたモデルとエンドポイントの包括的な概要を提供し、リソースとモデルの動作違反を 1 つのペインで追跡することができます。SageMaker Model Monitor および SageMaker Clarify との統合により、データとモデルの品質、バイアスとフィーチャーアトリビューションドリフトを含む 4 つの次元でモデルの動作をモニタリングすることが可能です。SageMaker Model Dashboard は、モデルモニタリングジョブの欠落や非アクティブ、モデル品質、データ品質、バイアスドリフト、フィーチャーアトリビューションドリフトに関するモデル動作の逸脱に対するアラートを設定および受信するための統合エクスペリエンスも提供します。さらに、個々のモデルを検査し、モデルのパフォーマンスに影響を与える要因を時系列で分析することができます。そして、機械学習実践者のフォローアップを行い、是正措置を講じることができます。

基盤モデル

SageMaker JumpStart は、機械学習をすばやく簡単に開始するのに役立ちます。SageMaker JumpStart は、最も一般的なユースケース向けの一連のソリューションを提供し、数回のステップだけで簡単にデプロイできます。ソリューションは完全にカスタマイズ可能であり、AWS CloudFormation テンプレートとリファレンスアーキテクチャの使用を紹介しているため、ML の導入を加速できます。SageMaker JumpStart は、基盤モデルも提供し、トランスフォーマー、オブジェクト検出、画像分類モデルなど、150 を超える人気のオープンソースモデルのワンステップデプロイと微調整もサポートしています。 

SageMaker JumpStart は専用モデルとパブリックモデルを提供します。利用可能な基盤モデルのリストについては、Amazon SageMaker JumpStart の開始方法を参照してください。

基盤モデルには、SageMaker Studio、SageMaker SDK、および AWS マネジメントコンソールからアクセスできます。独自の基盤モデルの使用を開始するには、AWS Marketplace の販売条件を承諾する必要があります。

いいえ、ご自身の推論およびトレーニングデータは、SageMaker JumpStart がお客様に提供する基本モデルの更新やトレーニングに使用または共有されることはありません。

いいえ、専用モデルでは、お客様がモデルの重みやスクリプトを表示することはできません。

モデルは SageMaker Studio が利用可能なすべてのリージョンで見つけることができますが、モデルをデプロイできるかどうかは、必要なインスタンスタイプのモデルとインスタンスの可用性によって異なります。AWS Marketplace のモデル詳細ページから AWS リージョンの可用性と必要なインスタンスを参照できます。

専用モデルの場合は、モデルプロバイダーが決定するソフトウェア価格と、使用したインスタンスに基づいて SageMaker インフラストラクチャ料金が課金されます。公開されているモデルについては、使用したインスタンスに基づいて SageMaker インフラストラクチャ料金が課金されます。詳細については、Amazon SageMaker の料金AWS Marketplace を参照してください。

AWS ではセキュリティが最優先事項であり、SageMaker JumpStart はセキュリティを考慮して設計されています。このため、SageMaker ではコンテンツの所有権と管理権をお客様に提供しています。簡素化されたパワフルなツールは、お客様が自分のコンテンツをどこに保存するかを決定し、転送中のコンテンツと保管中のコンテンツを保護し、お客様のユーザーの AWS のサービスとリソースに対するアクセスを管理するのに役立ちます。

  1. カスタマートレーニングや推論情報を AWS Marketplace のモデル出品者と共有することはありません。同様に、出品者のモデルアーティファクト (モデルの重みなど) は購入者と共有されません。
  2. SageMaker JumpStart は、サービスの向上のために顧客モデル、トレーニングデータ、またはアルゴリズムを使用したり、顧客トレーニングや推論データを第三者と共有したりすることはありません。
  3. SageMaker JumpStart では、ML モデルのアーティファクトは転送中も保管時も暗号化されます。
  4. AWS 責任共有モデルでは、 AWS は、すべての AWS で実行されるグローバルインフラストラクチャの保護について責任を負います。お客様は、このインフラストラクチャでホストされているコンテンツの維持について責任を負います。

AWS Marketplace または SageMaker JumpStart のモデルを使用することで、ユーザーはモデル出力の品質について責任を負うものとし、個々のモデルの説明に記載されている機能と制限に同意したものとみなされます。

SageMaker JumpStart には、PyTorch Hub と TensorFlow Hub の 150 超の事前トレーニング済み公開モデルが含まれています。画像分類やオブジェクト検出などの視覚タスクでは、RESNET、MobileNet、Single-Shot Detector (SSD) のようなモデルを使用できます。文の分類、テキストの分類、質問応答などのテキストタスクには、BERT、RoBERTa、DistilBERT のようなモデルを使用できます。

SageMaker JumpStart を使用すると、データサイエンティストと機械学習デベロッパーは、ノートブックとモデルを含む機械学習のアーティファクトを組織内で簡単に共有することができます。管理者は、定義された一連のユーザーがアクセスできるリポジトリを設定することができます。リポジトリにアクセスする権限を持つすべてのユーザーは、モデルやノートブック、SageMaker JumpStart 内の公開コンテンツを閲覧、検索、使用することができます。ユーザーは、アーティファクトを選択して、SageMaker JumpStart でモデルのトレーニング、エンドポイントのデプロイ、およびノートブックの実行を行うことができます。

SageMaker JumpStart を使用すると、機械学習アプリケーションを構築する際の市場投入までの時間を短縮することができます。組織内のあるチームが構築したモデルやノートブックを、数回のステップだけで、組織内の他のチームと簡単に共有することができます。内部での知識共有とアセットの再利用により、組織の生産性を大幅に向上させることができます。

Amazon SageMaker Clarify がファンデーションモデルの評価をサポートするようになりました。特定のユースケースに最適な基盤モデルを評価、比較、選択できます。質問への回答や内容の要約など、特定のタスクについて評価したいモデルを選択するだけです。次に、評価基準 (正確性、公平性、堅牢性など) を選択し、独自のプロンプトデータセットをアップロードするか、組み込みで公開されているデータセットから選択します。主観的な基準や人間による高度な判断を必要とする微妙な内容については、自社の従業員を活用するか、AWS が提供する管理された人材を使用して回答を確認するかを選択できます。セットアッププロセスが完了すると、SageMaker Clarify が評価を実行してレポートを生成するので、主要な基準でモデルがどのように機能したかを簡単に理解できます。評価ウィザードを使用して SageMaker JumpStart の基礎モデルを評価することも、オープンソースライブラリを使用して AWS でホストされていない基盤モデルを評価することもできます。

はい。管理者は、複数の AWS アカウントとユーザープリンシパルにわたって、ユーザーが表示および使用できる Amazon SageMaker JumpStart モデルを制御できます。詳細については、ドキュメントをご覧ください。

推論最適化ツールキットを使用すると、最新の推論最適化手法を簡単に実装して、デベロッパーの時間を数か月節約しながら、Amazon SageMaker で最先端 (SOTA) のコストパフォーマンスを実現できます。SageMaker が提供するさまざまな人気の最適化手法から選択して、事前に最適化ジョブを実行し、モデルのパフォーマンスと精度のメトリクスをベンチマーキングしてから、最適化されたモデルを推論のために SageMaker エンドポイントにデプロイできます。ツールキットはモデル最適化のすべての側面を処理するため、ビジネス目標にさらに注力できます。

推論最適化ツールキットは、生成 AI アプリケーションのコストパフォーマンスを改善し、市場投入までの時間を短縮するのに役立ちます。フルマネージドのモデル最適化ツールキットを使用すると、使いやすいツールで最新の最適化手法を利用できます。また、ツールキットは最先端のイノベーション、新しいハードウェア、ホスティング機能に継続的に適応するため、時間が経過する中で、利用できる最適なソリューションに簡単にアップグレードできます。

推論最適化ツールキットは、投機的デコード、量子化、コンパイルなどの最適化手法をサポートしています。数回のクリックでモデルに追加する最適化を選択できます。Amazon SageMaker は、ハードウェアの調達、深層学習コンテナと最適化ジョブを実行するための対応するチューニングパラメータの選択、お客様が指定する S3 の場所への、最適化されたモデルアーティファクトの保存という、差別化につながらない手間のかかる作業をすべて管理します。

投機的デコードでは、SageMaker が提供するドラフトモデルから開始できるため、独自のドラフトモデルをゼロから構築したり、ルーティングやシステムレベルの最適化をリクエストしたりする必要はありません。量子化では、使用する精度タイプを選択し、ベンチマーキングジョブを開始するだけで、パフォーマンスと精度のトレードオフを測定できます。Amazon SageMaker は包括的な評価レポートを生成するため、パフォーマンスと精度のトレードオフを簡単に分析できます。コンパイルでは、最も人気のあるモデルとその設定について、Amazon SageMaker はエンドポイントの設定およびスケーリング中にコンパイルされたモデルアーティファクトを自動的に取得します。これにより、事前にコンパイルジョブを実行する必要がなくなり、ハードウェアコストを削減できます。

Amazon SageMaker 推論最適化ツールキットは、生成 AI モデルの最適化にかかるコストと時間を削減するのに役立ちます。これにより、ビジネス目標に注力できます。

ローコード機械学習

SageMaker Canvas は、直感的なポイントアンドクリックインターフェイスを備えたノーコードサービスであり、データから非常に正確な機械学習ベースの予測を作成できます。SageMaker Canvas では、ドラッグアンドドロップ式のユーザーインターフェイスを使用してさまざまなソースからデータにアクセスして組み合わせることができ、自動的にデータをクリーニングして準備するため、手動によるクリーンアップを最小限に抑えることができます。SageMaker Canvas は、さまざまな最先端の機械学習アルゴリズムを適用して高精度な予測モデルを見つけ出し、直感的なインターフェイスで予測を行うことができます。SageMaker Canvas を使用すると、さまざまなビジネスアプリケーションでより正確な予測を行い、モデル、データ、レポートを共有することで、企業内のデータサイエンティストやアナリストと簡単に連携できます。SageMaker Canvas の詳細については、Amazon SageMaker Canvas のよくある質問を参照してください。

SageMaker Canvas では、使用量に応じてお支払いただきます。SageMaker Canvas は、複数のソースからインタラクティブにデータを取り込み、探索、準備することが可能で、データを使って高精度の ML モデルを学習し、予測を生成することができます。請求対象となるのは、SageMaker Canvas の使用時間またはログイン時間に応じたセッション料金と、モデル構築に使用したデータセットのサイズに応じたモデル学習料金の 2 つです。詳細については、Amazon SageMaker Canvas の料金をご覧ください。

機械学習ワークフロー

Amazon SageMaker Pipelines は、データの準備からモデルのデプロイまで、完全に自動化された機械学習ワークフローを作成するのに役立ちます。これにより、本番環境で数千の機械学習モデルにスケールできます。SageMaker Python SDK を使用してパイプラインを作成し、SageMaker Studio のビジュアルインターフェイスからパイプラインを表示、実行、監査することができます。SageMaker Pipelines は、ステップ間のデータの管理、コードレシピのパッケージ化、および実行の調整を行い、コーディングに費やす数か月に及ぶ時間を数時間に短縮します。ワークフローが実行されるたびに、処理されたデータと実行されたアクションの完全な記録が保持されるため、データサイエンティストと機械学習デベロッパーは問題をすばやくデバッグできます。

SageMaker Pipeline のモデル登録ステップを使用して、デプロイの候補であるすべてのモデルを 1 か所に統合できます。その後、ユーザーまたはチームの他の誰かが、SageMaker Studio UI または Python SDK のいずれかを通じて、SageMaker モデルレジストリでのデプロイのために、これらのモデルを検出、レビュー、承認できます。
SageMaker パイプラインは「ステップ」で構成されます。ネイティブにサポートされているステップタイプのいずれかを選択して、SageMaker のさまざまな機能 (例: トレーニング、評価) または他の AWS サービス (例: EMR、Lambda) を呼び出すワークフローを作成できます。また、「@step」Python デコレーターを使用するか、または Python Notebook 全体をパイプラインのコンポーネントとして追加することで、既存の ML Python コードを SageMaker Pipeline にリフトアンドシフトすることもできます。詳細については、「SageMaker Pipelines デベロッパーガイド」をご覧ください。
SageMaker Pipelines は、すべてのモデル構成要素を自動的に追跡し、すべての変更の監査証跡を保持することで、手動の追跡を排除し、コンプライアンスの目標を達成するのに役立ちます。SageMaker Pipelines を使用して、データ、コード、トレーニングされたモデルなどを追跡できます。

SageMaker Pipelines は、追加料金なしでご利用いただけます。SageMaker Pipelines 内で使用する基盤となるコンピューティングまたは個別の AWS のサービスに対してのみ料金を支払います。

はい。Kubeflow Pipelines 用 Amazon SageMaker コンポーネントは、Kubeflow Pipelines を使用して機械学習ワークフローを定義し、データのラベル付け、トレーニング、推論のステップで SageMaker を使用するためのオープンソースのプラグインです。Kubeflow Pipelines は、ポータブルでスケーラブルな完全な機械学習パイプラインを構築してデプロイできる、Kubeflow のアドオンです。ただし、Kubeflow Pipelines を使用する場合、機械学習運用チームは CPU や GPU インスタンスを使用して Kubernetes クラスターを管理し、常に稼働率を高く保って運用コストを削減する必要があります。データサイエンスチーム全体でクラスターの利用率を最大化することは簡単ではなく、機械学習運用チームに余計な運用経費を負担させることになります。機械学習に最適化された Kubernetes クラスターの代わりに、SageMaker Components for Kubeflow Pipelines を使用できます。これにより、機械学習ジョブを実行するための特別な Kubernetes クラスターの構成や管理をしなくても、データのラベル付け、フルマネージドの大規模なハイパーパラメータ調整、分散トレーニングジョブ、ワンクリックでの安全でスケーラブルなモデルのデプロイ、Amazon Elastic Compute Cloud (Amazon EC2) スポットインスタンスでの費用対効率が高いトレーニングなど、強力な SageMaker の機能を利用できます。

SageMaker Components for Kubeflow Pipelines は、追加料金なしで利用できます。 

ヒューマン・イン・ザ・ループ

ヒューマンインザループとは、機械学習のライフサイクル全体にわたって人間の意見を活用して、モデルの精度と関連性を向上させるプロセスです。人間は、データの生成や注釈付けからモデルのレビューやカスタマイズまで、さまざまなタスクを実行できます。人間がコンテンツの要求者であり消費者でもあるジェネレーティブAIアプリケーションでは、人間の介入が特に重要です。したがって、ファンデーションモデル (FM) に、ユーザーのプロンプトに正確かつ安全かつ適切に対応する方法を人間がトレーニングすることが重要です。人間からのフィードバックを応用して、複数のタスクを完了することができます。まず、教師あり学習(モデルがユーザーのプロンプトにどのように反応すべきかのスタイル、長さ、精度を人間がシミュレートする)と人間のフィードバックによる強化学習(人間がモデルの応答をランク付けして分類する)を通じて、生成型AIアプリケーション向けの高品質のラベル付きトレーニングデータセットを作成します。次に、人間が生成したデータを使用して、特定のタスクや会社やドメイン固有のデータに合わせてFMをカスタマイズし、モデル出力を自分に合ったものにします。

ヒューマン・イン・ザ・ループ機能は、FMを活用した生成型AIアプリケーションの作成と改善において重要な役割を果たします。タスクのガイドラインに基づいてトレーニングを受けた高度なスキルを持つ人材は、FMを訓練するためのデモンストレーションデータの作成、サンプル応答の修正と改善、企業および業界データに基づくモデルの微調整、毒性や偏見に対する保護手段としての機能などの活動において、フィードバック、ガイダンス、インプット、評価を提供できます。したがって、ヒューマンインザループ機能により、モデルの精度とパフォーマンスを向上させることができます。 

Amazon SageMaker Ground Truth は、最も包括的なヒューマンインザループ機能を備えています。Amazon SageMaker Ground Truth を利用するには、セルフサービスサービスと AWS マネージドサービスの 2 つの方法があります。セルフサービスサービスでは、データアノテーター、コンテンツクリエーター、プロンプトエンジニア(社内、ベンダー管理、または一般ユーザーの活用)は、当社のローコードユーザーインターフェイスを使用して、独自のカスタムワークフローを柔軟に構築および管理しながら、ヒューマンインザループタスクを加速できます。AWS マネージドサービス (SageMaker Ground Truth Plus) では、お客様のユースケースに適した人材の選択と管理など、面倒な作業をお客様に代わって処理します。SageMaker Ground Truth Plus は、エンドツーエンドのワークフロー (詳細な人材トレーニングと品質保証手順を含む) を設計およびカスタマイズし、特定のタスクについてトレーニングを受けた熟練した AWS マネージドチームを提供し、お客様のデータ品質、セキュリティ、コンプライアンス要件を満たします。 

データを準備する

SageMaker Data Wrangler は、機械学習用のデータを集約して準備するのにかかる時間を短縮します。SageMaker Studio の単一のインターフェイスでは、Amazon S3、Amazon Athena、Amazon Redshift、AWS Lake Formation、Amazon EMR、Snowflake、Databricks からデータをわずか数回のステップで参照、インポートすることが可能です。また、50 以上のデータソースから転送され、Amazon AppFlow によって AWS Glue データカタログに登録されたデータもクエリを実行してインポートすることが可能です。SageMaker Data Wrangler は、生データを自動的に読み込み、集計し、表示します。SageMaker Data Wrangler にデータをインポートすると、自動生成された列のサマリーやヒストグラムを見ることができます。その後、SageMaker Data Wrangler の Data Quality and Insights レポートを使用して、データをより深く理解し、潜在的なエラーを特定することができます。このレポートでは、要約統計とデータ品質に関する警告が表示されます。また、SageMaker Clarify でサポートされているバイアス分析を SageMaker Data Wrangler から直接実行し、データ準備中に潜在的なバイアスを検出することができます。そこから、SageMaker Data Wrangler の事前構築された変換を使用して、データを準備することができます。データの準備ができたら、Amazon SageMaker Pipelines を使用して完全に自動化された機械学習ワークフローを構築し、そのデータを Amazon SageMaker Feature Store にインポートできます。

SageMaker Data Wrangler は表形式、時系列データ、画像データに対応しており、300 種類以上のデータ変換があらかじめ設定されており、これらのさまざまなデータモダリティに対応できます。データラングラーでテキストデータをNLPユースケース用に準備したいお客様向けに、データラングラーはNLTKライブラリをサポートしているため、お客様はデータラングラーで独自のカスタム変換を作成してテキストデータを準備できます。
SageMaker Data Wrangler には、PySpark ベースのビルド済みデータ変換が 300 以上用意されているため、コードを 1 行も記述せずに、データを変換してデータ準備ワークフローをスケールできます。さらに、FM を利用した自然言語インターフェイスを使用してデータを ML モデルに変換したり、SageMaker Data Wrangler のスニペットライブラリからカスタムコードスニペットを作成したりできます。
SageMaker Data Wrangler は、堅牢な事前設定済みの視覚化テンプレートのセットを使用して、データを理解し、潜在的なエラーと極値を特定するのに役立ちます。ヒストグラム、散布図、およびターゲット漏えい検出などの ML 固有の視覚化はすべて、1 行のコードも記述することなく利用できます。独自の視覚的なデータを作成および編集することもできます。

SageMaker Data Wrangler に使用するすべての ML コンピューティング、ストレージ、およびデータ処理リソースに対して料金を支払います。SageMaker Data Wrangler の料金設定のすべての詳細は、こちらでご確認いただけます。AWS 無料利用枠の一環として、SageMaker Data Wrangler を無料で開始することもできます。

SageMaker Data Wrangler は、SageMaker Canvas でデータを準備し、機械学習モデルをシームレスにトレーニングすることができる統一されたエクスペリエンスを提供します。SageMaker Canvas は、データに基づいて最適な機械学習モデルを自動的に構築、トレーニング、および調整します。SageMaker Data Wrangler で用意された特徴を、既存のモデルで使用することもできます。ユーザーインターフェイス (UI) でジョブを設定するか、オーケストレーションコードを含むノートブックをエクスポートすることで、SageMaker Data Wrangler の処理ジョブを SageMaker トレーニングパイプラインの一部として実行するように設定することが可能です。
データ処理ジョブのスケジューリングやデータソースのパラメータ設定など、SageMaker の処理ジョブを SageMaker Data Wrangler UI から直接設定および起動し、新しいデータバッチを簡単に大規模に変換することができます。
データの準備ができたら、SageMaker Data Wrangler は、SageMaker Data Wrangler フローを本番環境に移行するためのさまざまなオプションを提供し、MLOps および CI/CD 機能とシームレスに統合されます。データ処理ジョブのスケジューリングやデータソースのパラメータ設定など、SageMaker の処理ジョブを SageMaker Data Wrangler UI から直接設定および起動し、新しいデータバッチを簡単に大規模に変換することができます。また、SageMaker Data Wrangler は SageMaker 処理およびSageMaker Spark コンテナとシームレスに統合されているため、SageMaker SDK を使用して SageMaker Data Wrangler を本番ワークフローに簡単に統合することができます。
SageMaker Data Wrangler は、数回のステップで、デフォルトのハイパーパラメータを持つ XGBoost モデルを分割し、トレーニングします。問題の種類に基づいて、SageMaker Data Wrangler は、モデル要約、機能要約、混同行列を提供し、データ準備フローを反復することができるように、すばやくインサイトを与えることができます。
SageMaker Data Wrangler は、SageMaker Data Wrangler の UI を使用してデータを迅速に変換できるように、データのインポート時に top-K、ランダム、層別サンプリングなど、さまざまなサンプリング技術をサポートしています。大規模、広範囲のデータセットを使用している場合は、SageMaker Data Wrangler のインスタンスサイズを大きくすることで、パフォーマンスを向上させることができます。フローを作成したら、SageMaker Data Wrangler の処理ジョブを使用してデータセット全体を処理することができます。
はい。SageMaker Data Wrangler で準備した特徴量の宛先として、SageMaker Feature Store を設定できます。これは、UI で直接行うこともできますし、SageMaker Feature Store を宛先としてデータ処理専用に生成されたノートブックをエクスポートすることも可能です。

SageMaker Feature Store は、機械学習 (ML) モデルの特微量を保存、共有、管理するためのフルマネージド専用プラットフォームです。特徴量を検出して共有できるため、安全なアクセスとコントロールの恩恵を受けながら、モデルやチーム全体で簡単に再利用できます (AWS アカウント間を含む)。SageMaker Feature Store は、リアルタイム推論、バッチ推論、トレーニングのために、オンラインとオフラインの両方の特徴量をサポートします。また、特徴量の作成における重複を減らし、モデルの精度を高めるために、バッチおよびストリーミング特徴量エンジニアリングパイプラインを管理します。

オフライン特徴は通常、トレーニングやバッチ推論に使用される大量の履歴データです。オフライン特徴は、可用性と耐久性に優れたオブジェクトストアで管理されます。
オンライン特徴量は、リアルタイムの予測を行うために必要なアプリケーションで使用されます。オンライン特徴量は、クライアントアプリケーションからの 1 桁ミリ秒単位のレイテンシーをサポートする高スループットのストアから提供されるため、迅速な予測が可能になります。
SageMaker Feature Store は、追加の管理やコードなしで、オンライン機能とオフライン機能の間の一貫性を自動的に維持し、トレーニング環境と推論環境全体で一貫性を実現します。
SageMaker 特徴量ストアでは、すべての特徴量のタイムスタンプが保持され、ビジネスやコンプライアンスのニーズに応じていつでも特徴量を取得できる組み込みメソッドが用意されています。複雑な SQL クエリを記述したり、大量のコードを記述したりする代わりに、タイムトラベルやポイントインタイムの正確な結合のための組み込みメソッドを呼び出して、対象期間のトレーニングやバッチ推論用のデータセットを生成できます。

AWS 無料利用枠の一環として、SageMaker Feature Store の使用を無料で開始できます。SageMaker Feature Store では、特徴ストアへの書き込み、オンライン特徴ストアからの読み取りとストレージの料金をお支払いいただきます。料金の詳細については、Amazon SageMaker の料金をご覧ください。

SageMaker は、Amazon SageMaker Ground Truth Plus と Amazon SageMaker Ground Truth の 2 つのデータラベリングサービスを提供します。どちらのオプションでも、画像、テキストファイル、動画などの raw データを識別し、有益なラベルを追加して、機械学習モデル用の高品質のトレーニングデータセットを作成できます。詳細については、Amazon SageMaker データラベリングを参照してください。

地理空間データは、地表上のフィーチャーやオブジェクトを表します。地理空間データの第一のタイプは、点、線、多角形などの 2 次元の幾何学的形状を用いて、道路や土地などのオブジェクトの境界線を表現するベクトルデータです。2 番目のタイプの地理空間データは、衛星、空中プラットフォーム、またはリモートセンシングデータでキャプチャされた画像などのラスターデータです。このデータタイプは、ピクセルのマトリックスを用いて、フィーチャの場所を定義します。ラスター形式を用いて、変化するデータを保存できます。3 番目のタイプの地理空間データは、ジオタグ付きの位置データです。これには、エッフェル塔などの名所、位置タグが付けられたソーシャルメディアの投稿、緯度と経度の座標、さまざまなスタイルや形式の住所が含まれます。
SageMaker の地理空間機能により、データサイエンティストや機械学習エンジニアは、地理空間データを用いて機械学習モデルを簡単に構築、トレーニング、デプロイし、予測を行えます。Amazon S3 からの Planet Labs 衛星データなどの独自のデータを持ち込んだり、AWS の Open Data、Amazon Location Service やその他の SageMaker 地理空間データソースからデータを取得したりできます。
SageMaker 地理空間機能を使用して、自分で行うソリューションよりも高速に地理空間データの予測を行うことができます。SageMaker 地理空間機能により、既存の顧客データレイク、オープンソースデータセット、およびその他の SageMaker 地理空間データソースから地理空間データに簡単にアクセスできます。SageMaker の地理空間機能は、効率的なデータ準備、モデルトレーニング、および推論のための専用アルゴリズムを提供することで、カスタムインフラストラクチャとデータ前処理機能を構築する必要性を最小限に抑えます。また、SageMaker Studio からカスタムの視覚化情報とデータを作成して組織と共有することもできます。SageMaker の地理空間機能には、農業、不動産、保険、金融サービスで一般的に使用される事前トレーニング済みのモデルが含まれています。

モデルの構築

SageMaker のフルマネージド型 Jupyter Notebook を使用して ML 開発を完全に行えます。クラウド内のコンピューティング最適化インスタンスと GPU 高速インスタンスを幅広く選択して、コンピューティングインスタンスをスケールアップまたはスケールダウンします。

SageMaker Studio ノートブックは、ワンステップで Jupyter Notebook に素早くスピンできます。根本となるコンピューティングリソースは完全に伸縮自在であるため、使用可能なリソースの量を簡単に増減させることができ、変更は作業を中断することなくバックグラウンドで自動的に反映されます。SageMaker ではまた、ワンステップでノートブックを共有することもできます。ノートブックを他の人と簡単に共有できます。また、全員が同じ場所に保存された同じノートブックを入手できます。

SageMaker Studio ノートブックでは、 IAM アイデンティティセンターを使用して企業の認証情報でサインインできます。チーム内およびチーム間でノートブックを共有するのは簡単ですが、ノートブックを実行するのに必要な依存関係は、ノートブックを共有するときにカプセル化された作業イメージで自動的に追跡されるからです。

SageMaker Studio IDE のノートブックは、インスタンスベースのノートブックとは異なるいくつかの重要な機能を提供します。まず、インスタンスを手動でプロビジョニングして操作可能になるのを待つ必要なく、ノートブックをすばやく起動できます。ノートブックを読み取って実行するために UI を起動する起動時間は、インスタンスベースのノートブックよりも高速です。また、いつでも UI 内からインスタンスタイプの大規模なコレクションを柔軟に選択できます。新しいインスタンスを起動したり、ノートブックに移植したりするために、AWS マネジメントコンソールにアクセスする必要はありません。各ユーザーには、特定のインスタンスに依存しない独立したホームディレクトリがあります。このディレクトリは、起動時にすべてのノートブックサーバーとカーネルに自動的にマウントされるため、インスタンスを切り替えてノートブックを表示して実行する場合でも、ノートブックやその他のファイルにアクセスできます。SageMaker Studio ノートブックは AWS IAM アイデンティティセンター (AWS SSO の後継) と統合されているため、組織の認証情報を使用してノートブックにアクセスするのがより簡単になります。また、ノートブックは SageMaker の専用の ML ツールやその他の AWS サービスと統合されているため、Amazon EMR 上の Spark を使用したペタバイト規模でのデータの準備、モデルのトレーニングとデバッグ、モデルのデプロイと監視、パイプラインの管理まで、ML 開発全体で活用できます。
Studio IDE で SageMaker ノートブックを使用すると、分散トレーニング、バッチ変換、ホスティングなど、SageMaker のすべての機能にアクセスできます。また、SageMaker ノートブックから、Amazon S3 のデータセット、Amazon Redshift、AWS Glue、Amazon EMR、AWS Lake Formation などの他のサービスにアクセスすることもできます。

機械学習の実践者は、チームメイトが SageMaker Studio ノートブックを一緒に読んだり編集したりできる共有ワークスペースを作成することができます。共有スペースを使用することで、チームメイトは同じノートブックファイルを共同編集し、ノートブックコードを同時に実行し、その結果を一緒にレビューすることで、行き違いをなくし、共同作業を効率化することができます。共有スペースでは、BitBucket や AWS CodeCommit のようなサービスのサポートが組み込まれており、機械学習チームは、異なるバージョンのノートブックを簡単に管理し、時間の経過とともに変更点を比較できるようになります。実験や機械学習モデルなど、ノートブック内から作成されたすべてのリソースは自動的に保存され、これが作成された特定のワークスペースに関連付けられるため、チームはより簡単に整理され、機械学習モデル開発を加速させることができます。

Studio IDE で SageMaker ノートブックを使用すると、コンピューティングとストレージの両方の料金が発生します。コンピューティングインスタンスタイプ別の料金については、「Amazon SageMaker の料金」をご覧ください。ノートブックおよびデータファイルやスクリプトなどの関連するアーティファクトは、Amazon Elastic File System (Amazon EFS) で保持されます。ストレージの料金については、「Amazon EFS の料金」をご覧ください。AWS 無料利用枠内で、SageMaker Studio でのノートブックの使用を無料で開始できます。

いいえ。同じコンピューティングインスタンスで複数のノートブックを作成し、実行できます。料金は、個々のアイテムではなく、使用したコンピューティングに対してのみ発生します。詳細については、Usage Metering を参照してください。

SageMaker Studio では、ノートブックに加え、同じコンピューティングインスタンスで、ターミナルおよび対話型シェルを開始して実行することも可能です。各アプリケーションは、コンテナまたはイメージ内で実行されます。SageMaker Studio では、データサイエンスおよび機械学習専用に事前設定された組み込みイメージがいくつか用意されています。

SageMaker Studio ノートブックで使用するリソースのモニタリングとシャットダウンは、SageMaker Studio のビジュアルインターフェイス、または AWS マネジメントコンソールで行えます。 詳細については、ドキュメントを参照してください。

はい。コンピューティング料金が引き続き発生します。これは、 AWS マネジメントコンソールで Amazon EC2 インスタンスを作成し、その後ブラウザを閉じた場合と同様です。Amazon EC2 インスタンスの実行は継続され、明示的にシャットダウンしない限り、料金が発生します。

いいえ、ユーザープロファイルの追加、更新、削除などを含め、SageMaker Studio ドメインの作成および設定に対しては料金が発生しません。

管理者は、SageMaker Studio を含む SageMaker の料金の明細を AWS 請求コンソールで確認できます。SageMaker の AWS マネジメントコンソールで、トップメニューの [Services (サービス)] を選択し、検索ボックスに「billing (請求)」と入力して、ドロップダウンから [Billing (請求)] を選択します。その後、左側のパネルで [Bills (請求書)] を選択します。[Details] (詳細) セクションで、[SageMaker] を選択してリージョンの一覧を展開し、料金の明細を確認できます。

SageMaker Studio Lab は、無料の機械学習開発環境であり、コンピューティング、ストレージ (最大 15 GB)、セキュリティをすべて無料で提供し、誰でも機械学習を学んで実験できます。開始するために必要なのは有効な E メール ID だけです。インフラストラクチャを設定したり、ID とアクセスを管理したり、AWS アカウントにサインアップしたりする必要はありません。SageMaker Studio Lab は、GitHub 統合を通じてモデル構築を加速し、最も人気のある機械学習ツール、フレームワーク、およびライブラリが事前設定されているため、すぐに開始できます。SageMaker Studio Lab は作業内容を自動的に保存するため、セッションの合間に再起動する必要はありません。ノートパソコンを閉じて後で戻ってくるのと同じくらい簡単です。
SageMaker Studio Lab は、機械学習のクラスや実験にセットアップを必要としない無料のノートブック開発環境を必要とする学生、研究者、データサイエンティスト向けです。SageMaker Studio Lab は、本番環境を必要としないが、機械学習スキルを向上させるために SageMaker 機能のサブセットが必要なユーザーに最適です。SageMaker セッションは自動的に保存され、ユーザーが各ユーザーセッションで中断したところから再開するのに役立ちます。
SageMaker Studio Lab は AWS 上に構築されたサービスであり、Simple Storage Service (Amazon S3) や Amazon EC2 などの Amazon SageMaker Studio と同じコアサービスの多くを使用しています。他のサービスとは異なり、お客様は AWS アカウントを必要としません。代わりに、E メールアドレスを使用して SageMaker Studio Lab 固有のアカウントを作成します。これにより、ユーザーは機械学習ノートブックを実行するための限られた環境 (15 GB のストレージと 12 時間のセッション) にアクセスできるようになります。

SageMaker Canvas は、Simple Storage Service (Amazon S3) や Amazon Redshift など、アカウントがアクセスできる AWS データソースをシームレスに検出するのに役立ちます。SageMaker Canvas のビジュアル、ドラッグアンドドロップインターフェイスを使用して、データを参照およびインポートできます。さらに、ローカルディスクからファイルをドラッグアンドドロップし、構築済みのコネクタを使用して、Snowflake などのサードパーティーソースからデータをインポートできます。

ソースを接続し、データセットを選択し、データを準備したら、予測するターゲット列を選択してモデル作成ジョブを開始できます。SageMaker Canvas は、問題のタイプを自動的に識別して関連性の高い新しい特徴量を生成し、線形回帰、ロジスティック回帰、深層学習、時系列予測、勾配ブースティングなどの ML 技術を使用して広範囲にわたる予測モデルをテストし、データセットに基づいて正確な予測を行うモデルを構築することができます。

モデルのトレーニング

SageMaker HyperPod は、ファンデーションモデル (FM) トレーニングを加速させることを目的として設計されています。大規模な分散型トレーニングに最適化された、より回復力のあるインフラストラクチャが提供されるため、何千ものアクセラレータでより迅速にトレーニングできます。障害を自動的に検出、診断、回復するため、中断することなく一度に数か月間 FM をトレーニングできます。SageMaker HyperPod には SageMaker 分散トレーニングライブラリがあらかじめ設定されており、モデルトレーニングデータを小さなチャンクに分散してアクセラレータ間で並列処理できるようにすることで、パフォーマンスを効率的に向上させることができます。
GPU や AWS アクセラレータなど、大量のコンピューティングインスタンスを必要とする長くて大規模なトレーニングワークロードが必要な場合は、SageMaker HyperPod を使用して回復力を高め、トレーニング時間を短縮できます。

はい。SageMaker は、これらの配布戦略を手動で構築して最適化するのにかかる時間の何分の 1 かで、深層学習モデルと大規模なトレーニングセットを AWS の GPU インスタンス全体に自動的に配布できます。SageMaker が適用する 2 つの分散トレーニング手法とは、データの並列処理とモデルの並列処理です。データの並列処理は、データを複数の GPU インスタンスに均等に分割し、各インスタンスが同時にトレーニングできるようにすることで、トレーニング速度を向上させるために適用されます。モデルの並列処理は、モデルが大きすぎて単一の GPU に格納できず、複数の GPU に分散する前にモデルを小さな部分にパーティション化する必要がある場合に役立ちます。PyTorch および TensorFlow トレーニングスクリプトに数行の追加コードを追加するだけで、SageMaker はデータの並列処理またはモデルの並列処理を自動的に適用し、モデルの開発とデプロイをより迅速に行えるようにします。SageMaker は、グラフ分割アルゴリズムを使用して各 GPU 計算のバランスを取りながら、GPU インスタンス間の通信を最小限に抑えることで、モデルを分割するための最良のアプローチを決定します。SageMaker はまた、AWS コンピューティングとネットワークを完全に活用するアルゴリズムを通じて分散トレーニングジョブを最適化し、ほぼリニアなスケーリング効率を実現します。これにより、手動のオープンソース実装よりも速くトレーニングを完了できます。

SageMaker Experiments は機械学習モデルへの繰り返し処理を調整および追跡するのに役立ちます。SageMaker Experiments は入力パラメータ、構成、結果などを自動的に捕捉し、こうした内容を「実験結果」として保存することで、繰り返し作業を管理しやすくします。ご希望の開発環境から数行のコードを使用して、Amazon SageMaker の実験を作成して ML ワークフローを追跡できます。SageMaker Python SDK を使用して、SageMaker の実験を SageMaker のトレーニングスクリプトに統合することもできます。
SageMaker Debugger はモデルの精度を改善するために、混同行列、学習勾配といったリアルタイムのメトリクスをトレーニング中に自動取得します。SageMaker Debugger から取得したメトリクスは、容易に理解できるよう SageMaker Studio で視覚化できます。SageMaker Debugger は一般的なトレーニングの問題が検出されたときに、警告や修復のアドバイスを生成することもできます。SageMaker Debugger は、CPU、GPU、ネットワーク、メモリなどのシステムリソースをリアルタイムで自動的にモニタリングおよびプロファイリングし、これらのリソースの再割り当てに関する推奨事項を提供します。これは、トレーニング中にリソースを効率的に使用して、費用とリソースを削減するのに役立ちます。
SageMaker を使ったマネージドスポットトレーニングでは、Amazon EC2 スポットインスタンスを使用して機械学習モデルをトレーニングでき、モデルのトレーニングコストを最大 90% 削減します。
トレーニングジョブを送信する際にマネージドスポットトレーニングのオプションを有効にし、スポット容量の待機時間も指定します。これで、SageMaker が Amazon EC2 スポットインスタンスを使ってジョブを実行し、スポット容量を管理します。トレーニングジョブの実行中や容量を待機中に、トレーニングジョブのステータスを完全に把握できます。
マネージドスポットトレーニングは、トレーニングの実行に柔軟性があり、トレーニングジョブのコストを最小限に抑えたい場合に適しています。マネージドスポットトレーニングを使用すれば、機械学習モデルのトレーニングコストを最大 90% 削減することができます。
マネージドスポットトレーニングは、トレーニングに Amazon EC2 スポットインスタンスを使用します。これらのインスタンスは AWS が容量を必要とする場合に、前もって取得しておくことができます。そのため、容量が使用可能になったとき、マネージドスポットトレーニングジョブを少しずつ実行できます。SageMaker は最新のモデルチェックポイントを使ってトレーニングジョブを再開できるため、中断があっても、トレーニングジョブを最初から再開する必要はありません。SageMaker のビルトインフレームワークとビルトインコンピュータービジョンアルゴリズムにより、定期的なチェックポイントを有効にできます。あるいはカスタムモデルでチェックポイントを有効にできます。
長期的なトレーニングジョブには、普通、定期的なチェックポイントをお勧めします。これにより、容量を前もって取得しておいた場合でも、マネージドスポットトレーニングジョブが再開されないようになります。チェックポイントを有効にすると、SageMaker はマネージドスポットトレーニングジョブを最後のチェックポイントから再開します。
マネージドスポットトレーニングジョブを完了すると、AWS マネジメントコンソールで節約額を確認できます。また、トレーニングジョブを実行した期間と課金された期間との差の割合を出して、いくらコスト削減が可能かを計算できます。マネージドスポットトレーニングジョブが中断された回数に関係なく、データがダウンロードされた時間に対してのみ、課金されます。
マネージドスポットトレーニングは、SageMaker でサポートされているすべてのインスタンスで使用できます。

マネージドスポットトレーニングは、SageMaker が現在利用可能なすべてのリージョンでサポートされています。

SageMaker でモデルのトレーニングに使用できるデータセットのサイズに決まった制限はありません。

SageMaker には、線形回帰、ロジスティック回帰、K 平均法クラスタリング、主成分分析、Factorization Machines、ニューラルトピックモデリング、潜在的ディリクレ配分法、勾配ブースティング木、sequence2sequence、時系列予測、word2vec、および画像分類のためのアルゴリズムが組み込まれています。SageMaker は、最適化された Apache MXNet、Tensorflow、Chainer、PyTorch、Gluon、Keras、Horovod、Scikit-learn、および Deep Graph Library コンテナも提供します。さらに、SageMaker では、文書化された仕様に準拠した Docker イメージで提供されるカスタムのトレーニングアルゴリズムもサポートしています。
多くの機械学習のアルゴリズムでは、基盤となるアルゴリズムの動作方法を制御するための多様なパラメータに触れることができます。このようなパラメータは、一般的にハイパーパラメータと呼ばれ、その値はトレーニング後のモデルの品質に影響を与えます。自動モデルチューニングは、アルゴリズムで最適なモデルを作成できるような、ハイパーパラメータの組み合わせを見つけるプロセスです。
SageMaker の自動モデルチューニングは、科学的な観点から現実的であれば、あらゆるアルゴリズムで行うことができます。これには SageMaker の組み込みアルゴリズム、深層ニューラルネットワーク、Docker イメージの形で SageMaker に持ち込まれる任意のアルゴリズムも含まれます。

現時点では使用できません。モデルチューニングで最大のパフォーマンスとエクスペリエンスを得るには、SageMaker の中で行う必要があります。

ハイパーパラメータのチューニングアルゴリズムには、現在、ベイズ最適化のカスタム実装が使用されています。このアルゴリズムでは、チューニングプロセスを通じて、ユーザーが指定した目標メトリクスを最適化することを目指します。具体的には、完了したトレーニングジョブの目標メトリクスを確認し、その知識を使用して、次のトレーニングジョブで使用するハイパーパラメータの組み合わせを推論します。

いいえ、ハイパーパラメータがモデルのパフォーマンスにどの程度の影響を与えるかは、さまざまな要因により異なるため、あるハイパーパラメータが他のものより重要であると断定することはできません。これが、チューニングを必要とする理由です。SageMaker の組み込みアルゴリズムについては、ハイパーパラメータをチューニングできるかどうか明示しています。

ハイパーパラメータのチューニングジョブにかかる時間は、複数の要因により異なります。これにはデータのサイズ、基盤とするアルゴリズム、ハイパーパラメータの値が含まれます。また、トレーニングジョブの同時実行数およびトレーニングジョブの合計数は、ユーザーが選択することができます。このような指定の違いすべてにより、ハイパーパラメータのチューニングジョブの実行にかかる時間が変わります。

現時点では使用できません。指定できる最適化の目標メトリクスは、現在 1 つのみです。また、アルゴリズムのコードを変更できる場合、複数の有用なメトリクスの加重平均を新しいメトリクスとして出力し、それをチューニングプロセスの目標メトリクスに向けて最適化することができます。

ハイパーパラメータのチューニングジョブ自体には料金がかかりません。料金は、ハイパーパラメータのチューニングジョブによって開始されたトレーニングジョブに対し、モデルトレーニングの料金に基づいて請求されます。

SageMaker Autopilot は、特に分類および回帰のユースケースに焦点を当てながら、機能の前処理、アルゴリズムの選択、ハイパーパラメータの調整など、典型的な機械学習ワークフローのすべてを自動化します。一方、組み込みアルゴリズム、深層学習フレームワーク、またはカスタムコンテナのいずれに基づいていても、自動モデルチューニングは、任意のモデルを調整するように設計されています。柔軟性と引き換えに、特定のアルゴリズム、調整するハイパーパラメータ、対応する検索範囲を手動で選択しなければなりません。

強化学習とは、エージェントがインタラクティブな環境において、自身のアクションやエクスペリエンスからのフィードバックを使用した試行錯誤によって学習できる機械学習技術です。

はい、SageMaker では従来の教師あり/教師なし学習モデルに加え、強化学習モデルをトレーニングできます。

教師あり学習と強化学習はどちらも出入力間のマッピングを使用しますが、エージェントに提供されるフィードバックがタスクを実行するための適切な一連のアクションである教師あり学習とは異なり、強化学習は遅延フィードバックを使用します。遅延フィードバックではアクションのシーケンスを通じて長期的な目標を実現するために報酬信号が最適化されます。

教師あり学習技術の目標がトレーニングデータのパターンに基づいて正しい答えを見つけることであるのに対して、教師なし学習技術の目標はデータポイント間の類似点や相違点を見つけることです。一方、強化学習技術 (RL) の目標は、期待する成果を実現する方法が明確でない場合でもその成果を達成することです。そのため、RL はエージェントが自律的決定を下すことのできる、ロボティクス、自動運転車、HVAC、産業用コントロールなどのインテリジェントなアプリケーションを実現するのにより適しています。

Amazon SageMaker RL は RL モデルをトレーニングできるさまざまな環境をサポートしています。AWS RoboMaker などの AWS のサービス、Open AI Gym インターフェイスを使用して開発されたカスタム環境またはオープンソース環境、MATLAB や SimuLink のような市販のシミュレーション環境などが使用できます。

いいえ、SageMaker RL には、DQN、PPO、A3C、その他多くの RL エージェントアルゴリズムを実装する、Coach や Ray RLLib などの RL ツールキットが含まれています。

はい、独自の RL ライブラリやアルゴリズム実装を Docker コンテナに持ち込み、それらを SageMaker RL で実行できます。

はい。トレーニングを 1 つの GPU インスタンスで実行し、シミュレーションを複数の CPU インスタンスで実行する異種クラスターを選択することもできます。

モデルのデプロイ

モデルを構築してトレーニングした後、SageMaker は、予測を開始できるようにそれらをデプロイするための 3 つのオプションを提供します。リアルタイム推論は、ミリ秒のレイテンシー要件、最大 6MB のペイロードサイズ、最大 60 秒の処理時間のワークロードに適しています。バッチ変換は、事前に入手可能な大きなデータのバッチに対するオフライン予測に最適です。非同期推論は、サブセカンドレイテンシーを必要としないワークロード向けに設計されており、ペイロードサイズは 1GB まで、処理時間は 15 分までとなっています。
SageMaker 非同期推論は、受信したリクエストをキューに入れて、非同期に処理します。このオプションは、ペイロードサイズが大きいリクエスト、および/または処理時間が長く、到着すると同時に処理する必要があるリクエストに最適です。オプションとして、アクティブにリクエストを処理していないときは、コストを節約するためにインスタンス数をゼロにスケールダウンするようにオートスケーリング設定を構成することができます。

アクティブにリクエストを処理していないときにコストを節約するため、SageMaker 非同期推論エンドポイントのインスタンス数をゼロにスケールダウンすることができます。「ApproximateBacklogPerInstance」カスタムメトリクスでスケールするスケーリングポリシーを定義し、「MinCapacity」値をゼロに設定する必要があります。ステップバイステップの説明については、デベロッパーガイドの非同期のエンドポイントをオートスケールするセクションをご覧ください。 

SageMaker Serverless Inference は、機械学習モデルのデプロイとスケーリングを容易にする、専用のサーバーレスモデル提供オプションです。SageMaker Serverless Inference エンドポイントは、コンピューティングリソースを自動的に開始し、トラフィックに応じてスケールインおよびスケールアウトするため、インスタンスタイプを選択したり、プロビジョニングされた容量を実行したり、スケーリングを管理したりする必要がなくなります。オプションで、Serverless Inference エンドポイントのメモリ要件を指定できます。推論コードの実行時間と処理されたデータの量の料金のみをお支払いいただきます。アイドル時間については料金がかかりません。

SageMaker Serverless Inference は、容量を事前にプロビジョニングしてスケーリングポリシーを管理する必要をなくすことにより、デベロッパーのエクスペリエンスを簡素化します。SageMaker Serverless Inference は、使用パターンに基づいて数十から数千回の推論に瞬時に拡張できるため、断続的または予測不可能なトラフィックを伴う機械学習アプリケーションに最適です。例えば、給与処理サービスを提供する会社が使用する chatbot サービスでは月末に問い合わせが増加しますが、それ以外の期間はトラフィックは断続的です。このようなシナリオで 1 か月の全期間にわたってインスタンスをプロビジョニングすることは、アイドル期間の料金を支払うことになるため、費用対効果は高くありません。SageMaker Serverless Inference は、トラフィックを事前に予測したり、スケーリングポリシーを管理したりすることなく、すぐに使用できる自動で高速なスケールアウトを行うことで、このようなタイプのユースケースに対処するのに役立ちます。さらに、推論コードを実行するためのコンピューティング時間 (ミリ秒単位で請求されます) とデータ処理についての料金のみをお支払いいただくため、断続的なトラフィックを伴うワークロードについては費用対効果の高いオプションです。
Provisioned Concurrency を使用すると、指定された数の同時リクエストに対してエンドポイントを温存することで、予測可能なパフォーマンスと高いスケーラビリティを備えたサーバーレスエンドポイントにモデルをデプロイすることができます。

エンドポイントがしばらくトラフィックを受信せず、その後エンドポイントが突然新しいリクエストを受信する場合があります。この場合、オンデマンドのサーバーレスエンドポイントでは、エンドポイントがコンピューティングリソースを起動してリクエストを処理するまでに時間がかかることがあります。これはコールドスタートと呼ばれます。コールドスタートは、同時リクエストが現在の同時リクエストの使用量を超える場合にも発生する可能性があります。コールドスタート時間は、モデルサイズ、モデルのダウンロードにかかる時間、およびコンテナの起動時間によって異なります。

レイテンシープロファイルの変動性を低減するために、オプションでサーバーレスエンドポイント向けに、Provisioned Concurrency を有効にできます。Provisioned Concurrency を使用することで、サーバーレスエンドポイントはいつでも準備が整い、コールドスタートなしで大量のトラフィックを瞬時に処理できます。

オンデマンドのサーバーレス推論と同様に、Provisioned Concurrency が有効になっている場合は、推論リクエストの処理に使用されたコンピューティング容量 (ミリ秒単位) と処理されたデータ量に対して料金が発生します。また、設定されたメモリ、プロビジョニングされた期間、有効になっている同時実行の量に基づいて、Provisioned Concurrency の使用量に対しても支払いが発生します。詳細については、Amazon SageMaker の料金をご覧ください。

SageMaker は、新しい機械学習モデルを本番リリース前に評価するために、現在デプロイされているモデルに対してそのパフォーマンスをテストするシャドーテストの実行を支援します。SageMaker は新しいモデルをシャドーモードで現在の本番モデルと共にデプロイし、ユーザーが指定した本番トラフィックの一部を新しいモデルにミラーリングします。オプションとして、オフラインでの比較のためにモデルの推論をログに記録します。また、本番モデルとシャドーモデルのレイテンシーやエラー率などの主要なパフォーマンスメトリクスを比較するライブダッシュボードを提供し、新しいモデルを本番環境に移行させるかどうかを決定するのに役立ちます。
SageMaker は、シャドーバリアントのセットアップとモニタリングのプロセスを簡素化し、新しい機械学習モデルのパフォーマンスをライブの本番トラフィックで評価することができます。SageMaker を使用すると、シャドーテストのためのインフラストラクチャをオーケストレーションする必要がありません。シャドーバリアントにミラーリングするトラフィックの割合やテスト時間などのテストパラメータを制御することができます。その結果、小規模から始めて、モデルパフォーマンスに確信が持てた後に、新しいモデルへの推論要求を増やすことができます。SageMaker は、主要なメトリクスにおけるパフォーマンスの違いを表示するライブダッシュボードを作成するため、モデルパフォーマンスを簡単に比較して、新しいモデルが本番モデルとどのように異なるかを評価することができます。

SageMaker Inference Recommender は、SageMaker 機械学習インスタンス全体でパフォーマンスのベンチマークを自動化し、モデルのパフォーマンスを調整することで、機械学習モデルを本番環境で取得するために必要な時間を短縮します。SageMaker Inference Recommender を使用して、最高のパフォーマンスを提供し、コストを最小限に抑えるエンドポイントにモデルをデプロイできるようになりました。インスタンスタイプを選択しながら SageMaker Inference Recommender を数分で開始し、最適なエンドポイント設定のレコメンデーションを数時間以内に取得できるため、数週間の手動テストとチューニング時間をなくすことができます。SageMaker Inference Recommender を使用すると、負荷テスト中に使用された SageMaker 機械学習インスタンスに対してのみ料金が発生し、追加料金は発生しません。

パフォーマンスを向上させ、コストを削減するために適切なエンドポイント設定のレコメンデーションが必要な場合は、SageMaker Inference Recommender をご利用ください。以前は、モデルをデプロイしたいデータサイエンティストは、適切なエンドポイント設定を選択するために手動でベンチマークを実行する必要がありました。モデルとサンプルペイロードのリソース要件に基づいて、70 以上の利用可能なインスタンスタイプから適切な機械学習インスタンスタイプを最初に選択し、次に異なるハードウェアを考慮してモデルを最適化する必要がありました。次に、レイテンシーとスループットの要件が満たされていること、およびコストが低いことを検証するために、広範な負荷テストを実施する必要がありました。SageMaker Inference Recommender は、次のこと1) インスタンスのレコメンデーションを数分で開始し、2) インスタンスタイプ全体で負荷テストを実施して、数時間以内にエンドポイント設定に関するレコメンデーションを取得し、3) コンテナとモデルサーバーのパラメータを自動的に調整し、特定のインスタンスタイプのモデルの最適化を実行するのを簡単に行えるようにすることで、この複雑さを解消します。
データサイエンティストは、SageMaker Studio、AWS SDK for Python (Boto3)、または AWS CLI から SageMaker Inference Recommender にアクセスできます。データサイエンティストは、登録されたモデルバージョンの SageMaker モデルレジストリの SageMaker Studio 内でデプロイのレコメンデーションを取得できます。データサイエンティストは、SageMaker Studio、AWS SDK、または AWS CLI を介してレコメンデーションを検索およびフィルタリングできます。

いいえ。現在、エンドポイントごとに 1 つのモデルのみをサポートしています。

現在、リアルタイムエンドポイントのみをサポートしています。

AWS 中国リージョンを除き、Amazon SageMaker が提供されているすべてのリージョンがサポートされます。

はい、すべてのタイプのコンテナをサポートしています。AWS Inferentia チップに基づく Amazon EC2 Inf1 には、Neuron コンパイラまたは Amazon SageMaker Neo のいずれかを使用してコンパイルされたモデルアーティファクトが必要です。Inferentia ターゲットと関連するコンテナイメージ URI のコンパイル済みモデルを取得したら、SageMaker Inference Recommender を使用してさまざまな Inferentia インスタンスタイプのベンチマークを実行できます。

SageMaker Model Monitor によって、デベロッパーがコンセプトドリフトを検出し、修復できるようになります。SageMaker Model Monitor はデプロイ済みのモデルでコンセプトドリフトを検出し、問題の原因を特定するのに役立つ詳細なアラートを出します。SageMaker でトレーニングされたすべてのモデルは、SageMaker Studio で収集と表示が可能な主要メトリクスを出します。SageMaker Studio の中で、収集するデータや、その表示方法、アラートを受信するタイミングなどを構成できます。

いいえ、SageMaker はお客様に代わってコンピューティングインフラストラクチャを運用し、ヘルスチェックの実行、セキュリティパッチの適用、その他の定期的なメンテナンスを担当します。また、専用のホスティング環境でカスタムの推論コードを使用して、トレーニングされたモデルアーティファクトをにデプロイすることもできます。

SageMaker のホスティングでは、Application Auto Scaling を使用して、アプリケーションに必要なパフォーマンスに自動的にスケールします。また、エンドポイント構成を変更することで、ダウンタイムを発生させることなくインスタンスの数とタイプを手動で変更できます。

SageMaker は、Amazon CloudWatch Metrics にパフォーマンスメトリクスを発行することで、お客様がメトリクスを追跡し、アラームを設定し、本番用トラフィックの変更に自動的に対応できるようにします。また、SageMaker は Amazon CloudWatch Logs にログを書き込んで、お客様が本番環境のモニタリングとトラブルシューティングを行えるようにします。

SageMaker では、推論 Docker イメージ用の文書化された仕様に準拠しているモデルをすべてホストできます。これには、SageMaker のモデルアーティファクトや推論コードから作成されたモデルが含まれます。

SageMaker は、1 秒あたり多数のトランザクションに対応できるように設計されています。正確な数は、デプロイされたモデル、モデルがデプロイされるインスタンスの数とタイプに基づいて変わります。

Amazon SageMaker は、完全マネージド型サービスとして、インスタンスのセットアップと管理、ソフトウェアバージョンの互換性、バージョンへのパッチ適用を行います。また、アラートの監視と受信に使用できるエンドポイントのメトリクスとログも組み込まれています。SageMaker ツールとガイド付きワークフローにより、ML モデルのパッケージングとデプロイのプロセス全体が簡素化され、エンドポイントを簡単に最適化して目的のパフォーマンスを実現し、コストを削減できます。SageMaker Studio 内で数回クリックするか、新しい PySDK を使用することで、基盤モデルを含む ML モデルを簡単にデプロイできます。

バッチ変換により、大小のバッチデータに対する予測を実行できます。データセットを複数のチャンクに分けたりリアルタイムのエンドポイントを管理したりする必要はありません。シンプルな API を使って、多数のデータレコードの予測をリクエストし、そのデータを迅速かつ簡単に変換できます。

SageMaker は次のエンドポイントオプションをサポートしています。単一モデルエンドポイント-専用インスタンスでホストされるコンテナ上に 1 つのモデル、または低レイテンシーと高スループットを実現するサーバーレスモデル。マルチモデルエンドポイント-共有インフラストラクチャを使用して複数のモデルをホストすることで、費用対効果を高め、利用率を最大化します。各モデルが効率的に実行するために必要なリソースにアクセスできるように、各モデルが使用できるコンピューティングとメモリの量を制御できます。シリアル推論パイプライン-複数のコンテナが専用インスタンスを共有し、順番に実行されます。推論パイプラインを使用して、前処理、予測、および後処理のデータサイエンスタスクを組み合わせることができます。
スケーリングポリシーを使用すると、基盤となるコンピューティングリソースを自動的にスケーリングして、推論リクエストの変動に対応できます。各 ML モデルのスケーリングポリシーを個別に制御して、モデルの使用状況の変化に簡単に対処できると同時に、インフラストラクチャのコストを最適化できます。

SageMaker Edge Manager は、スマートカメラ、ロボット、パーソナルコンピュータ、モバイルデバイスなどのエッジデバイスのフリートで機械学習モデルを最適化、保護、モニタリング、および維持することをより簡単にします。SageMaker Edge Manager は、ML デベロッパーがさまざまなエッジデバイスで ML モデルを大規模に操作するのに役立ちます。

SageMaker Edge Manager の使用を開始するには、トレーニングされた ML モデルをクラウドでコンパイルおよびパッケージ化し、デバイスを登録し、SageMaker Edge Manager SDK を使用してデバイスを準備する必要があります。モデルをデプロイする準備をするために、SageMaker Edge Manager は SageMaker Neo を使用して、ターゲットエッジハードウェア用にモデルをコンパイルします。モデルがコンパイルされると、SageMaker Edge Manager は AWS で生成されたキーを使用してモデルに署名し、ランタイムと必要な資格情報とともにモデルをパッケージ化して、デプロイに備えます。デバイス側では、デバイスを SageMaker Edge Manager に登録し、SageMaker Edge Manager SDK をダウンロードしてから、指示に従って SageMaker Edge Manager エージェントをデバイスにインストールします。チュートリアルノートブックは、モデルを準備してエッジデバイス上のモデルを SageMaker Edge Manager に接続する方法についてのステップバイステップの例を提供します。

SageMaker Edge Manager は、Linux および Windows オペレーティングシステムで一般的な CPU (ARM、x86) および GPU (ARM、Nvidia) ベースのデバイスをサポートします。将来的には、SageMaker Edge Manager は、SageMaker Neo でもサポートされるより多くの組み込みプロセッサおよびモバイルプラットフォームをサポートするように拡張される予定です。

いいえ、必要ありません。モデルを他の場所でトレーニングすることも、オープンソースまたはモデルベンダーから提供される事前にトレーニングされたモデルを使用することもできます。

はい、必要です。SageMaker Neo は、モデルを実行可能ファイルに変換およびコンパイルします。その後、それをパッケージ化してエッジデバイスにデプロイできます。モデルパッケージがデプロイされると、SageMaker Edge Manager エージェントはモデルパッケージを解凍し、デバイス上でモデルを実行します。

SageMaker Edge Manager は、指定された Simple Storage Service (Amazon S3) バケットにモデルパッケージを保存します。AWS IoT Greengrass が提供する無線通信 (OTA) デプロイ機能、またはその他の任意のデプロイメカニズムを使用して、モデルパッケージを S3 バケットからデバイスにデプロイできます。

Neo dlr は、SageMaker Neo サービスによってコンパイルされたモデルのみを実行するオープンソースランタイムです。オープンソースの dlr と比較すると、SageMaker Edge Manager SDK には、追加のセキュリティ、モデル管理、およびモデル提供機能を備えたエンタープライズグレードのオンデバイスエージェントが含まれています。SageMaker Edge Manager SDK は、大規模な本番環境へのデプロイに適しています。

SageMaker Edge Manager は、米国東部 (バージニア北部)、米国東部 (オハイオ)、米国西部 (オレゴン)、欧州 (アイルランド)、欧州 (フランクフルト)、アジアパシフィック (東京) の 6 つのリージョンで使用できます。詳細については、AWS リージョン別のサービス表をご覧ください。

SageMaker Neo では、機械学習モデルを一度トレーニングすれば、それをどこでも、クラウドでも、エッジでも実行可能にします。SageMaker Neo は、複数のハードウェアプラットフォームにデプロイするのに使用できる一般的な深層学習フレームワークで構築されたモデルを自動的に最適化します。最適化されたモデルは、一般的な機械学習モデルと比較して最大 25 倍の速度で実行でき、10 分の 1 未満のリソースしか消費しません。

SageMaker Neo の使用を開始するには、SageMaker コンソールにサインインしてトレーニング済みのモデルを選択し、例に従ってモデルをコンパイルし、得られたモデルを目的のハードウェアプラットフォームにデプロイします。

SageMaker Neo には、コンパイラとランタイムという 2 つの主要なコンポーネントが含まれます。はじめに、SageMaker Neo コンパイラがさまざまなフレームワークからエクスポートされたモデルを読み込みます。その後、フレームワーク特有の機能や動作をフレームワーク非依存の中間表現に変換します。次に、一連の最適化を実行します。その後、コンパイラが最適化された動作のバイナリコードを生成し、それらを共有のオブジェクトライブラリに書き込みます。コンパイラはまた、モデルの定義とパラメータをそれぞれ別のファイルに保存します。実行時には、SageMaker Neo ランタイムがコンパイラによって生成されたアーティファクト (モデルの定義、パラメータ、共有のオブジェクトライブラリ) を取り込み、モデルを実行します。

いいえ、他の場所でモデルをトレーニングし、SageMaker Neo を使用してそれらを SageMaker ML インスタンスまたは AWS IoT Greengrass でサポートされているデバイスに最適化できます。

現在、SageMaker Neo はコンピュータビジョンアプリケーションを強化する最も一般的な DL モデルや、今日 SageMaker で使用される最も一般的な決定木モデルをサポートしています。SageMaker Neo は、MXNet および TensorFlow でトレーニングされた AlexNet、ResNet、VGG、Inception、MobileNet、SqueezeNet、DenseNet などのモデルや、XGBoost でトレーニングされたランダムカットフォレストモデルおよび分類モデルのパフォーマンスを最適化します。

サポートされているクラウドインスタンスエッジデバイス、およびフレームワークのバージョンのリストは、SageMaker Neo のドキュメントでご確認いただけます。

サポートされるリージョンの一覧は、AWS リージョン別のサービス表をご覧ください。

Amazon SageMaker Savings Plans

SageMaker Savings Plans は、1 年または 3 年の期間で一貫したコンピューティング使用量 (USD/時間で測定) を契約するかわりに、SageMaker に柔軟な使用量ベースの料金モデルを提供します。SageMaker Savings Plans は、最も優れた柔軟性を提供し、コストを最大 64% 削減するのに役立ちます。これらのプランは、インスタンスファミリー、サイズ、リージョンに関係なく、SageMaker Studio ノートブック、SageMaker On-Demand ノートブック、SageMaker Processing、SageMaker Data Wrangler、SageMaker Training、SageMaker Real-Time Inference、SageMaker Batch Transform などの対象となる SageMaker 機械学習インスタンスの使用量に自動的に適用されます。例えば、米国東部 (オハイオ) で実行されている CPU インスタンス ml.c5.xlarge から米国西部 (オレゴン) の ml.Inf1 インスタンスにいつでも推論ワークロードの使用量を変更し、自動的に Savings Plans の料金を引き続き支払うことができます。
SageMaker インスタンスの使用量が一定で (USD/時間で測定)、複数の SageMaker コンポーネントを使用している場合、またはテクノロジー設定 (インスタンスファミリーやリージョンなど) が時間の経過とともに変化すると予想される場合、SageMaker Savings Plans により、アプリケーションのニーズや新しいイノベーションに基づいて基盤となるテクノロジー設定を変更する柔軟性をもたらしながら、節約を実現できます。Savings Plans の料金は、手動で変更することなく、対象となるすべての機械学習インスタンスの使用量に自動的に適用されます。
Savings Plans の使用は、AWS マネジメントコンソールの AWS Cost Explorer から、または API/CLI を使用して開始することができます。Savings Plans への契約は、最大節約額を実現するため、AWS Cost Explorer で提案される推奨事項を使用することによって簡単に行うことができます。推奨される 1 時間あたりの契約量は、履歴的なオンデマンド使用量と、プランタイプ、期間、および支払いオプションの選択に基づいています。Savings Plan にサインアップすると、コンピューティング使用量については割引された Savings Plans 料金で自動的に課金され、契約量を超える使用については通常のオンデマンドレートで課金されます。
SageMaker の Savings Plans と Amazon EC2 の Savings Plans の違いはそれらに含まれるサービスにあります。SageMaker Savings Plans は、SageMaker 機械学習インスタンスの使用量にのみ適用されます。

Savings Plans は、AWS Organizations/一括請求 (コンソリデーティッドビリング) ファミリー内の任意のアカウントで購入できます。デフォルトでは、Savings Plans によって提供される恩恵は、AWS Organization/一括請求 (コンソリデーティッドビリング) ファミリー内のすべてのアカウントでの使用量に適用されます。ただし、Savings Plans の恩恵を購入したアカウントのみに制限することもできます。