AWS re:Invent 2022 の Amazon EC2 に関するアップデートまとめ

記事タイトルとURLをコピーする

カスタマーサクセス部 佐竹です。
本ブログでは、AWS re:Invent 2022 の Amazon EC2 に関するアップデートをざっとまとめていきたいと思います。

re:Invent 後半で追加されたアップデートは都度タイミングをみて追記します。その点は予めご容赦ください。

機能アップデート

Elastic Network Adapter (ENA) Express

aws.amazon.com

ENA Express がリリースされました。せっかくなので ENA について少し振り返ってみましょう。ENA がリリースされたのは、2016年でした。

aws.amazon.com

Elastic Network Adapter は「拡張ネットワーキング」を提供するために、次世代のネットワークインターフェースとして登場しました。ENA に対応したインスタンスタイプで ENA を利用(有効化)することで、最大 100 Gbps のネットワーク速度がサポートされています。ようは、ENA が登場したことによりインスタンスでの安定した高速な通信速度が確保できるようになったわけです。

これに加えて、2019年に発表された Elastic Fabric Adapter (EFA) という機能もあります。これは ENA にバイパス機能が追加されたものとなります。

AWS 公式ドキュメントより抜粋

そして2022年、ENA Express の発表です。

ENA Express は、既に EFA で利用されている機能となる Scalable Reliable Datagram (SRD) プロトコル(※ AWS のデータセンターネットワーク用に開発されたトランスポートプロトコル)に基づいて構築されており、トラフィック フローの P99 レイテンシーを最大 50% 削減し、P99.9 レイテンシーを最大 85% 削減するとのことです。さらに、最大シングルフロートラフィックが 5 Gbps から 25 Gbps に増えます。

補足ですが、シングルフロートラフィックの 5 Gbps 制限については「Amazon EC2 インスタンスのネットワーク帯域幅」に記載があります。

また、ENA Express については以下の公式ドキュメントもすでに整備されています。

docs.aws.amazon.com

ここには「With ENA Express, you can communicate between two EC2 instances in the same subnet.」という記載があり、これが最も簡素な説明でしょう。ようは、同サブネットにある EC2 インスタンス間の通信速度の最大値を大幅に増やすアップデートです。

現在この機能に対応しているインスタンスタイプは「c6gn.16xlarge と c6gn.metal」のみとなっておりますが、今後追加されていくようです。インスタンス間の通信速度が頭打ちになっていた場合には有効なアップデートだと思われます。

利用には前提条件が揃っている必要がありますが、それについては上記公式ドキュメント内に記載がありますので合わせて参考にしてみてください。

EBS io2 Volumes on SRD

なお、Adam Selipsky のキーノートでは先に記載しました SRD で動作する io2 Volume の提供もアナウンスされています。

「EBS io2 volumes will be running on SRD, coming soon」とのことで、来年の登場が予定されています。こちらもかなりの速度改善が期待されます。

Microsoft Office AMI

aws.amazon.com

これは待望のリリースです。MS Office 搭載の AMI がリリースされました。

これまで MS Office を AWS で利用したい場合、多くはクライアント PC 扱いとなる Amazon WorkSpaces に Bundle して利用することが多い状況でした。

しかしこれからは EC2 インスタンス上に構築できます。そして、そのライセンス利用料は1時間ごとの利用料になります。

確認したところ、ドキュメント「Supported software for user-based subscriptions」にも Office LTSC Professional Plus 2021 が表記されていました。

せっかくなので、少し触ってみました。まずはマーケットプレイスの「Office LTSC Professional Plus」を開き、右上のボタンからこれを Subscribe します。

この作業を行うとマネジメントコンソールの「AWS Marketplace」⇒「サブスクリプションの管理」に「Office LTSC Professional Plus」が表示されます。

Office LTSC Professional Plus

この状態で「新規インスタンスを起動」を押下してみると、以下の画面にジャンプします。

AMI ID: ami-08aebb0886d6a1061

東京リージョンを選択すると「AMI ID : ami-08aebb0886d6a1061」が得られました。この AMI-ID が今回リリースされた AMI のようです。東京リージョンにも既に用意がされていました。

あとはこの AMI を利用してインスタンスを Launch するだけなのですが、構築するためには条件としてマイクロソフトのライセンス管理が必要になります。そしてライセンス管理には、AWS License Manager で「User-based subscriptions」のための事前準備が必要です。詳しくは以下の公式ドキュメントを参考ください。

docs.aws.amazon.com

本アップデートは先に書いた通り待望のアップデートですため、この先有効活用されるシーンも多いでしょう。

Torn Write Prevention

本機能アップデートは RDS にも関わるアップデートのため、切り出して以下のブログに記載しました。

blog.serverworks.co.jp

よろしければ合わせてご覧ください。

新しいインスタンスタイプの発表(Preview 他)

C7gn, R7iz 及び Hpc7g

aws.amazon.com

「7」の世代数を冠したインスタンスタイプ(C7g)が初めて出てきたのは、去年の AWS re:Invent 2021 でした。これは長らくプレビュー状態でしたが、2022年5月に一般提供が開始されています。

2022年では、これに引き続き「7」の数字を冠するインスタンスタイプが複数リリースされました。

C7gn Preview

C7gn インスタンスは、ネットワーク仮想アプライアンスや、データ分析、密結合クラスターコンピューティング処理などに最適な、要求のかなり厳しいネットワーク集約型ワークロード向けに設計されています。C7gn は新しい AWS Graviton3E プロセッサを搭載しており、最大 200 Gbps のネットワーク帯域幅と、50% 高いパケット処理パフォーマンスをサポートします。本日よりプレビューが開始されており、「こちら」から申し込みが可能です。

なお先にご紹介しました AWS のブログには記載がありませんが、本インスタンスでは最新世代の 「Nitro v5」が搭載されており、さらにコストパフォーマンスが改善されているものとなります。Nitro v4 は C6gn が代表として紹介されたように、Nitro v5 は C7gn で初搭載となりました。

R7iz Preview

R7iz インスタンスは、最新の第 4 世代 Intel Xeon スケーラブル プロセッサ (コード名 Sapphire Rapids) を搭載するインスタンスで、DDR5 メモリを備えた最初のインスタンスとなります。Electronic Design Automation (EDA)、金融、保険数理、およびシミュレーションのワークロードに最適とされています。また、リレーショナル データベースや、コア単位でライセンスされるその他の商用ソフトウェアにも適切です。

本日よりプレビューが開始されており、「こちら」から申し込みが可能です。

なお、R7iz は初めて「z」が単独で記載されているインスタンスタイプで、これまでは「zn」がありました。z1d インスタンスと比較されていることから、恐らく z の意味は「all core frequency of up to XXX GHz」あたりから取られていると考えられます。

今後、データベースを EC2 上で利用するような場合に、有効活用したいインスタンスタイプになるのではと思われます。RDS での提供も期待したいですね。

Hpc7g Coming Soon

Hpc7g インスタンスは、前述の AWS Graviton3E プロセッサを搭載しており、Graviton3 よりも最大 35% 高いベクトル命令処理パフォーマンスを備えています。これらは、密結合されたコンピューティング集約型 HPC および分散コンピューティング ワークロードに対して最高のコストパフォーマンスを提供し、同じ VPC 内インスタンス間のトラフィック用に最適化された 200 Gbps の専用ネットワーク帯域幅を提供するように設計されています。Hpc7g は 2023 年初頭に別途追加の情報の提供が予定されています。

なおこのインスタンスは、2022年1月に発表された「Hpc6a インスタンス」次世代後継のように思われます。以前は AMD でしたが、やはりといいますがアップデートでは Graviton になっていますね。去年 C7g が出たときにも感じましたが、AWS の Graviton への投資はかなり力強いものを感じます。

Trn1n

Trn1n は現時点でキーノートでのみ発表が行われたインスタンスタイプであり、提供時期も未定のインスタンスです。なお、実は Trn1n は Trn1 と同時に、2021年の re:Invent でも「提供予定」とアナウンスされていました。詳しくは以下のブログをご参考ください。

blog.serverworks.co.jp

AWS には、機械学習に最適化されたチップが2つあります。2019年に登場した「推論 = inference」に最適化された推論チップ「AWS Inferentia」が1つ。そしてもう1つが2021年に登場した「トレーニング = Training」に最適化されたトレーニングチップ「AWS Trainium」となっています。

後者の Trainium のインスタンスファミリー名が「Trn1」であり、この名前にネットワークがエンハンスされたことを示す n が付与されています。

これ以外にも n が付与されたインスタンスのリリースが数多くありますが、今回は SRD と Elastic Fabric Adapter (EFA) による恩恵で多くのインスタンスでネットワーク帯域幅の強化が行われています。Trn1 も Trn1n になることで、最大ネットワーク帯域幅が trn1.32xlarge の 800 Gbps から 1600 Gpbs まで強化されるとのことです。

Inf2 Preview

aws.amazon.com

先にも記載しました推論チップ「AWS Inferentia」の次世代「infeteria2」が搭載されたインスタンス Inf2 がプレビューとして発表されました。

Inf2 は最も要求の厳しい深層学習推論アプリケーションに対して、Amazon EC2 で最も高いコストパフォーマンスを提供するように設計されています。Inf2 インスタンスは、Inf1 インスタンスと比較して、3 倍のコンピューティング パフォーマンス、最大 4 倍のスループット、最大 10 倍の低レイテンシーを提供します。GPU ベースのインスタンスと比較してワットあたり最大 50% 優れたパフォーマンスを提供し、持続可能性の目標を達成するのに役立ちます。

Instance Size Inferentia2 accelerators Accelerator Memory(GB) vCPU Memory(GiB)
inf2.xlarge 1 32 4 16
inf2.8xlarge 1 32 32 128
inf2.24xlarge 6 192 96 384
inf2.48xlarge 12 384 192 768

プレビューは「こちら」から申し込みが可能です。

新しいインスタンスタイプの発表(既に利用可能)

M6in, M6idn, R6in 及び R6idn

aws.amazon.com

全てがインスタンスタイプの最後に「n」が付与されている通り、ネットワークが強化されたインスタンスが複数発表されました。

これら第 6 世代のネットワークに最適化されたインスタンスでは、SQL/NoSQL データベース、インメモリデータベース (SAP HANA)、Telco アプリケーション (5G User Plane Function (UPF))、ハイパフォーマンスファイルシステム、分散 Web スケールインメモリキャッシュ、キャッシングフリートや、リアルタイムのビッグデータ分析アプリケーションのパフォーマンスを改善することができるとされています。

既に第 7 世代のインスタンスタイプが複数リリースされており、もしかすると第 6 世代が古く見えるかもしれませんが、多くのお客様はいまだ第 5 世代である「m5」や「r5」をメインで利用されています。今後は第 6 世代も積極的に活用を検討頂けるのではと考えております。なお、これらのインスタンスタイプは C6in も含め、現状東京リージョンではご利用いただけません。

C6in

aws.amazon.com

これは先のアップデートと同様に、最後に「n」が付与されているインスタンスタイプのリリースです。

なお、C6in インスタンスは前世代の C5n インスタンスよりも 2 倍のネットワーク帯域幅と 2 倍のパケット パフォーマンスを提供するとのことですので、是非最新世代に切り替えていきたいところです。

Hpc6id

aws.amazon.com

Hpc6id インスタンスは、最大 3.5 GHzで動作する第 3 世代 Intel Xeon Scalable プロセッサ(Ice Lake)、そして 1,024 GiB のメモリ、15.2 TB のローカル SSD、200 Gbps Elastic Fabric Adapter(EFA)ネットワーク帯域幅を搭載しています。Hpc6id インスタンスは、データ集約型の HPC ワークロードにおいて、同様の x86 ベースの EC2 インスタンスと比較した場合、vCPU あたりの HPC パフォーマンスが最も優れています。

先の Hpc7g は発表がされたのみに留まりましたが、Hpc6id は既にリリースされておりオハイオリージョン(us-east-2b)で利用が可能となっている特殊なインスタンスです。

インスタンスタイプは hpc6id.32xlarge のみが提供されており hpc6a.48xlarge と比較すると以下の通りの差があります。

Type AZ vCPU Architecture Memory Storage Storage Type Network Bandwidth Linux 料金 Windows 料金
hpc6a.48xlarge us-east-2b 96 x86_64 384 GiB - - 100 Gigabit $2.88/h $7.296/h
hpc6id.32xlarge us-east-2b 64 x86_64 1024 GiB 15200 GiB ssd 200 Gigabit $5.7/h $8.644/h

なお、インスタンスタイプの最後に付与された d はローカルストレージを表しており、hpc6a にはなかったローカルストレージが利用可能となったこともメリットでしょう。

まとめ

2022年11月29日時点のまとめは以上の通りです。

Nitro v5 や Graviton 3E そして ENA Expressなど、基盤側のアップデートがかなり強調されているように感じました。AWS のような仮想化サービスでも物理レイヤーのアップデートが肝となっています。特に AWS は Graviton プロセッサをはじめ自社で物理レイヤーの開発も行っており、これからも物理側からの機能強化に注目が集まりそうです。

今後も re:Invent で Amazon EC2 の更新があればこちらのブログに追記していきたいと思います。

▼ 11月28日〜12月2日 AWS re:Invent 2022開催中!▼

米・ラスベガスで開催されるAWS最大のカンファレンスイベント!
ご登録はこちらから:

それでは、またお会いしましょう。

佐竹 陽一 (Yoichi Satake) エンジニアブログの記事一覧はコチラ

マネージドサービス部所属。AWS資格全冠。2010年1月からAWSを利用してきています。2021-2022 AWS Ambassadors/2023-2024 Japan AWS Top Engineers/2020-2024 All Certifications Engineers。AWSのコスト削減、最適化を得意としています。