AWS、従業員に力を与える生成AIアシスタント「Amazon Q」を披露
今回は「AWS、従業員に力を与える生成AIアシスタント「Amazon Q」を披露」についてご紹介します。
関連ワード (クラウド等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
Amazon Web Services(AWS)は米国時間11月27日~12月1日、年次イベント「re:Invent 2023」をネバダ州ラスベガスで開催している。2日目の基調講演では、最高経営責任者(CEO)のAdam Selipsky氏が、生成AIの新たなサービスを中心に、多数の新サービス提供について説明した。
12回目となる今回のre:Inventには、現地に約5万人が参加、オンラインでは30万人以上が同イベントを視聴していると明かした。連日の基調講演には会場が埋まるほどの人が参加しており、大いに盛り上がりを見せている。
講演の冒頭、Selipsky氏はre:Inventについて「このイベントは、学習するための場として位置付けている。そのために、2万2000以上のセッションや多数の基調講演、展示場所を設けている。さまざまな業界やサイズの企業のユースケースを知る機会になるだろう」と述べる。
AWSは、「Working Backwards」(顧客起点の考え)を重視している。同氏は「私たちは常に顧客のニーズ、課題から逆算して考えている」といい、インフラの作り直しから、セキュリティやネットワークプロトコルなど、さまざまなイノベーションに取り組んでいると述べた。
2006年に提供を開始したストレージサービス「Amazon S3」には、コスト効果の高い「Glacier Deep Archive」「Amazon S3 Intelligent tiering」などが含まれている。ここに、高い性能と最短のレイテンシー(遅延時間)を提供するオブジェクトストレージ「Amazon S3 Express One Zone」が新たに追加された。これは1桁ミリ秒の遅延を実現し、Amazon S3と比較して10倍のアクセススピードを提供する。
また同社は、汎用(はんよう)コンピューティングの低価格化に注力しており、このたびクラウド向けプロセッサー「AWS Graviton4」を開発。「AWS Graviton 3」と比較して、30%高い計算能力と50%多いコア数、75%高速なメモリー帯域を備えるとしている。
常時暗号化が施された、高速な物理ハードウェアインターフェースで、セキュリティをより高い水準に引き上げた。Graviton4は、「Amazon EC2 R8gインスタンス」でプレビュー提供を開始。高性能なデータベースやインメモリキャッシュ、ビッグデータの分析に適しているという。「Amazon EC2 R8gインスタンス」に比べ、3倍のvCPUとメモリー容量を提供する。
Amazonは、AIを活用してサプライチェーンや詳細検索の機能の改善、「Amazon Alexa」などのテクノロジーを作ってきた。「私たちは、自らを革新する方法を知っているため、皆さまの革新を支援できる」(同氏)。AWSは、生成AIに対して「基盤」「基盤モデルへのアクセス」「アプリケーション」の3つの層からアプローチをする。
最下層の「基盤」はインフラを指す。この基盤モデルには「学習」と「推論」のワークロードがあり、多くの学習データを用いて学ばせ、テキストや画像、動画といった推論を用いて生成する。
生成AIのユースケースを本当に使えるものにするためには、コスト効果の高い機械学習(ML)とAIのために作られたインフラが必要になる。そこで同社は、基盤モデルと大規模言語モデル(LLM)の高性能なトレーニングのために開発された、ニュートラルネットワークの学習専用チップ「Trainium2」を発表。従来の「Tranium」と比較して、トレーニング処理が4倍高速になり、3倍のメモリー容量を備える一方、エネルギー消費効率は最大で2倍に向上したという。Tranium2は「Amazon EC2 Trn2インスタンス」を介して利用でき、1インスタンス当たり16器を搭載している。
次に「基盤モデルへのアクセス」において「Amazon Bedrock」の新たなサービスを発表した。AWSでは、生成AIアプリケーションを容易に構築・拡張できるAmazon Bedrockを提供している。同サービスは、画像生成や検索など、それぞれに適した幅広い基盤モデルを展開している。これに対して同氏は「1つのモデルが一番上に立つということはないし、1つのモデルだけを使うクラウドプロバイダーもいない。さまざまなモデルを使う必要がある」とし「だからいろいろな選択肢が必要だ」と言及した。
基盤モデルの1つである「Claude 2」を提供するAnthropicのCEOであるDario Amodei氏が登壇し、先日発表した「Claude 2.1」の進化について紹介。「220万のトークンをサポートして、複数のドキュメントをサポートする。また、ハルシネーションを低減するようにしている。私たちは、責任ある生成AIを提供することを重視している」と話した。
Amazon Bedrockは今回、3つのカスタマイズ機能を追加した。まず、「Fine Tuning」では、基盤モデル「Cohere Command Lite」「Meta Llama 2」「Amazon Titan Text Lite & Express」においてファインチューニング(微調整)が可能になる。そして、「Retrieval Augmented Generation(RAG)with Knoledge Bases」において、コンテキストや組織内の情報を利用し、基盤モデルの応答をカスタマイズできるRAG(Retrieval Augmented Generation)機能を、フルマネージドで提供する。
「Continued Pre-training for Amazon Titan Text Lite & Express」では、業界用語への対応など、ドメイン知識に基盤モデルを対応させ、ビジネス上のテーマに対するモデルの精度を向上させる。
Fine TuningおよびRetrieval Augmented Generation(RAG)with Knoledge Basesは一般利用を開始しており、Continued Pre-training for Amazon Titan Text Lite & Expressはプレビューを提供している。いずれもバージニア北部とオレゴンでのリージョンで利用できるという。
以上がAmazon Bedrock内のカスタマイズ機能の追加だったが、ほかにも生成アプリケーションと企業システム、データソース全体にまたがる複数ステップのタスクをフルマネージドで実行する「Agents for Amazon Bedrock」と、基盤モデルの安全対策として「Guardrails for Amazon Bedrock」を発表した。
Guardrails for Amazon Bedrockは、ユースケースに応じた複数のガードレールを定義し、複数の基盤モデルに適用している。多くの基盤モデルには保護機能が組み込まれているが、同ツールを活用することでユースケースに特有のフィルタリングを適用できるとしている。望ましくないトピックを定義し、有害コンテンツのカテゴリーごとにフィルタリングする値を設定。ユーザーのクエリーや基盤モデルの応答を評価し、制限に抵触するかを評価するという。
現時点では、テキストベースのモデルに対して英語で対応しており、プレビュー版として開始している。現時点で利用可能なリージョンは、バージニア北部とオレゴンのみ。
Selipsky氏は、「生成AIが期待できるイノベーションのツールになるということは、乱用の可能性も秘めている。AIのポテンシャルを生かしながら、リスクを削減するには、さまざまなステークホルダーの関与が必要になる。今年のはじめ、バイデン大統領と安全な、そして透明性のあるAIテクノロジーの開発をすると話した」と、AWSのAIに対する責任について述べた。