今年も開催されたMicrosoft Build 2024のキーノートを日本語でまとめをお届けします!今年は吉田が製品チームとして「Ask the Expert」ブース対応を現地で3日連続アサインされた上、夜は無謀にも48時間以内にPower Platform の発表について2時間にわたってお届けするイベントを開催した関係上、まとめが遅くなってしまいました。

Image
Build 2024 のPower Automateブース

その分、Satya Nadellaが登壇で利用したスライドを丸ごと日本語化し、より丁重なまとめ?(もはやフル原稿…)を作ることができました。このページの一番下にはスライド完全意訳版をダウンロードできるようにしてありますので、ぜひ読んでくださいね。

それでは以下、キーノートの情報をお伝えします!

開発者会議は常に最もエキサイティングで、最も楽しい瞬間です。私は成人してからの人生を、過去30年間にわたってBuildに参加することで刻んできました。Win32が初めて議論されたのを明確に覚えています。それはおそらく1991年、.netやAzureも同様です。これらは私の人生に刻まれた瞬間です。そして今、またそのような瞬間にいるように感じます。

ただ今回は、そのスケールや範囲がこれまでよりもはるかに深く、広いのです。この技術スタックのあらゆる層が変わりつつあります。データセンターの消費電力や冷却層から、エッジコンピューティングのNPUに至るまで、これらの新しいワークロード、分散同期データ並列ワークロードによって、テクノロジースタックのあらゆる層が再構築されています。 しかし、現代コンピューティングの始まりまで遡って考えてみると、約70年前には2つの大きな夢がありました。

まず第一に、コンピュータが私たちを理解することができるのか、私たちがコンピュータを理解する必要がなくなるのかということです。第二に、情報がますます増加する世界において、人、場所、物に関する情報が増える中で、コンピュータがその情報を使ってもっと効果的に推論し、計画し、行動するのを助けることができるのか?ということです。これらは過去70年以上にわたって私たちが抱いてきた2つの夢です。そして今、私たちはその両方の面で本当のブレークスルーを迎えています。

この基本的な原動力の一つとして、私が常に自問するのは、「これは素晴らしいことだ。システムの黄金時代かもしれない。何が本当にこれを駆動しているのか?」ということです。私は常にスケーリングの法則に立ち返ります。

ムーアの法則が情報革命を推進したのと同様に、DNN(ディープニューラルネットワーク)のスケーリング法則、モデルアーキテクチャ、データの使用方法や生成方法がこのインテリジェンス革命を駆動しています。ムーアの法則は、おそらく15ヶ月から18ヶ月ごとにスケーリングしていたため、より安定していたと言えるでしょう。

現在では、6ヶ月ごとにスケーリングまたは倍増するものがあります。しかし、スケーリングの法則の効果として、新しい自然ユーザーインターフェースが生まれています。それはマルチモーダル(複数の手段)であり、テキスト、音声、画像、ビデオを入力および出力としてサポートします。

私たちには重要なコンテキストを保持し、アプリやデバイス全体で個人的な知識やデータを思い出すメモリがあります。また、非常に複雑なコンテキストを理解し、複雑なタスクを完了するのを助け、私たちの認知負荷を軽減する新しい推論および計画能力もあります。しかし、私がこの過去1年を振り返って特に印象に残っているのは、皆さん開発者がこれらすべての能力を適用し、私たちの周りの世界を変えるために活用してきたことです。

私は2023年1月のこの瞬間をいつまでも忘れないでしょう。ある地方のインドの農夫に会ったのです。彼はテレビで聞いた政府の農業助成金について、GPT-3.5と彼の声を使って推論することができました。これは私にとって非常に驚くべきことで、すべての力を実感させました。数か月前にアメリカの西海岸で開発されたフロンティアモデルが、インドの開発者によって地方のインドの農夫の生活を直接改善するために使われたのです。この技術の普及の速度は、私のプロフェッショナルキャリアの中で見たことがないほどで、ますます加速しています。

実際、今月の初めに私は東南アジアにいました。タイでは開発者に会い、素晴らしいラウンドテーブルを行いました。彼はPhi-3とGPT-4をどのように使用しているかについて話してくれました。彼はPhi-3を使ってRAGに関するすべてのことを最適化していました。これは本当に驚くべきことです。数週間前に発売されたばかりの技術について、バンコクで開発者と話しているうちに、彼がその技術の真の専門家であることを実感しました。私たちがよく話す民主化の力を見るのは素晴らしいことです。しかし、それを目の当たりにすることはさらに特別です。これこそが、私たちがこの業界にいる理由であり、私たちの仕事に深い意味を与えているのです。

まずは、この影響を世界にもたらすために尽力している皆さんに、心からの感謝を伝えたいと思います。本当にありがとうございます。

前回ここBuildに来てから進歩を振り返ると、我々は実際に3つのプラットフォームを構築しました。まず最初はMicrosoft Copilot、これは日常のパートナーです。知識や専門知識を指先に置き、それを活用する手助けをしてくれます。我々はCopilotスタックを構築し、AIアプリケーションやソリューション、体験を構築できるようにしました。昨日(5月20日)、新しいカテゴリーであるCopilot+PCsを発表しました。これは史上最速のAIファーストPCです。

これら3つのプラットフォームはどれもエキサイティングですが、まずはCopilot+PCsから始めたいと思います。

我々はAIをWindowsのファーストクラスの名前空間として公開しています。今週、Windows Copilot Runtimeを導入し、WindowsをAIアプリケーションを構築するための最良のプラットフォームにします。

Win32がグラフィカルユーザーインターフェイスに対して持っていた役割と同様に、Windows Copilot RuntimeがAIに対してもたらす自由を信じています。これには、昨日共有したすべてのAI機能を新しい体験に統合するのを助ける準備が整ったローカルAPIのコレクションであるWindows Copilot Libraryから始まります。

これにはスタジオエフェクトのためのノーコード統合、クリエイティブフィルター、テレプロンプター、ボイスフォーカスなどが含まれています。しかしもちろん、これらのモデル自体にアクセスしたい場合は、APIを通じて直接呼び出すことができます。40以上のモデルが最初から利用可能で、最新の小規模言語ファミリーモデルであるPhi-Silicaを含んでおり、これは特にCopilot+PCsのNPU上でローカルに実行するように設計されています。

このモデルは、デバイス上で高速なローカル推論を実現します。さらに、Copilot Libraryはアプリケーション内でRAGを組み込むのも簡単にします。アプリ内でベクトルストアを構築するための適切なツールを提供し、リコールと共に見たセマンティック検索を可能にします。

しかし今では、ローカルデータを使用してこれらのプロンプトを構築することができます。さらに今日は、PyTorchと新しいWebNNフレームワークをWindows DirectMLを通じてネイティブにサポートすることを発表できることを非常に嬉しく思います。

ネイティブPyTorchサポートにより、何千ものOSSモデルがWindows上で最初から動作し、簡単に始めることができます。実際、WebNNを使うことで、ウェブ開発者はついにGPUやNPUに直接アクセスできるウェブネイティブな機械学習フレームワークを手に入れることができます。実際、昨晩EdgeでWebNNをオンにしてサンプルコードを動かしてみました。NPUを使用しているのを見るのは本当にクールです。PyTorchとWebNNの両方が今日から開発者プレビューで利用可能です。

これらは今日多くの発表の中の一つに過ぎません。私たちは、50を超える新しい製品とパートナーシップを導入し、皆さんに新しい機会を提供します。私たちは常にプラットフォーム企業であり、インフラストラクチャからデータ、ツール、アプリケーション拡張性まで、最も完全なエンドツーエンドのスタックを構築することを目指しています。

これにより、皆さんはこの技術の力を活用して独自のアプリケーションを構築できます。今日は、このイベントでのCopilotスタックの各層における主要なニュースを強調したいと思います。

AIインフラストラクチャー

まずはインフラストラクチャから始めましょう。私たちは、AI時代のニーズに応える最も完全でスケーラブルなAIインフラストラクチャを持っています。Azureを世界のコンピューターとして構築しています。

60を超えるデータセンターリージョンを持ち、他のどのクラウドプロバイダーよりも包括的なグローバルインフラストラクチャを提供しています。

昨年、私たちは日本からメキシコ、スペインからウィスコンシンまで、データセンターリージョンとAIキャパシティを拡大してきました。私たちの最高クラスのAIインフラストラクチャをどこにでも提供しています。これは、クラウドサービスの持続可能性を提供することに焦点を当てて行っています。

来年までにデータセンターが100%再生可能エネルギーで運営されるという目標を達成する予定です。

私たちはデータセンターからネットワークまで、スタックのすべての層で電力と効率を最適化しています。最新のデータセンターデザインは、これらのAIワークロードに特化して設計されており、AIのコストと電力消費を効果的かつ責任を持って削減できるようにしています。ワークロードの熱プロファイルに適応し、運用場所の環境に合わせた高度なデータセンター冷却技術を取り入れています。シリコン層では、ワークロードを最適な高速AIハードウェアに動的にマッピングすることができ、最高のパフォーマンスを提供します。カスタムIOハードウェアとサーバーデザインにより、劇的に高速なネットワーキング、リモートストレージ、ローカルストレージのスループットを提供します。このエンドツーエンドのアプローチが、前例のないスケールに到達するのに役立っています。

昨年11月には、クラウド上でのトレーニングに最も強力なAIシンプルコンピューターを発表しましたが、これは実際にはクラウドインフラストラクチャのごく一部を使用しています。過去6か月で、そのスーパーコンピューティングパワーを30倍に増加させました。このスケールを見るのは驚異的です。

もちろん、トレーニングフリートだけでなく、世界中で推論フリートをスケーリングしており、Azure AI Servicesが利用できる国の数を4倍に増やしています。これは素晴らしいことです。

私たちのAIインフラストラクチャの中心には、世界で最も先進的なAIアクセラレータがあります。NVIDIAやAMD、そして私たち自身のAzure Maiaを含む、最も完全なAIアクセラレータの選択肢を提供しており、ワークロードに対して動的に最適化されています。つまり、Microsoft Copilotを使用する場合でも、独自のCopilotアプリを構築する場合でも、最適なアクセラレータパフォーマンスを最適なコストで提供します。

例えば、GPT-4の例を見ると、それがリリースされて以来、12倍安価で6倍速くなっています。これは、システムアーキテクチャを進化させる中で継続的に進歩を見せるタイプの進展です。すべては、NVIDIAとの非常に深いパートナーシップから始まります。このパートナーシップは、Copilotスタック全体にわたるハードウェアイノベーションとシステムソフトウェアイノベーションの両方を網羅しています。

一緒に、私たちはAzureでGPUを用いた機密コンピューティングを提供し、AIモデルのエンドツーエンドで機密データを保護するために実際に役立てています。実際、最新のH200を今年後半にAzureに導入し、NVIDIAのBlackwell GPU B100やGB200構成を提供する最初のクラウドプロバイダーの一つとなります。大規模言語モデル(GPT-4oなど)や小規模言語モデル(Phi-3ファミリーなど)のトレーニングと最適化のためにNVIDIAと協力を続けています。

ハードウェアを超えて、NVIDIAの主要なエンタープライズプラットフォームの提供を私たちのクラウドに導入しています。例えば、Omniverse CloudやDGX CloudをAzureに深く統合しています。例えば、NVIDIAは最近、DGX CloudがMicrosoft Fabricとネイティブに統合されることを発表しました。これにより、FabricデータにフルアクセスしながらDGX Cloudを使用してモデルをトレーニングできます。Omniverse APIはまずAzureで利用可能となり、開発者は産業用AIソリューションを構築できます。また、NVIDIAと協力して、NIM業界固有の開発者サービスをAzureで素晴らしいものにしています。

次にAMDについてです。AMD MI300X AIアクセラレータを基にしたVMの一般提供を初めて実現するクラウドであることを共有できることに非常に嬉しく思います。

これはAMDとMicrosoftの両方にとって大きなマイルストーンです。長い間取り組んできた成果であり、今日の段階でGPT-4推論において最高の価格性能を提供しています。Azure Maiaと共に前進し続けます。実際、最初のクラスターはすでに稼働しており、まもなくCopilotやAzure OpenAIサービスの一部のプロンプトがMaiaハードウェアを使用して提供されるようになります。

AIを超えて、私たちのエンドツーエンドシステムの最適化は、クラウドネイティブアプリの開発と運用を向上させます。6か月前に初めて一般用途のARMベースのコンピュートプロセッサであるMicrosoft Cobaltを発表しました。今日は、CobaltベースのVMのパブリックプレビューを発表できることに非常に嬉しく思います。

CobaltはすでにMicrosoft 365でビデオ処理と権限管理に使用されており、Microsoft Teamsなどのサービスで数十億の会話を支えています。その同じARMベースの性能と効率を多くの顧客に提供しています。

最近のベンチマークデータとテストでは、Cobalt 100 VMは他の一般提供されているARMベースのVMより最大40%優れた性能を発揮しました。Cobaltが市場に出ることは非常にエキサイティングです。

基盤モデル

次に、基盤モデルに移ります。Azure AIでは、最前線のモデルやオープンソースモデルを含む幅広い選択肢を提供しており、LLMやSLMなど、あなたのユニークなニーズやアプリケーションのニーズに最も適したモデルを選ぶことができます。実際、50,000以上の組織がAzure AIを利用しています。素晴らしい勢いです。

そして、すべてはOpenAIとの最も戦略的で重要なパートナーシップから始まります。

先週、OpenAIは最新のマルチモーダルモデルであるGPT-4oを発表しました。このモデルはAzureでトレーニングされました。これは絶対的なブレークスルーです。テキスト、オーディオ、画像、ビデオを入力および出力として扱うことができます。素早く流暢に人間のような会話が可能で、途中で中断されても対応できます。GPT-4oは、さまざまなモダリティにわたるベンチマークで最高のパフォーマンスを発揮し、常に最良の回答を提供します。プロンプトに提供された情報を理解する際の最先端のパフォーマンスを持ち、それが本当に重要です。

先週のOpenAIのデモは本当に魔法のようなものでした。そして昨日、CopilotがGPT-4oを活用する方法を示しました。Copilotで画面やセッションをプロンプトとして共有し、どんな作業でもCopilotがサポートします。

ここでの魔法は、Copilot があなたのパーソナルアシスタントとして、ゲームであれドキュメントであれコードの一行であれ、あらゆるタスクを手助けし、その瞬間に集中できるようにすることです。そして、OpenAI が革新を起こすとき、私たちの約束はそのすべての革新を Azure にもたらすことです。

実際、OpenAI が GPT-4o を発表した同日に、私たちはそのモデルを Azure OpenAI サービスでテスト利用可能にしました。本日、Azure AI で一般提供が開始されたことを発表できることを嬉しく思います。

これはつまり、皆さんがこの機能を使って画期的なアプリを構築できるようになったということです。最もクールな点の一つは、今やどのアプリやウェブサイトも、本質的にフルマルチモーダル、フルデュープレックスの対話型キャンバスに変えることができるということです。

Sethは(話すのを)急いでいましたが、GPD-4oは彼に追いついていました。信じられないことです。本当に、OpenAIチームのパートナーシップに感謝したいです。彼らの責任あるイノベーションへのアプローチが、私たちの業界を前進させるのを助けています。実際、サム(アルトマン)がここに来て、ケビンと共に少し後でこれからのことについてもっと話す予定です。これがエキサイティングな部分です。皆さんは次に何が来るのかをどうやってサンプルしますか?私たちはCohere、Databricks、Deci、Meta、Mistral、Snowflakeなどからも多くのモデルをAzure AIに持ち込んでいます。

私たちはあらゆる国、あらゆる言語のモデルをサポートしたいと考えています。実際、Cohere、G-42、NTT DATA、Nixtlaなどからもモデルをサービスとして提供することを発表できて興奮しています。これにより、管理されたAI Simモデルに簡単にアクセスでき、オープンソースも大好きです。

実際、2年前のBuildで、Hugging Faceと提携し、Azure AIを通じて最先端の言語モデルに簡単にアクセスできるようにしました。

今日は、そのパートナーシップを拡大し、Hugging Faceからのテキスト生成推論とテキスト埋め込み推論をAzure AI Studioに直接導入することを発表できて本当に興奮しています。

これで終わりではありません。私たちは大規模言語モデルだけでなく、小規模言語モデルの革命もリードしています。

Phi-3ファミリーのSLMは最も有能でコスト効率が高いです。同じサイズまたは次のサイズのモデルを超える性能を、さまざまな言語、推論、コーディング、数学のベンチマークで発揮します。性能対パラメータ数の比率を考えると、本当にクラス最高です。

今日は、Phi-3ファミリーに新しいモデルを追加し、その品質コスト曲線にさらに柔軟性をもたらします。Phi-3 visionという、言語とビジョンの能力を備えた42億パラメータのマルチモーダルモデルを導入します。

これは実世界の画像を推論したり、画像についてのインサイトを生成したり、質問に答えることができます。ここでお見せする通りです。また、70億パラメータのPhi-3 smallと140億パラメータのPhi-3 mediumモデルも利用可能にします。Phiを使用すると、Web、Android、iOS、Windows、Edgeにわたるアプリを構築できます。

利用可能な場合はローカルハードウェアを活用し、利用できない場合はクラウドにフォールバックすることで、複数のプラットフォームをサポートするために開発者が行わなければならないことを簡素化します。今、すでに多くの開発者がPhi-3を使用して素晴らしいことをしているのを見るのは素晴らしいことです。

前に言及したタイの会社であるAmity Solutions、インドの農家が作物について質問するためのCopilotを構築したITC、複雑な患者の履歴をより迅速かつ効率的に要約するためにPhiを使用している医療分野のEpicなどがその例です。もう一つ非常にクールな事例は教育分野です。

今日は、Khan Academyとの新しいパートナーシップを発表できることに非常に興奮しています。私たちはPhi-3を使って数学の家庭教師をよりアクセスしやすくするために協力していきます。

また、Khan AcademyがKhanmigoというAIアシスタントを全米の教師に無料で提供することをお知らせできることも非常に嬉しいです。

このすべてがどのような影響を及ぼすのか、そしてKhan Academyが何をするのかを見るのが非常に楽しみです。そして、Salが間もなくKevinに加わり、さらに詳しく共有する予定で、それについて非常に感謝しています。特にMelissaのような先生方とその活動に感謝しています。本当にありがとうございます。もちろん、これは単なるモデルにとどまりません。これらの体験を構築するために必要なツールが重要です。

Azure AI Studioを使用すると、Copilotアプリを開発し、安全に保護するためのエンドツーエンドのツールソリューションを提供します。また、AIモデルとアプリケーションのパフォーマンスと品質を評価するためのツールとガイダンスも提供します。これらすべてのモデルにおいて、これは最も重要なタスクの一つであることは容易に想像できるでしょう。そして、Azure AI Studioが一般利用可能になったことを発表できることを非常に嬉しく思います。

これはAIモデルを構築、トレーニング、微調整するためのエンドツーエンドの開発環境であり、責任を持って行うことができます。

Azure AI Studioには、AI安全性というおそらく最も重要な機能に対する最新の安全ツールが内蔵されています。モデルの出力における幻覚の検出からリスクと安全性のモニタリングまで、入力と出力がどのようにコンテンツフィルタをトリガーするかを理解するのに役立ちます。今日、私たちは新しい機能を追加しています。これには、カスタムカテゴリが含まれ、独自のフィルタを迅速に展開するオプションが追加されます。これは、現実世界にモデルを展開する際に、新たな脅威が出現した場合に非常に重要だと思います。

Azure AI Studioを超えて、非常に特定のユースケースに対してこれらのモデルをさらにカスタマイズする必要がある高度なアプリケーションがあることを認識しています。

今日、Azure AIカスタムモデルが登場することを発表できることを非常に嬉しく思います。これにより、独自のドメイン、データに特有のカスタムモデルをトレーニングする能力が得られます。

OpenAIと共に作業してきたビルダーやデータサイエンティストが、Phiのすべての進歩を皆さんにもたらし、これらのカスタムモデルを構築できるようにします。出力はドメイン固有であり、マルチタスクかつマルチモーダルであり、ベンチマークによって定義されたクラス最高のものであり、おそらく必要とされる特定の言語能力を含むこともあります。

データ

次に、データに移りましょう。最終的には、モデルをトレーニングし、微調整し、グラウンドするためには、データが最適な状態である必要があります。そのために、運用ストアからAzureでの分析まで、包括的なデータエステートを構築しています。

また、Cosmos DBやSQL、Postgres SQLなど、すべての運用ストアにAI機能を追加しました。しかし、インテリジェントデータプラットフォームのコアはMicrosoft Fabricです。

現在、11,000以上の顧客がFabricを使用しており、各業界のリーダーも含まれています。この進展を見るのは素晴らしいことです。

Fabricを使用すると、単一の統合されたSaaSプラットフォームで必要なすべてを手に入れることができます。計算とストレージが統合されており、ユーザー体験も統合され、ガバナンスも統合されています。さらに重要なのは、ビジネスモデルが統合されていることです。

Fabricのもう一つの素晴らしい点は、データがどこにあっても動作することです。Azureだけでなく、AWSやGCP、さらにはオンプレミスのデータセンターでも動作します。今日、次のステップを踏み出します。Fabricにリアルタイムインテリジェンスを導入します。

今日の顧客は、IoTシステムやテレメトリシステムからのリアルタイムデータが増え続けています。実際、クラウドアプリケーション自体も大量のデータを生成しています。

しかし、Fabricを使用すると、誰でもデータエステート全体から実行可能なインサイトを引き出すことができます。

私たちは、Fabricを使用したアプリケーションの設計、構築、相互運用をさらに簡単にしています。実際、Fabric Workload Development Kitを使用して新しいアプリプラットフォームを構築しています。

例えば、ESRIのような企業が、空間分析をFabricと統合し、顧客がesriの豊富なツールとライブラリを使用して自分の位置データから洞察を生成できるようにしています。

これは本当に興奮することです。分析スタックが本格的なアプリプラットフォームとして初めて登場するのです。Fabricを超えて、データスタック全体にAIの力を統合しています。今日のエンタープライズでは、RAGがAI駆動型アプリケーションのコアであることは間違いありません。

そして、Azure AI Searchは、最先端の検索システムを使用して非常に高精度な回答を提供し、任意のスケールでRAGを実行できるようにします。実際、ChatGPTのサポートやGPTs、アシスタントのAPIはすべてAzure AI Searchによって動作しており、組み込みのOneLake統合により、Azure AI Searchは構造化されていないデータを自動的にインデックス化します。

また、Azure AI Studioと統合されており、例えば独自の埋め込みモデルを持ち込むことをサポートします。このようにして、Azure Searchが昨年にわたってその非常にコアな開発者サービスに成長していくのを見るのは本当に驚異的です。

AIオーケストレーションとツールチェーン

次に、開発者ツールに移りましょう。私たちが開発者ツール会社として創業してからほぼ50年後、私たちは再びソフトウェア開発を再定義しています。

GitHub Copilotは、この生成AI時代の最初のヒット製品であり、最も広く採用されているAI開発者ツールです。50,000以上の組織で180万のサブスクリプションが使用されています。

GitHub Copilotを使用することで、私たちは地球上のすべての開発者が自分の母国語でプログラミング言語とプログラミング知識にアクセスできるようにしています。考えてみてください。

どんな人でも、ヒンディー語やポルトガル語でプログラミングを始めることができ、自分の母国語でのコーディングの喜びを取り戻すことができます。そして、Copilot Workspaceを使用することで、フロアに滞在することがかつてないほど簡単になります。私たちは、誰でも瞬時にアイデアからコードに移行できる世界に一歩近づいています。

問題から始まり、それがコードベースの深い理解に基づいて仕様を作成します。その後、計画を立て、それを実行して複数のファイルにまたがるリポジトリ全体でコードを生成します。このプロセスの各ポイントで、問題から仕様、計画、コードに至るまで、あなたがコントロールしています。編集可能であり、これが本 当にソフトウェアを構築する新しい方法です。これを今後数ヶ月でさらに広く提供することを楽しみにしています。今日はさらに大きな一歩を踏み出しています。Copilotを初めてより広範な開発者ツールとサービスエコシステムに橋渡しします。GitHub Copilot Extensionsを発表できることに非常に嬉しく思います。

今では、dockerやSENTRYなどのサードパーティサービスの機能でGitHub Copilotをカスタマイズできます。

そしてもちろん、Azureの新しいエクステンションもあります。GitHub Copilot for Azureです。

自然言語を使用してAzureに即座にデプロイし、Azureリソースに関する情報を取得できます。Copilotがコーディングに対して行ったことを、今度はインフラと運用に対して行います。このすべてを実際に見るために、私たちのGitHubチームからNehaさんを紹介します。

GitHub Copilotとそのエコシステム全体が、コーディングに多くの楽しさと喜びを取り戻しています。そして、フローに入ることについては、私たちが夢見ていたことが実現しているのだと思います。

Microsoft CopilotとカスタムCopilot

次に一番上の層となる、Microsoft Copilotについてお話します。私たちは、世界の知識や組織内の知識にアクセスし、それを活用できるようにCopilotを構築しました。

今、Copilotは驚くべき影響を与えています。組織全体で専門知識を民主化しています。それは本当に連鎖的な効果をもたらしています。

実際、これはPC時代の初期を思い出させます。仕事、仕事のアーティファクト、ワークフローがすべて変わり、広範な企業ビジネスプロセスに影響を与えています。私は常に、これは誰にとってもできることの敷居を下げ、(可能性の)天井を上げていると言っています。

ビジネスプロセスは2つとして同じではないため、Copilot Studioを使用すると、ビジネスプロセスやワークフローに合わせてCopilotをカスタマイズできるようになります。本日、Copilot StudioでCopilot Connectorsを紹介します。

これにより、Graph、Power Platform、Fabric、DataWorksからのデータでCopilotを基盤にすることができ、Adobe、Atlassian、ServiceNow、Snowflakeなどのサードパーティコネクタも利用可能になります。

これにより、組織の知識とデータを迅速に取り入れることができ、Copilotを一流およびサードパーティのビジネスデータに基づかせるプロセスが魔法のような体験になります。また、Copilotを個人アシスタントだけでなく、チームアシスタントに拡張しています。本日、Team Copilotを発表できることを大変嬉しく思います。

Teamsでコラボレーションする場所ならどこでもTeam Copilotを呼び出すことができます。Teams、Loop、Plannerなど、さまざまな場所で使用できます。例えば、Teamsでの会議の際に議事進行をサポートし、アジェンダの作成、時間の追跡、メモの作成を行ったり、チャットの作成、重要な情報の浮上、アクションアイテムの追跡、未解決の問題の対処を行ったりすることができます。

プロジェクトマネージャーとして、チームで取り組んでいるプロジェクトが順調に進行していることを確認することもできます。これらの機能は今年後半にプレビュー版で提供される予定で、さらに進化を続けます。

Copilot Studioを使用すると、誰でもエージェント機能を持つコパイロットを構築し、独立して、プロアクティブにタスクを調整することができます。Copilotにジョブディスクリプションを提供するか、事前に作成されたテンプレートの1つを選び、必要な知識とアクションを装備すると、Copilotはバックグラウンドで非同期に動作し、あなたの代わりに行動します。

これが、今後1年間で大きく変わるポイントの一つだと思います。Copilotとエージェントがこの非同期動作を持つことで、長期間にわたるビジネスプロセスの自動化を委任することができます。Copilotは、対処できない状況に遭遇した際には、支援を求めることもできます。

セキュリティファースト

このスタック全体において、私たちMicrosoftが行っている最も重要なことの一つは、強固なセキュリティでそれを包み込むことです。

セキュリティは、Copilot、Copilot+ PC、Copilot Stackに対する私たちのアプローチの根底にあります。私たちは安全な未来への取り組みにコミットしています。この会議の中で、SFIの6つの柱とコアデザイン原則、つまり「設計によるセキュリティ」、「デフォルトによるセキュリティ」、および「セキュリティ運用」にわたって迅速な進展を遂げるのを目にするでしょう。

Scottの基調講演で、私たちが構築するすべてのもの、そして行うすべてのことの基盤となることについて、もっと多くの話を聞くことになるでしょう。では、締めに入りますが、Buildで多くの発表があることを聞くでしょう。しかし、なぜ私たちがこの業界に身を置くことを選び、毎日開発者として仕事に取り組むのか、その核心に戻りたいと思います。

それは最終的には、すべての人とすべての組織に力を与えるという使命です。結局のところ、少数の人にしか役立たない革新ではなく、本当に全員に力を与えることが重要です。それは、新しい世界を構築する皆さん、開発者とビルダーにかかっています。私たちにとって、技術そのものを祝うことは決して目的ではありません。技術を使って、私たちの国、企業、コミュニティで実際に違いを生む魔法のような体験を創り出すことを祝うのです。この新しいAIの世代はすでに驚くべき影響を与えています。皆さんが持っている情熱と努力のおかげです。 最後に、私たちのプラットフォームとツールを使って、どれだけ皆さんがよりアクセスしやすい世界を構築しているかという、信じられないような例を一つお伝えしたいと思います。

日本語訳スライド

キーノートセッションの日本語訳スライドを公開しましたので、欲しい方は以下の場所から取得ください。