kaeken(嘉永島健司)のTech探究ブログ

主に情報科学/情報技術全般に関する知見をポストします。(最近は、特にData Science、機械学習、深層学習、統計学、Python、数学、ビッグデータ)

LiDAR(Light Detection and Ranging)技術まとめ

概要

LiDAR(ライダー)とは

  • Light Detection And Ranging
  • 光による検知と測距
  • 近赤外光や可視光、紫外線を使って対象物に光を照射し、その反射光を光センサでとらえ距離を測定するリモートセンシング(離れた位置からセンサーを使って感知する)方式

en.wikipedia.org

  • ライダー技術は、 レーダー(Radar、Radio Detecting and Ranging、電波探知測距)に類似
  • レーダーの電波を光に置き換えたもの
  • 対象までの距離は、発光後反射光を受光するまでの時間の差で求まる

応用

  • 地質学、地震学、リモートセンシング、 大気物理学で用いられる。近年は自動運転車用センサーとしても注目されている

LiDAR センサー メーカーが NVIDIA DRIVE を基盤に開発を進める | NVIDIA

以下番組で多数事例紹介

BSスペシャル デジタル・アイ 新発見続々! 考古学×可視化テクノロジー - 動画配信

  • LiDARで、カンボジアではアンコール王朝の都市の謎が明らかになった

  • LiDARで、奈良の古墳調査では日本史の“空白の4世紀”の解明

火山灰に埋もれた古代ローマの巻物を解読したら3000万円がゲットできる「ヴェスヴィオ・チャレンジ」 - GIGAZINE

実装例

iPhoneのLiDARで撮影した複数の点群データをPythonで位置合わせ(し、ボクセル化する) #Python - Qiita

3次元点群処理の技術とPythonライブラリまとめ #Python - Qiita

『解像度を上げる――曖昧な思考を明晰にする「深さ・広さ・構造・時間」の4視点と行動法』まとめ

概要

  • 書籍

Amazon.co.jp: 解像度を上げる――曖昧な思考を明晰にする「深さ・広さ・構造・時間」の4視点と行動法 eBook : 馬田隆明: Kindle Store

  • 著者

Takaaki Umada (馬田隆明) 個人サイト

東京大学 FoundX ディレクター。

日本マイクロソフトを経て、2016年から東京大学。
東京大学では本郷テックガレージの立ち上げと運営を行い、
2019年からFoundXディレクターとしてスタートアップの支援と
アントレプレナーシップ教育に従事する。
スタートアップ向けのスライド、ブログなどで情報提供を行っている。
著書に『逆説のスタートアップ思考』
『成功する起業家は居場所を選ぶ』
『未来を実装する』
『解像度を上げる』。

スタートアップ・新規事業に関わる方向けに、非常に有益なスライドを多数公開している。

speakerdeck.com

全体像

「解像度を上げる」とは?

そもそも解像度とは

  • 思考の明晰さ、精細さ
  • 物事の理解度
  • 物事の表現

解像度を上げる思考と行動パターン

  • 優れた起業家から見出した共通の思考と行動パターン
  • 全てのビジネスパートナーが使えるようにするのが本書の目的

解像度が高い状態

  • はっきりした顧客像
  • 明確かつ簡潔な話
  • 具体的な例
  • 多くの事例を知っている
  • 様々な可能性を考慮
  • 洞察がユニーク
  • これからやることの布石が見事

解像度が低い状態

  • ぼんやりした顧客像
  • 話を聞くと疑問が湧いてくる
  • 具体性のない、 ふんわりした話
  • 競合や事例を知らない
  • 安易な解決策
  • バラバラで論理の飛躍のある話
  • 見通しのない進め方

解像度を上げる4つの視点(深さ・広さ・構造・時間)と診断方法

深さ

  • 原因・要因
  • 方法の具体化・掘り下げ
  • 診断方法
    • どれくらい具体的か?

広さ

  • 考慮する原因・要因
  • アプローチの多様性
  • 診断方法
    • どれくらい多面的か?

構造

  • 意味ある要素に分割
  • 関係性や重要性を把握
  • 診断方法
    • どれくらい簡潔か?

時間

  • 経時変化・因果関係
  • プロセスや流れを捉える
  • 診断方法
    • どれくらい道筋立っているか?

4つの視点で十分ロジックツリー化できた場合

  • 深さ:少なくとも7階層以上

4つの視点にこだわり過ぎた場合

  • バランスよく具体化する

自社の解像度を診断

  • エレベーターピッチの準備をしてみる

エレベーターピッチの 15 の具体例 (失敗しないピッチテンプレート付き) [2024] • Asana

解像度の上げ方(全般):3つの基本姿勢

情報収集&思考&行動のループを回す

  • 情報収集の質と量
  • 思考の質と量
  • 行動の質と量
  • MVP (実用性最小の製品)を作る

型を意識する

  • 4視点

粘り強く取り組む

  • 浅い思考段階で諦めない

「課題」と「解決策」の解像度

「課題」の解像度の上げ方

課題 x 深さ

  • 型1 言語化して現状を把握する
  • 型2 サーベイをする
  • 型3 インタビューをする
  • 型4 現場に没入する
  • 型5 個に迫る
  • 型6 Why so? を繰り返して、事実から洞察を導く

  • 型7 習慣的に言語化する
  • 型8 言葉や概念、知識を増やす
  • 型9 コミュニティで深掘りを加速する

課題 x 広さ

  • 型15 前提を疑う
  • 型16 視座を変える

  • 型17 体験する
  • 型18 人と話す
  • 型19 あらためて深める場所を決める

課題 x 構造

  • 型24 分ける

  • 型25 比べる
  • 型26 関係づける
  • 型27 省く
  • 型28 質問をする
  • 型29 構造のパターンを知る
    • レイヤー構造など

課題 x 時間

  • 型42 流れを見る
  • 型43 歴史を振り返る

「解決策」の解像度の上げ方

解決策 x 深さ

  • 型10 プレスリリースを書いてみる
  • 型11 行動可能な単位までHowを問う
  • 型12 専門性を磨いて新たな解決策に気づく
  • 型13 手で考える
  • 型14 体で考える

解決策 x 広さ

  • 型20 使える道具を増やす
  • 型21 外部資源を獲得する前提で広げる
  • 型22 探索に資源を割り当てる
  • 型23 解決策の真の意味を考える

解決策 x 構造

  • 型30 解決する範囲を決める
  • 型31 構造のパターンに当てはめる
  • 型32 新しい組み合わせを生み出す
  • 型33 要素間の相性を考える
  • 型34 捨てることで独自性を出す
  • 型35 制約を意識する
  • 型36 他システムとの連携を考える
  • 型37 意図していなかったシステムのふるまいに対処する
  • 型38 ストーリーを描く
  • 型39 雑な構造から描きはじめる

解決策 x 時間

  • 型44 最適なステップを見出す
  • 型45 シミュレーションする
  • 型46 好循環を作り出す
  • 型47 長期の視点で考えて時間を味方につける
  • 型48 アジリティと学ぶ力を高める

実験して検証する

  • 解像度を上げた課題と解決策も仮説にすぎない
  • 実験によって検証
  • 小さな実験 (MVP)で顧客の解像度を上げる
  • 身銭を切ってもらい、 課題の大きさを検証する
  • システムに働きかけて試す
  • 粘り強く改善し続ける
  • 行動することで機会を生む

「未来」の解像度の上げ方

  • 課題とは現実と理想のギャップ
  • 未来を描くために必要な 「分析」 と 「意思」
  • 将来世代の視座に立って 「あるべき姿」 を考える
  • 宇宙の視座に立って、 人類の課題を考える
  • 誰かに取り組んでほしい大きな課題に取り組み、 未来を受け継ぐ
  • 未来に向けて行動を始めて、 粘り強く考え続ける

本書を読んだ所感

  • ロジカルシンキングやロジックツリー作成など、いわゆるコンサルフレームワークは多数出ているが、解像度という切り口が斬新
  • 「解像度の上げ方」についてかなり解像度が上がった
  • とはいえ、本書でも記載があるとおり、実践行動して初めて意味をもつノウハウなので、今後仕事や生活で「解像度を上げる訓練」をしていく必要あり
  • システム開発においても、「要件定義の解像度」「設計の解像度」「実装の解像度」「検証の解像度」「運用の解像度」など、細分化して、各プロセスの解像度を上げていくことが可能

Exam DP-900: Microsoft Azure Data Fundamentals 対策まとめ

overview

Exam DP-900: Microsoft Azure Data Fundamentals - Certifications | Microsoft Learn

Exam Overview

  • Title: Exam DP-900: Microsoft Azure Data Fundamentals
  • Purpose: Demonstrating knowledge of core data concepts and Microsoft Azure data services
  • Target Audience: Candidates new to working with data in the cloud

Key Knowledge Areas

  • Concepts: Relational and non-relational data
  • Workloads: Transactional or analytical data workloads

Preparation Benefits - Future Certifications: Helps prepare for Azure role-based certifications - ACE College Credit: Eligibility upon passing the exam

試験概要

  • タイトル: Exam DP-900: Microsoft Azure Data Fundamentals
  • 目的: コアデータ概念とMicrosoft Azureデータサービスの知識を示す
  • 対象者: クラウドでのデータ作業を始める候補者

主要知識エリア

  • 概念: 関係データと非関係データ
  • ワークロード: トランザクショナルまたはアナリティカルデータワークロード

準備の利点

  • 将来の認証: Azureロールベースの認証の準備に役立つ
  • ACE大学クレジット: 試験合格時に資格が得られる

Skills measured

  • The English language version of this exam was updated on February 1, 2024. Review the study guide linked in the preceding “Tip” box for details about the skills measured and latest changes.
  • Describe core data concepts (25–30%)
  • Identify considerations for relational data on Azure (20–25%)
  • Describe considerations for working with non-relational data on Azure (15–20%)
  • Describe an analytics workload on Azure (25–30%)

スキルの測定

この試験の英語版は2024年2月1日に更新されました。測定されるスキルと最新の変更についての詳細は、前の「Tip」ボックスにリンクされた勉強ガイドを確認してください。

  • コアデータ概念を説明する (25–30%)
  • Azure上の関係データに関する考慮事項を特定する (20–25%)
  • Azure上での非関係データの取り扱いに関する考慮事項を説明する (15–20%)
  • Azure上の分析ワークロードを説明する (25–30%)

mock exam

Udemy

www.udemy.com

受験

  • 自宅での受験も可能だが、確実に通信速度や端末動作保証を確保できない場合は、会場受験が安全(過去に自宅端末・回線不調でトラブル体験あり)

  • テスト会場で予約して受験

Microsoft :: ピアソンVUE

合格後バッジ

Microsoft Badges - Credly

受験後所感

  • RDB, NoSQL, ETL, Storageなどのデータ保管・処理技術知識が満遍なく問われた
  • それぞれAzureのAIサービス概要は把握必要

Exam AI-900: Microsoft Azure AI Fundamentals 対策まとめ

基本

MS Learnにて基本を学習

Exam AI-900: Microsoft Azure AI Fundamentals - Certifications | Microsoft Learn

出題範囲

  • Describe Artificial Intelligence workloads and considerations (15–20%)
  • Describe fundamental principles of machine learning on Azure (20–25%)
  • Describe features of computer vision workloads on Azure (15–20%)
  • Describe features of Natural Language Processing (NLP) workloads on Azure (15–20%)
  • Describe features of generative AI workloads on Azure (15–20%)

  • 人工知能のワークロードと考慮事項を説明する(15–20%)
  • Azureでの機械学習の基本原則を説明する(20–25%)
  • Azureでのコンピュータビジョンワークロードの機能を説明する(15–20%)
  • Azureでの自然言語処理NLP)ワークロードの機能を説明する(15–20%)
  • Azureでの生成型AIワークロードの機能を説明する(15–20%)

模試

Udemy

www.udemy.com

受験

  • 自宅での受験も可能だが、確実に通信速度や端末動作保証を確保できない場合は、会場受験が安全(過去に自宅端末・回線不調でトラブル体験あり)

  • テスト会場で予約して受験

Microsoft :: ピアソンVUE

合格後バッジ

Microsoft Badges - Credly

受験後所感

  • G検定より合格は簡単だった
  • 当然AzureのAIサービス概要は把握必要

Azure Cosmos DB 概要まとめ

overview

Azure Cosmos DB | Microsoft Learn

  • Title: Azure Cosmos DB – Unified AI Database
  • Summary:

    • Designed for modern applications needing high responsiveness and constant availability.
    • Provides a unified database solution for AI applications, integrating relational, document, vector, key-value, graph, and table data models.
    • Fully managed NoSQL and relational database service.
    • Features include multi-region data distribution, open source APIs, SDKs for popular languages, and AI database functionalities.
    • Offers low latency, automatic scalability, enterprise-grade security, and SLA-backed availability.
    • Simplifies database administration with automatic updates, patching, and capacity management.
  • タイトル: Azure Cosmos DB – 統合された AI データベース

  • 要約:

    • 高い応答性と常時利用可能性を必要とする現代のアプリケーション用に設計されています。
    • AI アプリケーションのための統一されたデータベースソリューションを提供し、関係、ドキュメント、ベクトル、キー値、グラフ、テーブルの各データモデルを統合します。
    • 完全に管理された NoSQL およびリレーショナルデータベースサービスです。
    • 機能には、マルチリージョンデータ配布、オープンソース API、人気言語の SDK、AI データベース機能が含まれます。
    • 低遅延、自動スケーラビリティ、エンタープライズグレードのセキュリティ、SLA による可用性を提供します。
    • 自動更新、パッチ適用、および容量管理により、データベース管理を簡素化します。
  • Title: Azure Cosmos DB is more than an AI database

  • Summary:

    • Azure Cosmos DB supports web, mobile, gaming, and IoT applications beyond AI database functionalities.
    • It excels in handling massive data, reads, and writes on a global scale with near-real-time response times.
    • Offers guaranteed high availability, high throughput, low latency, and tunable consistency, making it ideal for various applications.
    • Simplifies application development with open-source APIs, multiple SDKs, and deep integration with Azure services.
    • Ensures mission-critical readiness with 99.999% availability and enterprise-level security.
    • Provides cost-effective, fully managed database management with serverless and automatic scaling.
    • Features Azure Synapse Link for seamless analytical and transactional processing over operational data.
  • タイトル: Azure Cosmos DBはAIデータベース以上のもの

  • 要約:
    • AIデータベース機能を超えて、ウェブ、モバイル、ゲーム、IoTアプリケーションをサポートするAzure Cosmos DB。
    • 莫大なデータ、読み書きをグローバル規模で処理し、ほぼリアルタイムの反応時間で優れた性能を発揮。
    • 高可用性、高スループット、低遅延、調整可能な一貫性を保証し、様々なアプリケーションに理想的。
    • オープンソースAPI、複数のSDK、Azureサービスとの深い統合によりアプリ開発を簡素化。
    • 99.999%の可用性と企業レベルのセキュリティでミッションクリティカルな準備を保証。
    • サーバレスおよび自動スケーリングを備えたコスト効率の良い、完全に管理されたデータベース管理を提供。
    • 運用データ上でのシームレスな分析的およびトランザクション処理を実現するAzure Synapse Linkを特長とする。

The Era of 1-bit LLMs by Microsoft まとめ

overview

  • Title: The Impact of 1-Bit LLM: A 8.9-Fold Speed Increase with BitNet 1.58Bits
  • Significant Advancement in LLMs: Introduction of a 1-bit LLM, "BitNet 1.58Bits," by Microsoft's China team.
  • Leap in Efficiency and Performance: Transition from 8-bit or 4-bit to 1-bit quantization.
  • Remarkable Speed Increase: BitNet achieves an 8.9 times increase in throughput compared to traditional 70 billion parameter models.
  • Superior Speed and Accuracy: Outperforms Llama model in both aspects, being 3 times faster without sacrificing accuracy.
  • 1-Bit Processing Capability: Enables calculations using only addition, reducing computational load and memory usage.
  • Potential Shift in Computing Resources: Suggests a move away from GPUs towards hardware optimized for addition.
  • Unrealized Full Implications: The BitNet model and its details are not yet public, but BitNetTransformer is available for exploration.
  • Rapid Innovation in AI: Highlights the fast-paced advancements in the field.

  • タイトル: 1ビットLLMの衝撃: BitNet 1.58Bitsで8.9倍の速度向上

  • LLMの大幅進歩: Microsoftの中国チームによって開発された1ビットLLM、「BitNet 1.58Bits」の導入。
  • 効率と性能の飛躍: 8ビットまたは4ビットから1ビット量子化への移行。
  • 顕著な速度向上: 伝統的な700億パラメータモデルに比べて、BitNetは8.9倍のスループットを実現。
  • 速度と精度で優れる: Llamaモデルを速度(3倍速い)と精度の両方で上回る。
  • 1ビット処理能力: 加算のみを使用した計算を可能にし、計算負荷とメモリ使用量を大幅に削減。
  • コンピューティングリソースの潜在的なシフト: GPUから加算に特化したハードウェアへの移行を示唆し、ディープラーニングのリソースランドスケープを再形成する可能性がある。
  • 未だ実現されていない全貌: BitNetモデルとその詳細はまだ公開されていないが、BitNetTransformerの実装はエンジニアが探索可能。
  • AI分野の急速なイノベーション: 分野の急速な進歩を強調。

paper

[2310.11453] BitNet: Scaling 1-bit Transformers for Large Language Models

Microsoft's Breakthrough in Computational Cost Reduction for Large-Scale Language Models

Microsoftの研究チームが成功裏に大規模言語モデルの計算コストを削減

  • The team restricted model weights to three values: "-1," "0," and "1."
  • モデルのウェイトを「-1」「0」「1」の3つの値に制限した。

  • 参考

    def binarize_weights(self):
        alpha = self.weight.mean()
        binarized_weights = torch.sign(self.weight - alpha)
        return binarized_weights
  • 解説

このコードでは、binarize_weights メソッドは、重みをバイナリ化(二値化)する機能を提供しています。具体的な処理の流れとしては、次のようになります。

  1. まず、alpha という変数に、self.weight(おそらくネットワークのある層の重みを表す)の平均値を代入します。
  2. 次に、torch.sign 関数を使用して、self.weight から alpha を引いた値の符号を取得します。ここで torch.sign 関数は、引数の各要素に対して、値が正であれば 1、値が 0 であれば 0、値が負であれば -1 を返します。
  3. その結果、binarized_weights は、self.weight の各要素が平均値 alpha より大きい場合は 1、小さい場合は -1、そして alpha に等しい場合は 0torch.sign の振る舞いに依存)となるようにバイナリ化された重みが得られます。

これにより、ネットワークの重みを、その平均値を基準として二値化(ただし、ここでは -1, 0, 1 の三値になり得る)することができます。この手法は、特にバイナリニューラルネットワーク(BNN)など、メモリ使用量や計算量を削減することを目的とした場合に有用です。ただし、上記のコードでは 0 を返すケースが存在する可能性がありますが、実際にはバイナリ化の文脈では 1 または -1 の値が用いられることが一般的です。この点については、実装の意図やコンテキストに依存します。

  • This innovation eliminates the need for multiplication operations.
  • この革新により、かけ算の必要性がなくなった。
  • All computations can now be conducted with addition alone.
  • すべての計算が足し算のみで行えるようになった。
  • The computational cost required to achieve the same performance as traditional large language models is significantly reduced.
  • 従来の大規模言語モデルと同等の性能を達成するための計算コストが大幅に削減された。

  • The model is referred to as a "1.58-bit model" due to each parameter taking one of three values.
  • 各パラメーターが3つの値のいずれかを取るため、「1.58ビットのモデル」と呼ばれている。

  • 参考:https://www.google.com/search?q=log2(3)

  • Benchmarks comparing the performance of this model, named BitNet, with LLaMA show BitNet's ability to maintain or exceed traditional performance by slightly increasing model size.

  • BitNetと呼ばれるこのモデルのパフォーマンスをLLaMAと比較したベンチマークは、BitNetがわずかにモデルサイズを増やすことで従来の性能を維持または上回る能力を示している。

  • Despite competitive performance, BitNet significantly outperforms LLaMA in terms of memory usage and latency.
  • 競争力のあるパフォーマンスにもかかわらず、BitNetはメモリ使用量とレイテンシの面でLLaMAを大幅に上回る。
  • Additionally, BitNet drastically reduces the cost of matrix operations and overall energy consumption, making it a promising approach for large-scale language models.
  • さらに、BitNetは行列演算のコストと全体的なエネルギー消費量を大幅に削減し、大規模言語モデルにとって有望なアプローチとなっている。

verification

驚異の1ビットLLMを試す。果たして本当に学習できるのか?|shi3z

shi3z/BitNetWikipedia110M · Hugging Face

(更新中)『プロジェクトのトラブル解決大全 小さな問題から大炎上まで使える「プロの火消し術86」』まとめ

Amazon.co.jp: プロジェクトのトラブル解決大全 小さな問題から大炎上まで使える「プロの火消し術86」 eBook : 木部 智之: Kindle Store

目次

  • 第1章 最初の準備――9割の人がスタートでつまずく
  • 第2章 状況把握――効率的な現場検証と聴取の方法
  • 第3章 原因特定とリカバリプラン策定――真因特定、優先順位、体制見直しの手順
  • 第4章 リスタートを切る――人心掌握、ルール変えのポイント
  • 第5章 リカバリ遂行――炎上中のプロジェクト管理は「3つだけ」
  • 第6章 メンバーモチベーション管理――モチベーションは「上げる」のではなく「戻す」
  • 第7章 リーダーシップとメンタリティ――新たな信頼を築けるリーダーとは
  • 第8章 クロージング――次につなげる「振り返り」から盛大な「打ち上げ」まで

序章

  • 本書は主にPM向けトラブル対応術
  • 炎上にはパターンがある
  • PMBOKはあくまでもガイドにすぎないので、具体的な炎上対策ではない
  • 大炎上のおおもとは小さな火種

  • QCDのうちQ品質に振り回される

  • 具体的な火消し技法を活用すれば、事前・事後対策になる

【第1章】最初の準備 - 9割の人がスタートでつまずく

01 9割の人が怠るファーストステップ 「腹をくくる」

  • 他責ではなく自分事として取り組む

02 最初に読み込むべき 「重要資料4点セット」

  • プロジェクト計画書
  • 体制図
  • 課題管理表
  • 進捗報告資料

03 プロジェクト関係者を把握する「体制図分析」

  • 人数・チーム数
  • リーダー・キーマン
  • 指揮命令系統

04 現場に入る前に作るべき「100の質問

  • PMBOK10カテゴリそれぞれ10個の質問(合計100個)を事前に考える

The 10 Project Management Knowledge Areas - (PMBOK)

05 原因と対策の仮説を立てる 「1人決断タイム」

  • 初期段階ではPMがひとりで仮説を立てる

06「懐刀」を手に入れる

  • 信頼できる参謀・右腕を見つけ出す

【Column】 面従腹背タイプに足をすくわれる

  • 表面的に協力的だが、実際裏切る方には注意

【第2章】 状況把握 - 効率的な現場検証と聴取の方法

07 現場初日に見るべき「現場検証10のポイント」

  • (オフィスの場合)ホワイトボード
  • (オフィスの場合)机の資料と物
  • (オフィスの場合)会議室の数と広さ
  • (オフィスの場合)座席の配置
  • 会議の内容
  • メンバーの年齢構成
  • 服装
  • 昼食時間の行動
  • 会話の量
  • 勤務時間

08 「課題表のレベル」を評価すればプロジェクト状況がわかる

  • メンテされていない課題表と、実態の差をチェック

09 的確な聴取手法「タテヨコ・ヒアリング」

10 ヒアリングの「3つの落とし穴」を避ける

  • ヒアリングした内容は「事実」ではなく「報告」なので、実際に正しいかどうか確認
  • ヒアリングする相手の性格や心理状態を考慮
  • ヒアリングする相手のポジションを考慮して偏らない

11 キラークエスチョン「それはなぜですか?」を駆使する

  • 回答内容を鵜呑みにせず、その理由や原因などを深掘りする

12 メンバースキルを可視化する 「複数人5段階評価」

  • メンバーのスキル評価は、複数の側面から実施

13 現状把握用「わかっていること/いないことフレームワーク

  • QCDやPMBOK10カテゴリなどで、既知と未知を区別して整理する

14 犯人探しの代わりにやるべき 「犯人活用法」

  • 犯人探しは避ける。冤罪だったりキーパーソン外しのリスクがある。配置換えや対話で状況改善の可能性あり

【Column】ピリッとしていない現場をどうするか

  • 炎上しているのに緊張感のない現場は危険。メンバーの意識やリーダーの意識を高める必要あり

【第3章】原因特定とリカバリプランの策定 --- 真因特定、優先順位、体制見直しの手順

15 「問題」「原因」 「対策」を切り分けて整理する

16 ヌケモレを防ぐ「原因特定フレームワーク&マトリクス」

17 対策は「制約ゼロベース思考」で検討する

18 課題の優先度が一目瞭然「優先順位付けマトリクス&グラフ」

19 やらないこと、「捨てるべき10%」を決める

20 体制見直しポイント「リーダーの置き場」と「責任の所在」

21 トラブルプロジェクトではむやみに人を「増やさない」

22 トラブルリカバリ用のスケジュール立案 「逆算3ステップ」

23 計画は見積りの「−10%」で組む

24 9割の人が間違えている「正しいバッファーの置き方」

25 定例会議をすべて見直す 「3つのチェックポイント」

26 炎上の火を大きくする「スペキャラ」を見つけよ

27 プロジェクトを進めるには、判断ではなく「決断」する

【Column】静けさに包まれたプロジェクトは「怪しい」

【第4章】リスタートを切る --- 人心掌握、ルール変えのポイント

28 リカバリのキックオフ会議でやりがちな「NG発言」

29 キックオフ後に行なうべき 「立食懇親会」

30 社内外に向けた「イメチェン説明会」を実施

31 「社内報告のシンプル化」で実利と期待感をUP

32 「チームの法律」となる新ルールを決める

33 「動線」からオフィスの座席を決める

34 「クイックミーティング・スペース」を作る

35 「オフィス快適化」で生産性を上げる

36 変えるべきでないものを見極める「労力と心理的抵抗の天秤」

【Column】「それで本当にできるの?」というダメ質問

【第5章】 リカバリ遂行 --- 炎上中のプロジェクト管理は「3つだけ」

37 炎上中のプロジェクト管理は「3つだけ」

38 作業管理、作業計画のポイント「1タスク5営業日以内」

39 進捗管理のポイント「森を見て、木も見る」

40 課題管理のポイント「4つの穴」をふさぐ

41 プロジェクト状況は「グラフ化」する

42 毎朝30分の会議で「ミニ軌道修正」をする

43 弱いチームは「均質化と効率化」で戦う

44 強いチームを作る「3つの劇薬」

45 社内定例を危険にさらす「お客様との会議」に注意

46 炎上プロジェクトの会議にないものは「議論」

47 ムダを省いて信頼感を上げる、会議の「30秒リセット」

48 イヤでも締め切りを守らせる 「報告と質問」

49 悪い報告が上がるようにする「4つの受け身」

50 「1日2回のパトロール」が小さな火種を消す

51 マイクロマネジメントの「やり時」と「やめ時」

52 情報伝達のスピードを上げる「中継ポイント管理」

53 「とにかく書く」 コミュニケーションでミス防止

54 PDCAは円ではなく「マトリクス式」で実践する

55 自分の仕事の邪魔をさせない裏技 「上への報連相

56 カレンダーを見ながらの「未来⇔現在妄想」で精度を上げる

57 コントロールできない「人の問題」は諦める

58 本当に忙殺されたらやるべき「一旦ストップ&効率化」

59 「怪しい」と思った時の現地現物

【Column】 凡事徹底

【第6章】メンバーモチベーション管理 --- モチベーションは「上げる」のではなく「戻す」

60 モチベーションは「上げる」のではなく 「戻す」

61 最も手厚くフォローすべきは「平均層+キーメンバー」

62 「ガス抜きヒアリング」では約束をしない

63 フェーズの切れ目に入れる 「休息のメリット」

64 フェーズ別 「モチベーションアップ・リスト」

65 対人ストレス解決には「腹を割る会」しかない

66 メンバーのメンタル不調を防ぐべき「本当の理由」

【Column】 すり抜ける「三遊間タスク」にご用心

【第7章】 リーダーシップとメンタリティ --- 炎上を通じて新たな信頼を築けるリーダーとは

67 リーダーは「9割ポジティブ」を心がける

68 「諦めグセ」は言葉に表れる

69 リーダー自身の「支えになる言葉」を持つ

70 倒れる前に駆け込む 「リーダーの逃げ場」を作る

71 うかつに謝れない時の「範囲限定の謝罪法」

72 チームにいい緊張感を持たせる 「厳しさ」とは

73 リーダーは絶対に「走ってはいけない」

74 「まっすぐ立つ姿勢」はメンバーに頼もしさを抱かせる

75 火を消せる指導者は「メンバーの仕事をしない」

76 正しいと思うことを貫くには 「嫌われる覚悟」を

77 リーダーというのは「単なる役割」と割り切ろう

78 トラブル対応は新たな「信頼と飛躍」を秘めたチャンス

【Column】 「デキないリーダー」でも成功することはある

【第8章】 クロージング --- 次につなげる「振り返り」から盛大な「打ち上げ」まで

79 ゴールが見えてきたら 「カウントダウン」を始める

80 メンバーに「言葉で感謝」する

81 苦しかった時間を失敗ではなく「成功体験にチェンジ」

82 炎上を資産にする「2方向リフレクション」

83 最後のミッション「組織へのフィードバック」

84 チェックリストを「マズい秘伝のタレ」にしてはいけない

85 怠ってはならない「盛大な打ち上げ」

86 もしまたプロジェクトでトラブルが起きたら

おわりに

その他整理

プロジェクトの把握
 プロジェクト計画書
 体制図
  人数、チーム数
   メンバースキルの可視化
    設計
    プログラミング
    業務スキル
    マネジメント
    リーダーシップ
  リーダー、キーマン
   懐刀になる人
   トラブルメーカー
    対応時は影響力を無視しない
  指揮命令系統
 課題管理表
  スケジュール、担当者
  課題収集プロセス
  優先度判断
   重要度、緊急度、難易度、効果、コスト、時間
 進捗報告資料
 
 質問項目
  PMBOKの知識体系ベース
  QCDベース
  仮説を立てる
   トラブルの原因は?
    問題、原因、対策
     あるべき姿と現実のギャップ
     マトリクスで検討
      QCD、機能、開発フェーズなど
  タテヨコ
   具体と抽象、類似
  事実の確認
   なぜそう思うのか
    原因は何だと思うか
   推測の場合は判断基準は
    どの資料を見れば確認できるか
  わかっていること、わかっていないこと
   軸毎に洗い出し
    システム調査なら機能毎、など
  できない理由の精査
   どうすればできるようになるのか
    制約を外す方法は
やらないことを決める
 リソースの集中
スケジュールはゴールから逆算
 10%ほどのバッファー(見積もりの-10%で計画)
 バッファーはタスク毎に乗せない
  メンバーからの見積もりは詳しく精査
  スケジュール全体でバッファーを持つ
 1タスクは5営業日以内
  担当者は必須
  複数人での担当になる場合はタスクを分ける
会議
 頻度、議題、参加者が適切か
  議事録、アクションリスト
 議論の活性化
  各自に意見を求める
 準備不足の場合はリスケ
  スケジュールは決める
プロジェクトの意義を共有
チームのルールは守らせる
 都度なぜ守らないか聞いたりして守る雰囲気を作る
最低限の管理
 作業管理、進捗管理、課題管理
  作業遅延
   原因、対策、リカバリ予定日を確認する
  課題
   内容は明確に分かりやすく
   担当者を決める
    連名にしない
   期限を決める
    最低限の日数で
   起票者は担当にしない
朝会
 前日の状況確認
  問題、課題の状況確認
  共有事項確認
 当日の予定確認
 課題表確認
属人性排除
 手順、プロセス定義
 テンプレート用意
 ツールでの自動化
マイクロマネジメント
 期間限定で行う
 確認頻度を上げる
  朝会、夕会
 確認内容を細かく
  数字での進捗確認からタスク内容の確認へ
PDCA
 PDとCAのマトリクスで考える
  計画、実行内容がどうだったか
  改善点をもとにしたアクションプラン
ガス抜きヒアリングでは約束はしない
 課題を理解したので検討する旨を伝える
  共感はするが解決の約束はしない
リーダーシップ
 9割ポジティブ
  諦め癖の言葉に注意
  メンバーと話し合う
 支えになる言葉を持つ
  転ぶときも前のめり
 責任を持つところと持たないところの線引きをしておく
 チームに良い緊張感をもたせる
  メンバーの成果、仕事ぶりに厳しく
  プロジェクト成功のための妥協をしない

Azure Policy 概要まとめ

overview

Azure Policy documentation | Microsoft Learn

Overview

  • Azure Policy evaluates resources by comparing them to business rules in JSON format, known as policy definitions.
  • Policy initiatives group several rules for simplified management.
  • Policies can be assigned to any Azure scope, including management groups, subscriptions, resource groups, or individual resources.
  • Subscopes can be excluded from policy assignments if necessary.

Evaluation Outcomes

  • Resources are evaluated during creation, update, policy assignment, and every 24 hours.
  • Evaluation determines if resources are compliant or not.

Control the Response to an Evaluation

  • Responses to non-compliance include denying changes, logging changes, altering resources, deploying compliant resources, and blocking actions.

Remediate Non-compliant Resources

  • Azure Policy can remediate existing non-compliant resources without needing to alter the resource directly.

Azure Policy and Azure RBAC

  • Azure Policy focuses on resource state compliance without concern for user permissions.
  • Azure RBAC manages user actions and permissions.
  • Azure Policy can block actions even if Azure RBAC allows it.

Permissions in Azure Policy

  • Permissions for Azure Policy are managed through Microsoft.Authorization and Microsoft.PolicyInsights.
  • Roles include Resource Policy Contributor, Owner, Contributor, and Reader.
  • Custom roles can be created for specific permissions.

Azure Virtual Network Manager

  • Requires special permissions to create, edit, or delete Azure Virtual Network Manager dynamic group policies.
  • Managed through Azure RBAC only.

Resources Covered by Azure Policy

  • Policies can be assigned at management group level, but only subscription or resource group level resources are evaluated.

Recommendations for Managing Policies

  • Start with audit effects to track policy impact.
  • Consider organizational hierarchies for creating and assigning policies.
  • Use initiative definitions for grouping policies.
  • Manage policies as code with manual reviews on changes.

概要

  • Azure Policyは、JSON形式で記述されたビジネスルール、いわゆるポリシー定義と、それらのリソースのプロパティを比較することによりリソースを評価します。
  • ポリシーイニシアチブは、複数のルールをグループ化して管理を簡素化します。
  • ポリシーは、管理グループ、サブスクリプション、リソースグループ、または個々のリソースなど、任意のAzureスコープに割り当てることができます。
  • 必要に応じて、ポリシー割り当てからサブスコープを除外することができます。

評価結果

  • リソースは、作成、更新、ポリシー割り当て、および24時間ごとに評価されます。
  • 評価は、リソースが準拠しているかどうかを決定します。

評価への対応を制御する

  • 非準拠リソースへの対応には、変更の拒否、変更の記録、リソースの変更、準拠リソースのデプロイ、およびアクションのブロックが含まれます。

非準拠リソースの修正

  • Azure Policyは、直接リソースを変更することなく、既存の非準拠リソースを修正することができます。

Azure PolicyとAzure RBAC

  • Azure Policyは、ユーザーの権限に関係なく、リソースの状態の準拠を保証することに焦点を当てています。
  • Azure RBACは、ユーザーアクションと権限を管理します。
  • Azure Policyは、Azure RBACが許可していてもアクションをブロックすることができます。

Azure Policyでの権限

  • Azure Policyの権限は、Microsoft.AuthorizationおよびMicrosoft.PolicyInsightsを通じて管理されます。
  • ロールには、リソースポリシーコントリビューター、オーナー、コントリビューター、およびリーダーが含まれます。
  • 特定の権限に対してカスタムロールを作成することができます。

Azure Virtual Network Manager

  • Azure Virtual Network Managerダイナミックグループポリシーを作成、編集、または削除するための特別な権限が必要です。
  • Azure RBACのみを通じて管理されます。

Azure Policyによってカバーされるリソース

ポリシーを管理するための推奨事項

  • ポリシーの影響を追跡するために、監査効果から始めます。
  • ポリシーを作成および割り当てる際には、組織の階層を考慮します。
  • ポリシーをグルーピングするためにイニシアチブ定義を使用します。
  • 変更に対するポリシー定義、イニシアチブ、および割り当てをコードとして管理します。

Getting Started with Azure Policy and Azure RBAC

  • Key Differences: Azure Policy evaluates resource properties for compliance, while Azure RBAC manages user actions.
  • DenyAction Effect: Azure Policy can block specific resource actions.
  • Visibility: Policy definitions, initiatives, and assignments are visible to all users, promoting transparency.

Azure RBAC Permissions in Azure Policy

  • Permissions: Managed by Microsoft.Authorization and Microsoft.PolicyInsights.
  • Roles: Resource Policy Contributor role covers most operations, with Owner having full rights, and Contributor and Reader having access to read operations.
  • Custom Roles: Can be created if built-in roles do not meet needs.

Special Permissions for Azure Virtual Network Manager

  • Azure Virtual Network Manager: Requires specific Azure RBAC permissions for managing dynamic group policies.

Resources Covered by Azure Policy

  • Scope: Policies are evaluated for resources at the subscription or resource group level.

Recommendations for Managing Policies

  • Start with Audit Effects: To assess policy impact without enforcement.
  • Organizational Hierarchies: Consider when creating definitions and assignments.
  • Initiative Definitions: Recommended for grouping policy definitions.
  • Manual Reviews: For changes to policy definitions, initiatives, and assignments.

Azure PolicyとAzure RBACの概要

  • 主な違い: Azure Policyはリソースのプロパティを評価してコンプライアンスを確認し、Azure RBACはユーザーアクションを管理します。
  • DenyAction効果: Azure Policyは特定のリソースアクションをブロックできます。
  • 可視性: ポリシー定義、イニシアティブ、および割り当てはすべてのユーザーに表示され、透明性を促進します。

Azure PolicyのAzure RBAC権限

  • 権限: Microsoft.AuthorizationおよびMicrosoft.PolicyInsightsによって管理されます。
  • ロール: リソースポリシーコントリビューターロールはほとんどの操作をカバーし、オーナーは完全な権限を持ち、コントリビューターとリーダーは読み取り操作へのアクセスを持ちます。
  • カスタムロール: 組み込みのロールがニーズを満たさない場合に作成できます。

Azure Virtual Network Managerの特別な権限

  • Azure Virtual Network Manager: 動的グループポリシーを管理するための特定のAzure RBAC権限が必要です。

Azure Policyによってカバーされるリソース

ポリシーを管理するための推奨事項

  • 監査効果から始める: 強制実施なしでポリシーの影響を評価します。
  • 組織の階層構造を考慮する: 定義と割り当てを作成する際に考慮します。
  • イニシアティブ定義を使用する: ポリシー定義をグルーピングすることを推奨します。
  • 手動レビュー: ポリシー定義、イニシアティブ、および割り当ての変更に対して。

Azure Policy Objects

Policy Definition - Creating a policy in Azure begins with a policy definition. - Definitions enforce conditions with a specific effect if conditions are met. - Azure Policy offers built-in policies and allows for custom definitions. - Policy assignment is required to implement policies through various tools like the Azure portal, PowerShell, or Azure CLI.

Policy Parameters - Parameters simplify management by making definitions more generic. - They allow for reusable policy definitions in different scenarios by changing parameter values during assignment.

Initiative Definition - An initiative definition groups policy definitions towards a singular goal. - It simplifies managing and assigning policies by treating them as a single item. - Initiative parameters reduce redundancy by using parameters across policies within the initiative.

Assignments - An assignment applies a policy definition or initiative to a specific scope. - Assignments are inherited by child resources but can exclude subscopes. - Policy assignments use the latest state of their assigned definition or initiative when evaluating resources.

Azure Policyオブジェクト

ポリシー定義 - Azureでのポリシー作成は、ポリシー定義から始まります。 - 定義は特定の条件が満たされた場合の効果を強制します。 - Azure Policyはビルトインポリシーを提供し、カスタム定義も可能です。 - ポリシーを実装するには、Azureポータル、PowerShell、またはAzure CLIなどのツールを通じてポリシーを割り当てる必要があります。

ポリシーのパラメータ - パラメータは、定義をより汎用的にすることで管理を簡素化します。 - 異なるシナリオでポリシー定義を再利用できるようにすることで、割り当て時にパラメータ値を変更します。

イニシアティブ定義 - イニシアティブ定義は、単一の目標に向けたポリシー定義をグループ化します。 - それらを単一のアイテムとして扱うことで、ポリシーの管理と割り当てを簡素化します。 - イニシアティブのパラメータは、イニシアティブ内のポリシー間でパラメータを使用することで冗長性を減らします。

割り当て - 割り当ては、特定のスコープにポリシー定義またはイニシアティブを適用します。 - 割り当ては子リソースに継承されますが、サブスコープを除外することができます。 - ポリシー割り当ては、リソースを評価する際に割り当てられた定義またはイニシアティブの最新の状態を使用します

3 big AI trends to watch in 2024 - SLM, Multimodal AI, AI in science まとめ

overview

3 big AI trends to watch in 2024

1. Increased Accessibility: AI technology will become more user-friendly and accessible to a wider audience, making it easier for people to use AI tools in their daily lives.

2. Enhanced Nuance in AI Communication: AI will be capable of understanding and generating more nuanced and sophisticated communications, improving interactions between humans and machines.

3. Integration in Everyday Tasks: AI will be more deeply integrated into everyday tasks and technologies, helping to solve complex problems and improve efficiency in various domains.


1. アクセシビリティの向上: AI技術がよりユーザーフレンドリーで広い範囲の聴衆にアクセスしやすくなり、日常生活でAIツールを使いやすくなります。

2. AIコミュニケーションのニュアンスの向上: AIは、より微妙で洗練されたコミュニケーションを理解し生成できるようになり、人間と機械間の相互作用を向上させます。

3. 日常タスクへの統合: AIは日常のタスクや技術により深く統合され、複雑な問題を解決し、様々な領域での効率を向上させるのに役立ちます。

SLM(Small language models)

1. Accessibility and Affordability: Small language models (SLMs) can run on devices like smartphones offline, making AI technology more accessible and affordable.

2. Comparable Performance: Despite their smaller size, some SLMs developed by Microsoft researchers, such as Phi and Orca, perform as well as or better than larger models in certain areas.

3. High-Quality Training Data: SLMs use curated, high-quality training data, which allows for new thresholds in size and performance, paving the way for more research and innovation.


1. アクセシビリティと手頃な価格: 小型言語モデル(SLM)は、オフラインでスマートフォンなどのデバイス上で実行でき、AI技術をよりアクセスしやすく、手頃な価格にします。

2. 比較可能なパフォーマンス: より小さなサイズにもかかわらず、マイクロソフトの研究者によって開発された一部のSLM(例:Phi、Orca)は、特定の領域でより大きなモデルと同じくらい、あるいはそれ以上に性能を発揮します。

3. 高品質のトレーニングデータ: SLMは、厳選された高品質のトレーニングデータを使用し、サイズと性能の新しい閾値を可能にし、より多くの研究とイノベーションへの道を開きます。

Multimodal AI

1. Diverse Data Processing: Multimodal AI models can process and understand different types of data, including text, images, audio, and video, enhancing the capabilities of various technologies.

2. Enhanced Search and Creativity Tools: Technologies like Copilot benefit from multimodal AI, enabling richer, more accurate, and seamless search results and creative outputs, such as generating relevant information from images.

3. Applications in Design and Accessibility: Multimodal AI powers applications like Microsoft Designer for graphic design and supports the creation of custom neural voices, aiding in accessibility for individuals with vocal disabilities.


1. 多様なデータ処理: マルチモーダルAIモデルは、テキスト、画像、オーディオ、ビデオなど、異なるタイプのデータを処理し理解でき、さまざまな技術の能力を向上させます。

2. 検索とクリエイティビティツールの強化: Copilotのような技術はマルチモーダルAIの恩恵を受け、画像から関連情報を生成するなど、より豊かで正確でシームレスな検索結果とクリエイティブな出力を可能にします。

3. デザインとアクセシビリティへの応用: マルチモーダルAIは、グラフィックデザイン用のアプリケーションであるMicrosoft Designerを動かし、発声障害のある人々のアクセシビリティを支援するカスタムニューラルボイスの作成を可能にします。

AI in science

1. Accelerating Scientific Discoveries: AI tools are being developed to speed up discoveries in fields addressing global issues like climate change, energy crises, and diseases.

2. Sustainable Agriculture: Microsoft researchers are creating AI-based tools for better weather prediction, carbon estimation, and sustainable agriculture practices, including chatbots to assist farmers directly.

3. Advances in Life Sciences: Collaboration on AI models for cancer research, drug discovery for infectious diseases, and development of new molecules for medicines, significantly reducing the time for scientific trials.

4. Materials Science Transformation: AI and high-performance computing are being used to find less toxic materials for batteries, showcasing AI's role in creating new materials with specific properties.


1. 科学的発見の加速: 気候変動、エネルギー危機、病気などのグローバルな問題に対処する分野で、発見を加速するためのAIツールが開発されています。

2. 持続可能な農業: マイクロソフトの研究者たちは、より良い天気予報、炭素推定、持続可能な農業実践のためのAIベースのツールを作成しており、農家が直接支援を受けられるチャットボットも含まれます。

3. ライフサイエンスにおける進歩: がん研究のためのAIモデル、感染症の新薬発見、新しい薬のための新分子の開発に関する協力、科学的試験の時間を大幅に短縮します。

4. 材料科学の変革: AIと高性能コンピューティングを使用して、バッテリー用のより毒性の低い材料を見つけるなど、AIが特定の特性を持つ新しい材料の作成に果たす役割を示しています。

ScrumMasterWay - concept how to achieve excellence with Scrum and to become The Great ScrumMaster まとめ

ScrumMasterWay - concept how to achieve excellence with Scrum and to become The Great ScrumMaster

overview

Title: ScrumMasterWay

Summary: The #ScrumMasterWay, created by Zuzana 'Zuzi' Šochová, is a distinctive approach to achieving excellence with Scrum and becoming a Great ScrumMaster. It encapsulates over 15 years of Zuzi's experiences in Agile and Scrum, offering insights into her journey to becoming The Great ScrumMaster. This concept aids in constructing more effective teams and organizations, addressing changes in Agile environments, and leveraging the extensive ScrumMaster toolbox to its full potential.

  • Unique Concept: A novel approach to Scrum mastery introduced by Zuzana 'Zuzi' Šochová.
  • Experience and Expertise: Over 15 years of Agile and Scrum experience distilled into the concept.
  • Effective Teams and Organizations: Guidance on building high-performance teams and adaptable organizations.
  • Agile Environment Adaptation: Strategies for navigating change in Agile settings.
  • ScrumMaster Toolbox: Exploiting the full range of tools available to ScrumMasters.

タイトル: ScrumMasterWay

要約: #ScrumMasterWayは、Zuzana 'Zuzi' Šochováによって作られた、Scrumでの卓越性を達成し、グレートスクラムマスターになるための独自のアプローチです。これは、Zuziの15年以上にわたるアジャイルスクラムの経験を凝縮したものであり、グレートスクラムマスターになるための彼女の旅の洞察を提供します。この概念は、より効果的なチームと組織を構築し、アジャイル環境での変化に対処し、スクラムマスターのツールボックスを最大限に活用するのに役立ちます。

  • 独自の概念: Zuzana 'Zuzi' Šochováによって紹介されたスクラムマスターへの新しいアプローチ。
  • 経験と専門知識: アジャイルスクラムに関する15年以上の経験が概念に凝縮されています。
  • 効果的なチームと組織: 高性能チームと適応性のある組織を構築するためのガイダンス。
  • アジャイル環境の適応: アジャイル設定での変化をナビゲートする戦略。
  • スクラムスターツルボックス: スクラムマスターに利用可能なツールのフルレンジを活用する。

The core elements of #ScrumMasterWay

  • Metaskills: Teaching, Listening, Curiosity, Respect, Playfulness, Patience.
  • Learning: Agile, Coaching, Facilitation, Business, Change, Technical.
  • State of mind: Observe, Facilitate, Coach, Remove impediments, Teacher, Mentor, Increase positivity.
  • Leadership: Servant Leader, We Culture, Feedback, Motivation, Collaboration, Leader-leader.

Becoming familiar with these elements and gaining solid knowledge and experience is essential for reaching the great ScrumMaster level.

#ScrumMasterWayの核心要素

  • メタスキル: 教えること、聞くこと、好奇心、尊敬、遊び心、忍耐。
  • 学習: アジャイルコーチング、ファシリテーション、ビジネス、変化、技術。
  • 心の状態: 観察すること、ファシリテートすること、コーチング、障害を取り除く、教師、メンター、ポジティビティを高める。
  • リーダーシップ: サーバントリーダー、ウィーカルチャー、フィードバック、モチベーション、協力、リーダー・リーダー。

これらの要素をよく理解し、しっかりとした知識と経験を積むことが、素晴らしいスクラムマスターのレベルに達するための唯一の方法です。

Three levels of #ScrumMasterWay

  • My Team: ScrumMasters act like team members, focusing on agile practices, facilitating Scrum meetings, removing impediments, coaching, and enhancing team performance.
  • Relationships: ScrumMasters focus on the team's external relationships, improving interactions with other entities, coaching the Product Owner, and facilitating conversations with other teams for a self-organized ecosystem.
  • Entire System: ScrumMasters view the company as a system, seeking organizational improvements, serving as servant leaders, promoting leadership in others, growing communities, healing relationships, and integrating Agile values organization-wide.

ScrumMasterWayの三つのレベル

  • マイチーム: スクラムマスターはチームメンバーのように行動し、アジャイル実践に焦点を当て、スクラムミーティングを促進し、障害を除去し、コーチングし、チームのパフォーマンスを向上させます。
  • 関係性: スクラムマスターはチームの外部との関係に焦点を当て、他のエンティティとの相互作用を改善し、プロダクトオーナーをコーチングし、他のチームとの会話を促進して、自己組織化されたエコシステムを構築します。
  • 全体システム: スクラムマスターは、会社をシステムとして、一万フィートの距離から見ます。組織改善を求め、サーバントリーダーとして他のリーダーを育成し、コミュニティを成長させ、関係を癒し、アジャイルの価値を組織全体に統合します。

book

Great ScrumMaster, The: #ScrumMasterWay (Addison-Wesley Signature Series (Cohn)): Sochova, Zuzana: 9780134657110: Amazon.com: Books

Amazon.co.jp: SCRUMMASTER THE BOOK 優れたスクラムマスターになるための極意――メタスキル、学習、心理、リーダーシップ eBook : Zuzana Sochova, 大友 聡之, 川口 恭伸, 細澤あゆみ, 松元 健, 山田 悦朗, 梶原 成親, 秋元 利春, 稲野 和秀, 中村 知成: Japanese Books

FinOps まとめ

overview

What is Cloud FinOps?  |  Google Cloud

What is FinOps?
FinOps is a combination of finance and DevOps aimed at maximizing business value through financial accountability and informed decision-making in cloud environments.

Why FinOps adoption is growing
Rising public cloud spending and the need for cost optimization due to concerns over wasteful spending fuel FinOps adoption.

The three pillars of FinOps: Inform, optimize, operate
FinOps involves a cultural shift for collaborative financial management, emphasizing informed decision-making, resource optimization, and continuous operational improvement.

FinOps for trustworthy cloud automation
Emphasizes the importance of automation in achieving cost-effective and efficient cloud management.

FinOps core principles
Highlights collaboration, ownership, centralized FinOps teams, timely reporting, decision-making based on business value, and leveraging the cloud's variable cost model.

Who are the key FinOps stakeholders?
Includes executives, business/product owners, engineering and operations teams, finance and procurement, and FinOps practitioners.

What is FinOps reporting?
The practice of consolidating billing and licensing data for visibility and accountability across cloud environments.

What role can automation play in FinOps?
Automation is crucial for dynamic resource allocation and optimization in complex cloud environments.

Why do you need reporting and automation in FinOps?
To maximize cloud operations' benefits through detailed allocation and efficient resource management.


FinOpsとは何か?
FinOpsは、クラウド環境での財務責任と情報に基づく意思決定を通じて、ビジネス価値を最大化することを目指す、ファイナンスとDevOpsの組み合わせです。

FinOpsの採用が増えている理由
公共クラウド支出の増加と、無駄な支出に対するコスト最適化の必要性が、FinOpsの採用を促進しています。

FinOpsの三つの柱:情報提供、最適化、運用
FinOpsは、コラボレーションによる財務管理の文化的変化を含み、情報に基づいた意思決定、リソースの最適化、そして継続的な運用改善を強調します。

信頼できるクラウド自動化のためのFinOps
効率的かつコスト効果の高いクラウド管理を達成するための自動化の重要性を強調しています。

FinOpsの基本原則
コラボレーション、所有権、中央集権的なFinOpsチーム、タイムリーな報告、ビジネス価値に基づく意思決定、そしてクラウドの変動コストモデルを活用することを強調しています。

FinOpsの主要なステークホルダーは誰か?
執行役員、ビジネス/製品オーナー、エンジニアリングおよび運用チーム、財務および調達、そしてFinOps実践者が含まれます。

FinOpsレポーティングとは何か?
クラウド環境全体での可視性と説明責任を確保するために、請求およびライセンスデータを統合する実践です。

FinOpsで自動化が果たす役割は何か?
複雑なクラウド環境での動的リソース割り当てと最適化には、自動化が不可欠です。

FinOpsで報告と自動化が必要な理由は?
詳細な割り当てと効率的なリソース管理を通じて、クラウド運用の利点を最大限に活用するためです。

FinOps Foundation

About the FinOps Foundation

  • Title: About the FinOps Foundation
  • Focus: Enhancing cloud financial management through best practices, education, and standards.
  • Community: Over 16,000 members from more than 5,000 companies.
  • Programs: Offers training and certifications, including the FinOps Certified Practitioner designation.
  • Partnerships: Collaborates with major service and platform providers.
  • Mission: To foster individual growth in cloud finance management through connections, career advancement, and best practices adoption.
  • Structure: Governed by a board and various committees focusing on education and more.
  • Affiliation: Part of The Linux Foundation, accessing a wide range of resources.
  • Impact: Aims to elevate cloud financial management, inspired by the growth of disciplines like DevOps.
  • History: Established in February 2019, joined The Linux Foundation in June 2020.

  • タイトル: FinOps Foundationについて

  • 焦点: ベストプラクティス、教育、標準を通じてクラウド財務管理を強化する。
  • コミュニティ: 5,000社以上から成る16,000人以上のメンバー。
  • プログラム: FinOps認定プラクティショナーの指定を含む、トレーニングと認証を提供。
  • パートナーシップ: 主要なサービスおよびプラットフォームプロバイダーと協力。
  • ミッション: 接続を作成し、キャリアの進歩を通じて、そしてFinOpsのベストプラクティスの採用を促進することにより、クラウド財務管理に関わる個人の成長を促進する。
  • 構造: 教育などに焦点を当てた委員会と、理事会によって統治される。
  • 所属: The Linux Foundationの一部として、広範なリソースにアクセス。
  • 影響: DevOpsのような分野の成長に触発され、クラウド財務管理を高めることを目指す。
  • 歴史: 2019年2月に設立、2020年6月にThe Linux Foundationに加わった。

State of FinOps ’24

Reducing Waste and Managing Commitments Top Key Priorities for FinOps Practitioners

  • Title: Key Insights on FinOps and Economic Pressure in 2023
  • Economic Pressure: Organizations focus on FinOps for cloud optimizations due to increasing economic pressure.
  • Top Priority Shift: Prioritizing waste reduction and commitment-based discounts over empowering engineers.
  • Forecasting Investment: Enhancing forecasting capabilities for better cloud spend prediction.
  • AI/ML Cost Impact: Anticipated significant effect of AI/ML running costs on FinOps in 2024.
  • Sustainability Intersection: Currently limited but expected to grow significantly between FinOps and sustainability teams.

  • タイトル: 2023年の経済圧力とFinOpsに関する主要な洞察

  • 経済圧力: 経済的圧力の増加に伴い、多くの組織がクラウドの最適化のためにFinOpsチームに依存している。
  • 優先順位の変更: エンジニアを支援することよりも、無駄の削減とコミットメントベースの割引の管理を優先。
  • 予測への投資: より良いクラウド支出の予測を可能にするための予測能力の向上。
  • AI/MLコストの影響: 2024年にFinOpsに大きな影響を与えると予想されるAI/MLの実行コスト。
  • サステナビリティとの交差点: 現在は限定的だが、将来的にFinOpsチームとサステナビリティチームの間で大幅に増加することが予想される。

State of FinOps Survey

  • Title: State of FinOps Survey
  • Annual Survey: Conducted by the FinOps Foundation since 2020 to gather information on priorities, trends, and FinOps practices.
  • Purpose: Informs Foundation activities and provides insights on FinOps practices across various organizations.
  • Participation: Open to all FinOps practitioners, encouraging honest responses for valuable community insights.
  • Method: Utilizes a continuous collection model, open year-round, with a January snapshot for analysis.
  • Question Design: Questions are updated annually based on community input to reflect current FinOps practices and future expectations.
  • 2024 Insights: Survey of 1,245 respondents, average annual cloud spend of $44M per company, with some exceeding $1B.
  • No Incentives: Participation is voluntary, without paid services or incentives.
  • Global Impact: Respondents' cloud spend totals $55B, indicating a substantial portion of global cloud expenditure.

  • タイトル: FinOps状況調査

  • 年次調査: 2020年からFinOps Foundationによって実施されている、優先事項、トレンド、FinOpsの実践に関する情報を収集するための調査。
  • 目的: Foundationの活動を案内し、さまざまな組織のFinOps実践に関する洞察を提供する。
  • 参加: すべてのFinOps実践者に開かれており、コミュニティに価値ある洞察を提供するために正直な回答を奨励する。
  • 方法: 年間を通じて開かれる連続収集モデルを使用し、1月にデータのスナップショットを取り分析する。
  • 質問設計: コミュニティからの入力に基づいて毎年質問を更新し、現在のFinOps実践と将来の期待を反映する。
  • 2024の洞察: 1,245人の回答者からの調査で、会社あたりの平均年間クラウド支出は44Mドル、一部の会社は年間10億ドル以上を報告。
  • インセンティブなし: 参加は自発的で、有料サービスやインセンティブは提供されない。
  • グローバルインパク: 回答者のクラウド支出の合計は55Bドルで、世界のクラウド支出のかなりの部分を占めている。

1. New key priorities of reducing waste and managing commitments, mirroring economic uncertainty

  • Title: New Key Priorities in FinOps Reflect Economic Uncertainty
  • Reducing Waste: Became the highest priority for the first time across all spending tiers, influenced by macroeconomic trends to cut spending without losing value from cloud investments.
  • Empowering Engineers: Dropped from the top priority, emphasizing the shift towards reducing waste, yet remains important for cost efficiency.
  • Commitment Management: Managing commitment-based discounts is critical, especially for high spenders, indicating the importance of handling various discount plans for substantial savings.
  • Forecasting and Allocation: Differences in priorities emerge across spending tiers, with lower spenders focusing on accurate forecasting and higher spenders on full allocation and managing discounts.
  • Challenges for High Spenders: Full allocation is challenging for companies with high cloud spend, as evidenced by contributors to the FOCUS open billing data specification.
  • Consistency Across Cloud Providers: Priorities are consistent across primary cloud providers, except for a higher emphasis on multi-cloud cost reporting for Google Cloud users.

  • タイトル: FinOpsにおける新たな重点分野は経済の不確実性を反映

  • 無駄の削減: 初めてすべての支出層で最優先事項となり、マクロ経済の傾向により、クラウド投資からの価値を損なうことなく支出を削減する方法を企業が探していることに影響された。
  • エンジニアの能力強化: 2020年の調査開始以来、初めて最優先事項から降格し、無駄の削減に現在置かれている重要性を示しているが、コスト効率を達成するための重要な方法として依然として重視されている。
  • コミットメントの管理: 特に大口の支出者にとって、コミットメントベースの割引の管理は重要であり、多数の割引プランを管理し、大幅な節約を実現する複雑さを反映している。
  • 予測と割り当て: 支出層によって優先事項に差が生じ、低支出者は支出の正確な予測に、高支出者は完全な割り当てと割引の管理に焦点を当てている。
  • 大口支出者の課題: 高額なクラウド支出をする企業にとって、完全な割り当てはFOCUSオープン請求データ仕様に貢献する企業の例が示すように、課題である。
  • クラウドプロバイダー間の一貫性: 主要なクラウドプロバイダー間で優先事項は一貫しているが、Google Cloudユーザーにとっては、AWSMicrosoftの主要クラウドと比べてマルチクラウドのコスト報告の重要性が高い。

2. Though a top priority, majority heavily optimize only compute spend, leaving further efficiency opportunities

  • Title: Focus on Compute Spend Optimization Leaves Room for Broader Efficiency Gains
  • Compute Spend Optimization: Continues as the primary focus, given its status as the highest spend area, supported by substantial discounts and tools from cloud providers and third-party offerings.
  • Beyond Compute: While most organizations have basic optimization for storage and database resources, significant opportunities remain in optimizing newer technologies like containers, serverless, AI/ML.
  • Community Resources: In 2023, the FinOps community developed a library of optimization opportunities for AWS, Google Cloud, and Microsoft Azure, indicating a move towards broader cloud spend efficiency.

  • タイトル: コンピュート支出の最適化に焦点を当てることで、より広範な効率化の機会が残されている

  • コンピュート支出の最適化: 最高の支出領域として、クラウドプロバイダーやサードパーティからの豊富な割引やツールのサポートを受けて、引き続き主要な焦点となっている。
  • コンピュートを超えて: ほとんどの組織がストレージやデータベースリソースに基本的な最適化を実施しているが、コンテナ、サーバーレス、AI/MLなどの新しい技術に関連するコストの最適化には大きな機会が残されている。
  • コミュニティリソース: 2023年に、FinOpsコミュニティはAWSGoogle Cloud、Microsoft Azureにおける最適化の機会のライブラリを開発し、より広範なクラウド支出の効率化に向けた動きを示している。

3. Forecasting capabilities need to improve considerably

  • Title: Significant Improvement Needed in Forecasting Capabilities
  • Importance of Forecasting: Accurate forecasting enables organizations to utilize cloud resources effectively, fostering innovation and confidence in leadership.
  • Survey Findings: Respondents indicate a need for substantial enhancement in forecasting capabilities, with many advanced features still unimplemented due to various challenges.
  • Common and Desired Features: Manual adjustments are widely used due to ease of implementation, while there is a strong interest in more sophisticated features like KPI-driven cost forecasts, handling cost data delays, and automatic adjustments for behavioral changes.
  • Future Plans: Many practitioners express the intention to enhance their forecasting methods and tools, highlighting an active interest in improving this aspect of FinOps.

  • タイトル: 予測能力の大幅な改善が必要

  • 予測の重要性: 正確な予測により、組織はクラウドリソースを効果的に活用でき、イノベーションとリーダーシップの信頼を促進できる。
  • 調査結果: 回答者は、予測能力に大幅な向上が必要であることを示しており、多くの高度な機能が様々な課題によりまだ実装されていない。
  • 一般的および望ましい機能: 実装が容易であるため、手動調整が広く使用されているが、KPIに基づくコスト予測、コストデータの遅延の取り扱い、行動変化に基づく自動調整など、より洗練された機能に強い関心がある。
  • 将来計画: 多くの実践者が予測方法とツールを強化する意向を表明しており、FinOpsのこの側面を改善するための積極的な関心を示している。

4. Engineering persona getting the most value out of both FinOps training and self-service reporting

  • Title: Engineering Leads in Gaining Value from FinOps Training and Self-Service Reporting
  • Empowerment Through Self-Service: FinOps success hinges on empowering individuals to consider cloud costs in their role, enhancing decision-making speed and organizational agility.
  • Research Insights: Engineers are the primary beneficiaries of self-service reporting, indicating a need for FinOps teams to tailor reports for real-time decision-making across all roles.
  • Challenges for Other Roles: Sustainability and procurement are less engaged with self-service reporting due to data gaps and a need for more education in cloud and FinOps principles.
  • Training Increases Value: Increased FinOps training correlates with greater value derived from self-service reporting, especially among engineers, highlighting the effectiveness of targeted data and training efforts over the past three years.

  • タイトル: エンジニアリングはFinOpsトレーニングとセルフサービスレポーティングから最も価値を得ている

  • セルフサービスによるエンパワーメント: FinOpsの成功は、個人が彼らの役割内でクラウドコストを考慮することを可能にすることにかかっており、意思決定の速度と組織の敏捷性を向上させる。
  • 研究の洞察: エンジニアはセルフサービスレポーティングの主要な恩恵を受けており、FinOpsチームに全ての役割に対してリアルタイムの意思決定を可能にするレポートを提供する必要があることを示している。
  • 他の役割の課題: サステナビリティと調達は、データのギャップとクラウド及びFinOpsの原則に関するより多くの教育の必要性のために、セルフサービスレポーティングとの関わりが少ない。
  • レーニングが価値を増加させる: FinOpsのトレーニングの増加は、特にエンジニアの間で、セルフサービスレポーティングから得られる価値が高まることと相関しており、過去3年間にわたるデータとトレーニング努力の有効性を強調している。

5. The cost of AI is affecting large spenders, but is still on the horizon for others

  • Title: AI Costs Impact Large Spenders, with Broader Effects on the Horizon
  • AI in FinOps Practice: Use of AI/ML is primarily seen in two areas within FinOps: applying AI for FinOps management and managing AI/ML service costs.
  • Current Impact and Opportunities: Only 31% of respondents are currently managing AI/ML costs in their FinOps practice, highlighting a significant opportunity for optimization and value demonstration.
  • Greater Impact on Large Spenders: Among organizations spending over $100M annually on cloud services, 45% report AI/ML costs impacting their FinOps, indicating a trend towards higher management needs for these costs.
  • Historical Parallel and Recommendations: The current phase of AI adoption resembles early cloud adoption, with a need for early implementation of reporting, forecasting, and governance to manage costs effectively and avoid major reworks.
  • Future Outlook: The evolution of AI/ML usage poses questions on whether it will become a major cost factor requiring extensive management or if it will enable more efficient operations through intelligent optimization and automation.

  • タイトル: AIのコストは大口の支出者に影響を与えているが、他の人にとってはまだ地平線上にある

  • FinOps実践におけるAI: AI/MLの使用は、FinOps自体の実践にAIを使用すること、およびFinOps実践でのAI/MLサービスコストを管理することの2つの方法で主に見られる。
  • 現在の影響と機会: 回答者の31%のみが現在、FinOps実践でAI/MLコストを管理しており、最適化と価値の実証のための大きな機会を浮き彫りにしている。
  • 大口の支出者におけるより大きな影響: 年間で1億ドル以上をクラウドサービスに費やしている組織の中で、45%がFinOpsにAI/MLコストが影響を与えていると報告しており、これらのコストの管理ニーズが高まっている傾向を示している。
  • 歴史的類似点と推奨事項: 現在のAI採用フェーズは、初期のクラウド採用に似ており、コストを効果的に管理し、大規模な再作業を避けるために、早期にレポーティング、予測、およびガバナンスの実装が必要である。
  • 将来の展望: AI/MLの使用の進化は、それが大規模なコストファクターとなり、広範な管理を必要とするか、またはより効率的な運用を可能にするためにインテリジェントな最適化と自動化を活用するかという疑問を提起している。

6. Intersection with sustainability teams is expected to increase considerably, very few are working together today

  • Title: Growing Intersection Between FinOps and Sustainability Teams
  • Current Collaboration Levels: Currently, less than 20% of FinOps teams collaborate with sustainability teams or handle cloud sustainability tasks themselves.
  • Future Collaboration Expectations: Half of the respondents anticipate that collaborating with sustainability teams will become a part of their responsibilities, with a shift towards more integrated and shared responsibilities.
  • Regional Differences: The EMEA region shows a higher rate of collaboration between FinOps and sustainability teams compared to North America, likely influenced by regional sustainability reporting requirements.
  • Integration and Best Practices: The integration of FinOps and sustainability is in its early stages, with the complexity of different reporting standards and maturity levels among cloud providers.
  • Framework Updates: The 2024 revisions to the FinOps Framework will introduce Sustainability as a new Capability and Persona, aiming to foster better integration and the development of best practices for incorporating carbon emissions data into decision-making processes.

  • タイトル: FinOpsとサステナビリティチーム間の増加する交差点

  • 現在の協力レベル: 現在、FinOpsチームの20%未満がサステナビリティチームと協力しているか、またはクラウドサステナビリティ任務を自身で扱っています。
  • 将来の協力期待: 回答者の半数が、将来的にサステナビリティチームとの協力が自分の責任の一部になると予想しており、より統合された共有責任へのシフトが期待されています。
  • 地域差: EMEA地域は、北米と比べてFinOpsとサステナビリティチーム間の協力率が高く、これは地域のサステナビリティ報告要件の影響を受けている可能性があります。
  • 統合とベストプラクティス: FinOpsとサステナビリティの統合は初期段階にあり、クラウドプロバイダー間での報告基準と成熟度の違いが努力を複雑にしています。
  • フレームワークの更新: 2024年のFinOpsフレームワークの改訂では、サステナビリティを新たな能力とペルソナとして導入し、意思決定プロセスにカーボン排出データを組み込むためのより良い統合とベストプラクティスの開発を目指しています。

7. Humans are still in the loop for most automation

  • Title: Human Involvement Remains Crucial in FinOps Automation
  • Automation as a Secondary Priority: Automation has seen the largest increase as a secondary priority, particularly among small to medium cloud spenders, with a focus on optimizing resources efficiently.
  • Human Role in Automation: Despite the adoption of automation for data gathering and identifying action needs, most FinOps processes still require human intervention for decision-making and action execution.
  • Trust in Full Automation: There's a noticeable lack of trust in fully automated systems, especially among large spenders in regulated industries, due to concerns over control and accuracy.
  • Integration Challenges: Integrating automation into existing systems and workflows presents difficulties, particularly in environments with distributed DevOps teams and diverse toolsets.
  • Opportunity for Human-Vetted Automation: Given these challenges and the slow trust-building in full automation, incorporating human-vetted automation into existing practices is seen as a more impactful approach for FinOps teams and tool providers.

  • タイトル: FinOpsオートメーションにおける人間の関与は依然として重要

  • オートメーションの二次的優先事項としての増加: 特に小規模から中規模のクラウド支出者の間で、オートメーションは二次的優先事項として最も大きく増加しており、効率的にリソースを最適化することに焦点を当てています。
  • オートメーションにおける人間の役割: データ収集や行動の必要性を特定するためのオートメーションの採用にもかかわらず、ほとんどのFinOpsプロセスでは、意思決定と行動の実行に人間の介入がまだ必要です。
  • 完全オートメーションへの信頼の欠如: 特に規制された産業における大規模支出者の間で、制御と正確性に関する懸念から、完全に自動化されたシステムに対する信頼が顕著に欠如しています。
  • 統合の課題: 既存のシステムやワークフローにオートメーションを統合することは、分散したDevOpsチームや多様なツールセットを使用する環境では特に困難を呈しています。
  • 人間が検証したオートメーションへの機会: これらの課題と、完全オートメーションへの信頼の構築が遅いことを考えると、既存の実践に人間が検証したオートメーションを取り入れることは、FinOpsチームとツール提供者にとってより影響力のあるアプローチと見なされています。

Conclusion

  • Title: Conclusion: The Evolving Role of FinOps in 2024
  • Alignment with Macroeconomic Conditions and Sustainability: FinOps priorities in 2024 are primarily influenced by challenging macroeconomic conditions, with a secondary focus on sustainability and AI integration.
  • Critical Role of FinOps: The intersection of finance and technology places FinOps practitioners in a crucial position to navigate businesses through economic uncertainties and technological advancements.
  • Organizational Adoption and Executive Support: Achieving success in FinOps requires gaining widespread organizational adoption and securing executive support.
  • Collaboration with Sustainability Teams: There is an increasing expectation for FinOps practitioners to work closely with sustainability teams, reflecting a growing part of their role.
  • Continuous Alignment with Business Goals: FinOps is a continuous process of aligning spending with changing business goals, not just a one-time cost-cutting measure.
  • Ongoing Need for FinOps Expertise: As cloud adoption increases and business priorities evolve, the demand for FinOps practitioners to guide and maintain organizational behavior remains strong.
  • Invitation to Explore More Data: Readers are encouraged to explore more findings from the State of FinOps survey and to engage with the community's developments.

  • タイトル: 結論: 2024年におけるFinOpsの役割の進化

  • マクロ経済条件および持続可能性との整合性: 2024年のFinOpsの優先順位は、主に厳しいマクロ経済条件に影響され、持続可能性とAI統合に対して二次的な焦点を置いています。
  • FinOpsの重要な役割: 財務と技術の交点に位置するFinOps実践者は、経済的不確実性と技術進歩を通じて企業をナビゲートするための重要な位置を占めています。
  • 組織の採用と経営陣のサポート: FinOpsの成功を達成するには、広範な組織の採用を得て、経営陣のサポートを確保することが重要です。
  • 持続可能性チームとの協力の増加: FinOps実践者が持続可能性チームと密接に協力することが、彼らの役割の大きな部分になるという期待が高まっています。
  • ビジネス目標との継続的な整合性: FinOpsは、変化するビジネス目標に支出を合わせる継続的なプロセスであり、一度きりのコストカット対策ではありません。
  • FinOps専門家への継続的な需要: クラウドの採用が増加し、ビジネスの優先順位が進化するにつれて、組織の行動を導き、維持するためのFinOps実践者への需要は強いままです。
  • さらなるデータの探索への招待: 読者は、State of FinOps調査からのさらなる発見を探求し、コミュニティの発展に参加することを奨励されています。

Azure Products 一覧まとめ

overview

Azure Products – Browse by Category | Microsoft Azure

AI + Machine Learning: Create the next generation of applications with artificial intelligence capabilities for all developers and scenarios.

Analytics: Gather, store, process, analyze, and visualize data of any variety, volume, or velocity.

Compute: Access cloud compute capacity and scale on demand, paying only for the resources used.

Containers: Develop and manage containerized applications more quickly with integrated tools.

Databases: Support rapid growth and innovate faster with secure, enterprise-grade, fully managed database services.

Developer Tools: Build, manage, and continuously deliver cloud applications using any platform or language.

DevOps: Deliver innovation faster with simple, reliable tools for continuous delivery.

Hybrid + Multicloud: Get Azure innovation everywhere, bringing the agility and innovation of cloud computing to on-premises workloads.

Identity: Manage user identities and access to protect against advanced threats across devices, data, apps, and infrastructure.

Integration: Seamlessly integrate on-premises and cloud-based applications, data, and processes across your enterprise.

Internet of Things: Connect assets or environments, discover insights, and drive informed actions to transform your business.

Management and Governance: Simplify, automate, and optimize the management and compliance of your cloud resources.

Media: Deliver high-quality video content anywhere, any time, and on any device.

Migration: Simplify and accelerate your migration to the cloud with guidance, tools, and resources.

Mixed Reality: Blend your physical and digital worlds to create immersive, collaborative experiences.

Mobile: Build and deploy cross-platform and native apps for any mobile device.

Networking: Connect cloud and on-premises infrastructure and services to provide the best possible experience for your customers and users.

Security: Protect your enterprise from advanced threats across hybrid cloud workloads.

Storage: Get secure, massively scalable cloud storage for your data, apps, and workloads.

Virtual Desktop Infrastructure: Empower employees to work securely from anywhere with a cloud-based virtual desktop infrastructure.

Web: Build, deploy, and scale powerful web applications quickly and efficiently.


AI + Machine Learning: すべての開発者とシナリオのための人工知能機能を使用して、次世代のアプリケーションを作成します。

Analytics: あらゆる種類、ボリューム、または速度のデータを収集、保存、処理、分析し、可視化します。

Compute: 需要に応じてクラウドコンピューティング容量にアクセスし、使用したリソースにのみ料金を支払います。

Containers: 統合ツールを使用して、コンテナ化されたアプリケーションをより迅速に開発および管理します。

Databases: 安全でエンタープライズグレードの完全に管理されたデータベースサービスで、迅速な成長をサポートし、より速くイノベーションを実現します。

Developer Tools: 任意のプラットフォームまたは言語を使用して、クラウドアプリケーションを構築、管理、継続的に提供します。

DevOps: シンプルで信頼性の高いツールを使用して、より速くイノベーションを提供します。

Hybrid + Multicloud: Azureのイノベーションをどこにでも持ち込み、オンプレミスのワークロードにクラウドコンピューティングの俊敏性とイノベーションを提供します。

Identity:バイス、データ、アプリケーション、およびインフラストラクチャ全体の高度な脅威から保護するために、ユーザーのアイデンティティとアクセスを管理します。

Integration: エンタープライズ全体でオンプレミスおよびクラウドベースのアプリケーション、データ、およびプロセスをシームレスに

統合します。

Internet of Things: 資産または環境を接続し、洞察を発見し、ビジネスを変革するための情報に基づいたアクションを推進します。

Management and Governance: クラウドリソースの管理とコンプライアンスを簡素化、自動化、および最適化します。

Media: どこでも、いつでも、どのデバイスでも、高品質のビデオコンテンツを配信します。

Migration: ガイダンス、ツール、およびリソースを提供して、クラウドへの移行を簡素化および加速します。

Mixed Reality: 物理的およびデジタルの世界を融合させ、没入型のコラボレーション体験を作成します。

Mobile: 任意のモバイルデバイスのためのクロスプラットフォームおよびネイティブアプリを構築および展開します。

Networking: お客様とユーザーに最高のエクスペリエンスを提供するために、クラウドおよびオンプレミスのインフラストラクチャとサービスを接続します。

Security: ハイブリッドクラウドワークロード全体で企業を高度な脅威から保護します。

Storage: データ、アプリケーション、およびワークロードのための安全で大規模にスケーラブルなクラウドストレージを取得します。

Virtual Desktop Infrastructure: クラウドベースの仮想デスクトップインフラストラクチャで、従業員がどこからでも安全に働けるようにします。

Web: 強力なWebアプリケーションを迅速かつ効率的に構築、展開、およびスケーリングします。

products

AI and Machine Learning - Azure Services | Microsoft Azure

Azure AI Metrics Advisor: Find an AI service that monitors metrics and diagnoses issues.

Azure AI Content Safety: Keep your content safer with better online experiences.

Azure AI Video Indexer: Easily extract meaningful insights from audio and video files using media AI.

Azure AI Bot Service: Create bots and connect them across channels.

Azure AI Search: Find insights using enterprise-scale search for app development.

Azure Databricks: Design AI with Apache Spark™-based analytics.

Azure Machine Learning: Use an enterprise-grade service for the end-to-end machine learning lifecycle.

Azure AI Services: Add cognitive capabilities to apps with APIs and AI services.

Azure AI Immersive Reader: Empower users of all ages and abilities to read and comprehend text.

AI Anomaly Detector: Easily add anomaly detection capabilities to your apps.

Azure OpenAI Service PREVIEW: Apply advanced coding and language models to a variety of use cases.

Content Moderator: Automate content moderation for image, text, and video.

Azure AI Custom Vision: Easily customize your own state-of-the-art computer vision models for your unique use case.

Azure AI Document Intelligence: Use an AI-powered document extraction service that understands your forms.

AI Language: Add natural language capabilities with a single API call.

Azure AI Personalizer: Deliver personalized, relevant experiences for each of your users.

Azure AI Speech: Create voice-enabled applications using SDK tailored to your needs.

Azure AI Translator: Easily conduct machine translation with a simple REST API call.

Azure AI Vision: Analyze images, read text, and detect faces with vision AI-powered capabilities.

Health Bot: Develop virtual healthcare assistants using a managed service purpose-built for their development.

Kinect DK: Build for mixed reality using AI sensors.

Microsoft Genomics: Power genome sequencing and research insights.


Azure AI Metrics Advisor: メトリックを監視し、問題を診断するAIサービスを見つけます。

Azure AI Content Safety: より良いオンライン体験でコンテンツを安全に保ちます。

Azure AI Video Indexer: メディアAIを使用して、オーディオおよびビデオファイルから意味のある洞察を簡単に抽出します。

Azure AI Bot Service: ボットを作成し、チャネル間で接続します。

Azure AI Search: アプリ開発のためのエンタープライズスケールの検索を使用して洞察を見つけます。

Azure Databricks: Apache Spark™ベースの分析でAIを設計します。

Azure Machine Learning: エンドツーエンドのマシンラーニングライフサイクルのためのエンタープライズグレードサービスを使用します。

Azure AI Services: APIとAIサービスでアプリに認知能力を追加します。

Azure AI Immersive Reader: すべての年齢と能力のユーザーがテキストを読んで理解できるようにします。

AI Anomaly Detector: アプリに異常検出機能を簡単に追加します。

Azure OpenAI Service PREVIEW: 様々なユースケースに高度なコーディングと言語モデルを適用します。

Content Moderator: 画像、テキスト、ビデオのコンテンツモデレーションを自動化します。

Azure AI Custom Vision: 独自のユースケースに最適な最先端のコンピュータビジョンモデルを簡単にカスタマイズします。

Azure AI Document Intelligence: フォームを理解するAI駆動のドキュメント抽出サービスを使用します。

AI Language: 単一のAPIコールで自然言語能力を追加します。

Azure AI Personalizer: 各ユーザーにパーソナライズされた、関連性の高い体験を提供します。

Azure AI Speech: 必要に応じたSDKを使用して、音声対応アプリ

ケーションを作成します。

Azure AI Translator: 単純なREST APIコールで機械翻訳を簡単に実施します。

Azure AI Vision: 視覚AIの能力で画像を分析し、テキストを読み取り、顔を検出します。

Health Bot: 専用の管理サービスを使用して、仮想のヘルスケアアシスタントを開発します。

Kinect DK: AIセンサーを使用してミックスドリアリティのために構築します。

Microsoft Genomics: ゲノム配列決定と研究の洞察を強化します。

Azure Analytics Services | Microsoft Azure

Azure Synapse Analytics: Limitless analytics with unmatched time to insight.

Azure Databricks: A fully managed, fast, easy, and collaborative Apache® Spark™ based analytics platform optimized for Azure.

HDInsight: A fully managed cloud Hadoop and Spark service backed by a 99.9% SLA for your enterprise.

Azure Data Factory: A data integration service to orchestrate and automate data movement and transformation.

Azure Machine Learning: Open and elastic AI development spanning the cloud and the edge.

Azure Stream Analytics: Real-time data stream processing from millions of IoT devices.

Data Lake Analytics: A fully managed on-demand pay-per-job analytics service with enterprise-grade security, auditing, and support.

Azure Analysis Services: Enterprise-grade analytics engine as a service.

Event Hubs: A hyper-scale telemetry ingestion service that collects, transforms, and stores millions of events.

Azure Data Explorer: Fast and highly scalable data exploration service.

Azure Data Share: A simple and safe service for sharing big data with external organizations.

Azure Time Series Insights: End-to-end IoT analytics platform to monitor, analyze, and visualize your industrial IoT data at scale.

Microsoft Graph Data Connect: A secure, high-throughput connector designed to copy select Microsoft 365 productivity datasets into your Azure tenant.

Azure Chaos Studio: Improved resilience of your applications through controlled chaos engineering experimentation.


Azure Synapse Analytics: 洞察に至るまでの時間が比類なき無制限の分析。

Azure Databricks: Azure用に最適化された、完全管理された高速で簡単で協力的なApache® Spark™ベースの分析プラットフォーム。

HDInsight: 企業のための99.9%のSLAでバックアップされた完全管理されたクラウドHadoopおよびSparkサービス。

Azure Data Factory: データ移動と変換をオーケストレーションし自動化するデータ統合サービス。

Azure Machine Learning: クラウドとエッジをまたがるオープンで弾力的なAI開発。

Azure Stream Analytics: 数百万のIoTデバイスからのリアルタイムデータストリーム処理。

Data Lake Analytics: 企業向けのセキュリティ、監査、サポートを備えた完全管理型のオンデマンドペイパージョブ分析サービス。

Azure Analysis Services: サービスとしての企業向け分析エンジン。

Event Hubs: 数百万のイベントを収集、変換、および保存するハイパースケールのテレメトリ収集サービス。

Azure Data Explorer: 高速で高いスケーラビリティを持つデータ探索サービス。

Azure Data Share: 外部組織と大規模なデータを安全に共有するシンプルなサービス。

Azure Time Series Insights: スケールで産業用IoTデータを監視、分析、および視覚化するエンドツーエンドのIoT分析プラットフォーム。

Microsoft Graph Data Connect: 選択したMicrosoft 365生産性データセットをAzureテナントにコピーするために設計されたセキュアで高スループットのコネクタ。

Azure Chaos Studio: 制御されたカオスエンジニアリングの実験を通じてアプリケーションの回復力を向上させます。

Azure Compute—Virtualization and Scalability | Microsoft Azure

Virtual Machines: Provision Linux and Windows virtual machines in seconds with the configurations of your choice.

Virtual Machine Scale Sets: Achieve high availability by autoscaling to create thousands of VMs in minutes.

Azure Spot Virtual Machines: Get deep discounts when you provision unused compute capacity to run your workloads.

Azure Kubernetes Service (AKS): Deploy and scale containers on managed Kubernetes.

Azure Functions: Accelerate app development using an event-driven, serverless architecture.

Azure Service Fabric: Develop microservices and orchestrate containers on Windows and Linux.

App Service: Quickly create cloud apps for web and mobile with a fully managed platform.

Azure Container Instances: Containerize apps and easily run containers with a single command.

Batch: Cloud-scale job scheduling and compute management with the ability to scale to tens, hundreds, or thousands of virtual machines.

Cloud Services: Create highly available, scalable cloud applications and APIs that help you focus on apps instead of hardware.

Azure Dedicated Host: Deploy your Azure virtual machines on a physical server only used by your organization.


Virtual Machines: 好みの設定で数秒以内にLinuxおよびWindows仮想マシンをプロビジョニングします。

Virtual Machine Scale Sets: オートスケーリングにより数分で数千のVMを作成して高可用性を実現します。

Azure Spot Virtual Machines: 未使用の計算容量をプロビジョニングして作業負荷を実行する際に大幅な割引を受けます。

Azure Kubernetes Service (AKS): 管理されたKubernetes上でコンテナをデプロイおよびスケーリングします。

Azure Functions: イベント駆動型のサーバレスアーキテクチャを使用してアプリ開発を加速します。

Azure Service Fabric: WindowsおよびLinux上でマイクロサービスを開発し、コンテナをオーケストレーションします。

App Service: 完全に管理されたプラットフォームでWebおよびモバイルのクラウドアプリを迅速に作成します。

Azure Container Instances: アプリをコンテナ化し、単一のコマンドで簡単にコンテナを実行します。

Batch: 数十、数百、数千の仮想マシンにスケールする能力を備えたクラウドスケールのジョブスケジューリングおよび計算管理。

Cloud Services: ハードウェアではなくアプリに焦点を当てることができる、高可用性でスケーラブルなクラウドアプリケーションおよびAPIを作成します。

Azure Dedicated Host: 組織専用の物理サーバー上にAzure仮想マシンをデプロイします。

Azure Databases - Types of Databases on Azure | Microsoft Azure

Azure Cosmos DB: Fast, distributed NoSQL and relational database at any scale.

Azure SQL Database: Flexible, fast, and elastic SQL database for your new apps.

Azure Database for PostgreSQL: Fully managed, intelligent, and scalable PostgreSQL database.

Azure Database for MySQL: Scalable, open-source MySQL database.

Azure Database for MariaDB: Fully managed, community MariaDB.

Azure Cache for Redis: Distributed, in-memory, scalable caching.

SQL Server on Azure Virtual Machines: Migrate your SQL Server workloads with ease and maintain them with 100 percent compatibility and operating system-level access.

Azure SQL Managed Instance: Modernize .NET applications with Azure SQL Managed Instance, a fully managed and intelligent service combining the broadest SQL Server engine compatibility with an always-up-to-date service.

Oracle on Azure: Migrate your Oracle Database workloads with ease and combine the best of Oracle with the best of Azure.

Azure Database for PostgreSQL (Migration): Migrate Oracle Database to Azure Database for PostgreSQL for a fully managed, open-source database designed for scalable and secure enterprise-ready apps.

Azure SQL Database (Migration): Migrate Oracle Database to Azure SQL Database, a fully managed and intelligent service for relational performance at scale.

MongoDB Atlas on Azure: Modernize with a fully managed database-as-a-service that runs MongoDB Enterprise and offers full support for all MongoDB features.

Azure Cosmos DB for MongoDB: Add scalability and high performance to applications of any size and scale with a managed and serverless distributed database that supports MongoDB data.

Azure Database for PostgreSQL (Open-source): Migrate to a fully managed open-source database with support for the latest PostgreSQL versions and AI-powered performance optimization.

Azure Database for MySQL (Migration): Migrate your on-premises MySQL database to a fully managed database that offers high availability, elastic scale, and mission-critical performance.

Azure Database for MariaDB (Migration): Combine MariaDB Community edition with the benefits of a fully managed service provider that offers high availability and elastic scale.

Azure Managed Instance for Apache Cassandra: Modernize Cassandra data clusters with a managed instance in the cloud and lower operational overhead for critical Apache Cassandra workloads by hosting on a scalable and fully managed platform while retaining control over configuration options.

Azure Cosmos DB for Apache Cassandra: Add scalability and high performance to applications of any size and scale with a managed and serverless distributed database that supports Apache Cassandra data.


Azure Cosmos DB: 任意の規模での高速な分散NoSQLおよびリレーショナルデータベース。

Azure SQL Database: 新しいアプリのための柔軟で高速、弾力的なSQLデータベース。

Azure Database for PostgreSQL: 完全管理された、インテリジェントでスケーラブルなPostgreSQLデータベース。

Azure Database for MySQL: スケーラブルなオープンソースMySQLデータベース。

Azure Database for MariaDB: 完全管理されたコミュニティMariaDB

Azure Cache for Redis: 分散型でインメモリのスケーラブルなキャッシング。

Azure Virtual Machines上のSQL Server: 100%の互換性とオペレーティングシステムレベルのアクセスを維持しながら、SQL Serverワークロードを容易に移行し、維持します。

Azure SQL Managed Instance: Azure SQL Managed Instanceで、最も広いSQL Serverエンジンの互換性と常に最新のサービスを組み合わせた、完全管理されたインテリジェントなサービスで.NETアプリケーションを近代化します。

Azure上のOracle Database: Oracle Databaseワークロードを容易に移行し、OracleのベストとAzureのベストを組み合わせます。

PostgreSQL用Azure Database (移行): オープンソースの開発者がスケーラブルでセキュアなエンタープライズ対応アプリを構築するための完全管理されたPostgreSQLデータベースサービスにOracle Databaseを移行します。

Azure SQL Database (移行): Oracle Databaseをスケールでのリレーショナルパフォーマンスのための完全管理されたインテリジェントなサービスであるAzure SQL Databaseに移行します。

Azure上のMongoDB Atlas: MongoDB Enterpriseを実行し、MongoDBのすべての機能を完全にサポートする完全管理型のデータベースサービスで近代化します。

MongoDB用Azure Cosmos DB: 任意のサイズや規模のアプリケーションにスケーラビリティと高性能を追加する、MongoDBデータをサポートする管理されたサーバレス分散データベース。

PostgreSQL用Azure Database (オープンソース): 最新のPostgreSQLバージョンをサポートし、AIによるパフォーマンス最適化を備えた完全管理型のオープンソースデータベースに移行します。

MySQL用Azure Database (移行): 高可用性、弾力的なスケール、ミッションクリティカルなパフォーマンスを提供する完全管理型のデータベースにオンプレミスのMySQLデータベースを移行します。

MariaDB用Azure Database (移行): 高可用性と弾力的なスケールを提供する完全管理型サービスプロバイダーの利点をMariaDB Communityエディションと組み合わせます。

Apache Cassandra用Azure Managed Instance: クラウド内の管理されたインスタンスでCassandraデータクラスターを近代化し、設定オプションをコントロールしながらスケーラブルで完全管理されたプラットフォーム上でホスティングすることで、重要なApache Cassandraワークロードの運用オーバーヘッドを削減します。

Apache Cassandra用Azure Cosmos DB: 任意のサイズや規模のアプリケーションにスケーラビリティと高性能を追加する、Apache Cassandraデータをサポートする管理されたサーバレス分散データベース。

Developer Tools | Microsoft Azure

Visual Studio: Get all the power and capabilities you need to easily develop, debug, deploy, manage, and diagnose cloud-scale applications on Azure, using a full-featured IDE.

Visual Studio Code: Edit and debug code quickly with a lightweight code editor that runs on macOS, Linux, and Windows—streamlined for building and deploying Node.js and Java apps to the cloud—using serverless computing, containers, or managed Web Apps.

SDKs: Download and install language-specific SDKs and tools for your platform of choice, including .NET, Java, Node.js, Python, and Go.

Visual Studio Subscriptions: Access Visual Studio, Azure credits, Azure DevOps, and many other resources for creating, deploying, and managing applications.

App Configuration: Fast, scalable parameter storage for app configuration.

Azure Load Testing: Optimize app performance at scale with a specialized load-testing service built for Azure.

Azure Managed Confidential Consortium Framework (CCF) ᴾᴿᴱⱽᴵᴱᵂ: Build enterprise-grade, consortium-style stateful services and decentralized-trust applications with a common source of truth.


Visual Studio: フル機能のIDEを使用して、Azure上でクラウドスケールのアプリケーションを簡単に開発、デバッグ、デプロイ、管理、診断するために必要なすべてのパワーと機能を手に入れましょう。

Visual Studio Code: macOSLinuxWindowsで動作する軽量コードエディタを使用してコードを迅速に編集・デバッグ。サーバーレスコンピューティング、コンテナ、または管理されたWebアプリを使用してクラウドにNode.jsおよびJavaアプリを構築およびデプロイするために最適化されています。

SDK: .NETJava、Node.js、Python、Goなど、選択したプラットフォーム用の言語固有のSDKおよびツールをダウンロードしてインストールします。

Visual Studio Subscriptions: Visual Studio、Azureクレジット、Azure DevOpsなど、アプリケーションの作成、デプロイ、管理に必要な多くのリソースにアクセスします。

App Configuration: アプリ設定のための高速でスケーラブルなパラメータストレージ。

Azure Load Testing: Azure向けに構築された専門の負荷テストサービスを使用して、スケールでアプリケーションのパフォーマンスを最適化します。

Azure Managed Confidential Consortium Framework (CCF) ᴾᴿᴱⱽᴵᴱᵂ: 共通の真実の源を持つエンタープライズグレードのコンソーシアムスタイルのステートフルサービスおよび分散型信頼アプリケーションを構築します。

DevOps Technologies | Microsoft Azure

Azure DevOps: Services for teams to share code, track work, and ship software.

Azure DevOps Projects: Create a full continuous integration and continuous deployment (CI/CD) pipeline with just a few clicks for any application in any language deployed on a variety of Azure services.

App Center: Automatically build, test, distribute, deploy, and monitor iOS, Android, Windows, and macOS apps—all in one place.

Azure Lab Services: Set up labs for a classroom, trials, development, or testing.

Azure Monitor: Full observability into your applications, infrastructure, and network.

Azure DevTest Labs: Create cloud environments with quick setup, reusable templates, cost management, and integration with existing toolchains.

Azure Load Testing: Optimize app performance at scale with a specialized load testing service built for Azure.


Azure DevOps: コードを共有し、作業を追跡し、ソフトウェアを出荷するためのチーム向けサービス。

Azure DevOps Projects: Azureサービスにデプロイされた任意の言語のアプリケーションに対して、わずか数クリックで完全な継続的インテグレーションと継続的デプロイメント(CI/CD)パイプラインを作成します。

App Center: iOSAndroidWindowsmacOSアプリを自動的にビルド、テスト、配布、デプロイ、監視します—すべて一箇所で。

Azure Lab Services: 教室、トライアル、開発、テスト用のラボを設定します。

Azure Monitor: アプリケーション、インフラストラクチャ、およびネットワークへの完全な可視性。

Azure DevTest Labs: 迅速なセットアップ、再利用可能なテンプレート、コスト管理、既存のツールチェーンとの統合を備えたクラウド環境を作成します。

Azure Load Testing: Azure用に構築された専門の負荷テストサービスを使用して、スケールでアプリケーションのパフォーマンスを最適化します。

Hybrid and Multicloud Technologies - Azure Services | Microsoft Azure

Azure Active Directory: Synchronize on-premises directories and enable single sign-on.

Azure Database for PostgreSQL: Find fully managed, intelligent, and scalable PostgreSQL.

ExpressRoute: Experience a fast, reliable, and private connection to Azure.

Microsoft Sentinel: Find cloud-native SIEM and intelligent security analytics.

Azure SQL Edge: Consume services privately on Azure.

Microsoft Defender for Cloud: Extend threat protection to any infrastructure.

Azure Stack Hub: Bring the agility and innovation of cloud computing to your on-premises environment.

Azure Arc: Secure, develop, and operate infrastructure, apps, and Azure services anywhere.

Azure DevOps: Use services for teams to share code, track work, and ship software.

SQL Database: Find managed, intelligent SQL in the cloud.

Azure Stack: Build and run innovative hybrid apps across cloud boundaries.

Azure Stack HCI: Run your production workloads anywhere on hybrid, familiar, hyperconverged infrastructure.

Azure Stack Edge: Find an Azure-managed device that brings the compute, storage, and intelligence of Azure to the edge.


Azure Active Directory: オンプレミスのディレクトリを同期し、シングルサインオンを有効にします。

Azure Database for PostgreSQL: 完全に管理された、インテリジェントでスケーラブルなPostgreSQLを見つけます。

ExpressRoute: Azureへの高速で信頼性の高いプライベート接続を体験します。

Microsoft Sentinel: クラウドネイティブのSIEMとインテリジェントなセキュリティ分析を見つけます。

Azure SQL Edge: Azure上でプライベートにサービスを利用します。

Microsoft Defender for Cloud: 任意のインフラストラクチャへの脅威保護を拡張します。

Azure Stack Hub: オンプレミス環境にクラウドコンピューティングの俊敏性とイノベーションをもたらします。

Azure Arc: どこでもインフラストラクチャ、アプリ、およびAzureサービスを安全に開発し、運用します。

Azure DevOps: コードを共有し、作業を追跡し、ソフトウェアを出荷するためのサービスを使用します。

SQL Database: クラウド内の管理された、インテリジェントなSQLを見つけます。

Azure Stack: クラウドの境界を越えて革新的なハイブリッドアプリを構築し、実行します。

Azure Stack HCI: ハイブリッドで親しみやすい、ハイパーコンバージドインフラストラクチャ上でどこでも本番ワークロードを実行します。

Azure Stack Edge: Azureのコンピューティング、ストレージ、およびインテリジェンスをエッジにもたらすAzure管理デバイスを見つけます。

Azure Identity and Access Management Solutions | Microsoft Azure

Azure Active Directory External Identities: Consumer identity and access management in the cloud.

Microsoft Entra Domain Services: Join virtual machines in Azure to a domain without deploying domain controllers.


Azure Active Directory External Identities: クラウドでの消費者向けアイデンティティとアクセス管理。

Microsoft Entra Domain Services: ドメインコントローラーをデプロイすることなく、Azureの仮想マシンドメインに参加させます。

Azure Integration Services | Microsoft Azure

Logic Apps: Create workflows and orchestrate business processes to connect hundreds of services in the cloud and on-premises.

Service Bus: Connect on-premises and cloud-based applications and services to implement highly secure messaging workflows.

API Management: Publish your APIs securely for internal and external developers to use when connecting to backend systems hosted anywhere.

Event Grid: Connect supported Azure and third-party services using a fully managed event-routing service with a publish-subscribe model that simplifies event-based app development.

Azure Functions: Simplify complex orchestration problems with an event-driven serverless compute platform.

Azure Data Factory: Visually integrate data sources to construct ETL and ELT processes and accelerate data transformation, using 90+ pre-built connectors to manage data pipelines and support enterprise workflows.


Logic Apps: クラウドおよびオンプレミスで数百のサービスを接続するビジネスプロセスをオーケストレーションし、ワークフローを作成します。

Service Bus: オンプレミスとクラウドベースのアプリケーションおよびサービスを接続して、高度にセキュアなメッセージングワークフローを実装します。

API Management: バックエンドシステムに接続するために内部および外部の開発者が使用するために、APIを安全に公開します。

Event Grid: 公開-購読モデルを使用した完全管理型のイベントルーティングサービスを通じて、サポートされるAzureおよびサードパーティのサービスを接続し、イベントベースのアプリ開発を簡素化します。

Azure Functions: イベント駆動型のサーバーレスコンピュートプラットフォームで複雑なオーケストレーション問題を簡素化します。

Azure Data Factory: 90以上の事前構築されたコネクタを使用してデータソースを視覚的に統合し、ETLおよびELTプロセスを構築してデータ変換を加速し、データパイプラインを管理し、エンタープライズのワークフローをサポートします。

Azure IoT Products and Services | Microsoft Azure

Azure Digital Twins: Create a digital model of your physical space or assets.

Azure IoT Central: Accelerate the creation of IoT solutions.

Azure IoT Edge: Extend intelligence from the cloud to your edge devices.

Azure IoT Hub: Connect, monitor, and control billions of IoT assets.

Azure IoT Operations: Unlock insights for intelligent local actions and global visibility.

Azure RTOS: Making embedded IoT development and connectivity easy.

Azure Sphere: Build and connect highly secure MCU-powered devices.

Azure SQL Edge: Consume Services privately on Azure Platform.

Azure Time Series Insights: Explore and gain insights from time-series IoT data in real time.


Azure Digital Twins: 物理的な空間や資産のデジタルモデルを作成します。

Azure IoT Central: IoTソリューションの作成を加速します。

Azure IoT Edge: クラウドからエッジデバイスへとインテリジェンスを拡張します。

Azure IoT Hub: 数十億のIoT資産を接続、監視、制御します。

Azure IoT Operations: インテリジェントなローカルアクションとグローバルな可視性のための洞察を解き放ちます。

Azure RTOS: 組み込みIoT開発と接続を容易にします。

Azure Sphere: 高度に安全なMCU駆動デバイスを構築して接続します。

Azure SQL Edge: Azureプラットフォーム上でプライベートにサービスを利用します。

Azure Time Series Insights: 時系列IoTデータからリアルタイムで洞察を探求し、得ます。

App Monitoring and Resource Management Products | Microsoft Azure

Azure Monitor: Get visibility into the status of Azure platform components.

Network Watcher: Monitor and diagnose network issues.

Microsoft Copilot for AzurePreview: Simplify how you design, operate, optimize, and troubleshoot from cloud to edge.

Automation: Automate, configure, and update your resources.

Azure Advisor: Get personalized recommendations to help manage your Azure environment.

Azure Resource Manager: Deploy and manage your Azure resources.

Azure Resource Mover: Simplify how you move multiple resources between Azure regions.

Scheduler: Create, maintain, and invoke scheduled work for your apps.

Traffic Manager: Route incoming traffic for better performance and availability.

Cloud Shell: Manage Azure using a command-line experience.

Azure Managed Applications: Manage deployed solutions for your customers.

Microsoft Azure portal: Personalize and manage your Azure environment.

Azure mobile app: Stay connected to your Azure resources from anywhere at anytime.

Azure Lighthouse: Empowering service providers to manage customers at scale and with precision.

Microsoft Cost Management: Get transparency into what you’re spending on cloud resources.

Azure Policy: Set policies across resources and monitor compliance.

Azure Blueprints: Enabling quick, repeatable creation of governed environments.

Azure Managed Grafana: Deploy Grafana dashboards as a fully managed Azure service.

Update management center: Centrally manage updates and compliance at scale.


Azure Monitor: Azureプラットフォームのコンポーネントの状態を把握します。

Network Watcher: ネットワークの問題を監視し、診断します。

Microsoft Copilot for AzurePreview: クラウドからエッジまで、設計、運用、最適化、トラブルシューティングを簡素化します。

Automation: リソースを自動化、設定、更新します。

Azure Advisor: Azure環境を管理するためのパーソナライズされた推奨事項を取得します。

Azure Resource Manager: Azureリソースをデプロイして管理します。

Azure Resource Mover: 複数のリソースをAzureリージョン間で移動する方法を簡素化します。

Scheduler: アプリのためにスケジュールされた作業を作成、維持、呼び出します。

Traffic Manager: より良いパフォーマンスと可用性のために、入ってくるトラフィックをルーティングします。

Cloud Shell: コマンドライン体験を使用してAzureを管理します。

Azure Managed Applications: 顧客のためにデプロイされたソリューションを管理します。

Microsoft Azure portal: Azure環境をパーソナライズして管理します。

Azure mobile app: いつでもどこでもAzureリソースに接続します。

Azure Lighthouse: サービスプロバイダーが大規模かつ精密に顧客を管理できるようにします。

Microsoft Cost Management: クラウドリソースにかかる費用の透明性を得ます。

Azure Policy: リソース全体にポリシーを設定し、コンプライアンスを監視します。

Azure Blueprints: 管理された環境の迅速かつ繰り返し可能な作成を可能にします。

Azure Managed Grafana: 完全に管理されたAzureサービスとしてGrafanaダッシュボードをデプロイします。

Update management center: 中央集権的にアップデートとコンプライアンスを大規模に管理します。

Media Products and Services – Azure Services | Microsoft Azure

Azure Media Player: A single player for all your playback needs.

Content Protection: Securely deliver content using AES, PlayReady, Widevine, and Fairplay.

Live and On-Demand Streaming: Deliver content to virtually all devices with the ability to scale.

Azure Content Delivery Network: Use a fast, reliable, content delivery network with global reach.

Encoding: Studio-grade encoding at cloud scale.

Media Services: Encode, store, and stream video and audio at scale.


Azure Media Player: すべての再生ニーズに対応する単一のプレーヤー。

Content Protection: AES、PlayReady、Widevine、Fairplayを使用してコンテンツを安全に配信します。

Live and On-Demand Streaming: スケールの可能性を持ち、ほぼすべてのデバイスにコンテンツを配信します。

Azure Content Delivery Network: グローバルにリーチする高速で信頼性の高いコンテンツ配信ネットワークを使用します。

Encoding: クラウドスケールでのスタジオグレードのエンコーディング

Media Services: 大規模にビデオおよびオーディオをエンコード、保存、ストリーミングします。

Azure Cloud Migration Products - Azure Services | Microsoft Azure

Azure Database Migration Service: Accelerate your data migration to Azure.

Azure Site Recovery: Keep your business running with built-in disaster recovery service.

Azure Data Box: Find appliances and solutions for data transfer to Azure and edge compute.

Azure Migrate: Simplify migration and modernization with a unified platform.

Microsoft Cost Management: Monitor, allocate, and optimize cloud costs with transparency, accuracy, and efficiency.


Azure Database Migration Service: Azureへのデータ移行を加速します。

Azure Site Recovery: 組み込みの災害復旧サービスでビジネスの稼働を維持します。

Azure Data Box: Azureおよびエッジコンピューティングへのデータ転送用のアプライアンスとソリューションを見つけます。

Azure Migrate: 統合されたプラットフォームで移行と近代化を簡素化します。

Microsoft Cost Management: 透明性、正確性、効率性をもってクラウドコストを監視、割り当て、最適化します。

Mixed Reality Technologies - Azure Services | Microsoft Azure

Azure Digital Twins: Use IoT spatial intelligence to create models of physical environments.

Azure Remote Rendering: Render high-quality, interactive 3D content with real-time streaming.

Object Anchors PREVIEW: Automatically align and anchor 3D content to objects in the physical world.

Kinect DK: Build for mixed reality using AI sensors.

Spatial Anchors: Create multiuser, spatially aware, mixed-reality experiences.


Azure Digital Twins: IoT空間知能を使用して物理環境のモデルを作成します。

Azure Remote Rendering: リアルタイムストリーミングで高品質のインタラクティブな3Dコンテンツをレンダリングします。

Object Anchors PREVIEW: 物理世界のオブジェクトに3Dコンテンツを自動的に整列させてアンカーします。

Kinect DK: AIセンサーを使用してミックスドリアリティのために構築します。

Spatial Anchors: 複数ユーザーが空間認識できるミックスドリアリティ体験を作成します。

Mobile | Microsoft Azure

App Center: Quickly create high-quality apps for Android, iOS, Xamarin, React Native, Unity, and Cordova. Integrate globally scalable backend services with just a few lines of code. Automate your build, test, and distribution pipeline and continuously monitor real-time performance.

Notification Hubs: Send personalized push notifications to any mobile platform from any back end.

Xamarin: Create Android, iOS, and Windows apps with native performance and UI using existing skills, teams, and code.

Azure Maps: Add maps, search, routing, and traffic capabilities to your apps with geospatial services.

API Management: Publish APIs in minutes, manage access, gain insights, fine-tune performance, and scale on demand.

Azure AI Search: Find insights using enterprise-scale search for app development.


App Center: AndroidiOS、Xamarin、React Native、Unity、Cordova用の高品質なアプリを迅速に作成します。数行のコードでグローバルにスケーラブルなバックエンドサービスを統合します。ビルド、テスト、配布パイプラインを自動化し、リアルタイムのパフォーマンスを継続的に監視します。

Notification Hubs: 任意のバックエンドから任意のモバイルプラットフォームにパーソナライズされたプッシュ通知を送信します。

Xamarin: 既存のスキル、チーム、コードを使用して、ネイティブのパフォーマンスとUIを備えたAndroidiOSWindowsアプリを作成します。

Azure Maps: 地理空間サービスを使用して、アプリに地図、検索、ルーティング、交通機能を追加します。

API Management: 数分でAPIを公開し、アクセスを管理し、洞察を得て、パフォーマンスを微調整し、需要に応じてスケールします。

Azure AI Search: アプリ開発のためのエンタープライズスケールの検索を使用して洞察を見つけます。

Networking | Microsoft Azure

Azure Virtual Network: Connect everything from virtual machines to incoming VPN connections.

Azure Load Balancer: Balance inbound and outbound connections and requests to applications.

Azure DDoS Protection: Protect your applications from DDoS attacks.

Azure Firewall: Native firewall capabilities with built-in high availability and zero maintenance.

Azure Firewall Manager: Manage network security policy and routing centrally.

Azure Bastion: Private and fully managed RDP and SSH access to your virtual machines.

Azure Private Link: Private access to services hosted on the Azure platform.

Traffic Manager: Route incoming traffic for better performance and availability.

Network Watcher: Monitor and diagnose network issues.

Azure Network Function Manager: Extend Azure management for deploying 5G and SD-WAN network functions on edge devices.

Azure ExpressRoute: Add private network connectivity from your corporate network to cloud.

Azure Virtual WAN: Connect business offices, retail locations, and sites securely with a unified portal.

Azure VPN Gateway: Securely use the internet to access Azure Virtual Networks.

Routing preference: Choose how your traffic routes between Azure and the Internet.

Azure Public MEC, Azure Private MEC: Provide real-time customer experiences with ultra-low-latency edge compute.

Azure Private 5G Core: Simplify delivery of 5G wireless networks and manage private 5G.

Azure CDN: Accelerate the delivery of high-bandwidth content to customers worldwide.

Azure Front Door: Scalable, security-enhanced delivery point for global, microservice-based web applications.

Azure Application Gateway: Manage traffic to your web applications with a web traffic load balancer.

Azure Web Application Firewall: Use a firewall service for web apps to help improve web app security.

Azure DNS: Ensure ultra-fast DNS responses and availability for your domain needs.

Internet Analyzer: Test how networking infrastructure changes will impact performance.

Azure NAT Gateway: Provide highly scalable, resilient, and secure outbound connectivity for virtual networks.


Azure Virtual Network: 仮想マシンから着信VPN接続まで、あらゆるものを接続します。

Azure Load Balancer: アプリケーションへの入力および出力接続とリクエストをバランスします。

Azure DDoS Protection: アプリケーションをDDoS攻撃から保護します。

Azure Firewall: 組み込みの高可用性とゼロメンテナンスを備えたネイティブファイアウォール機能。

Azure Firewall Manager: ネットワークセキュリティポリシーとルーティングを中央で管理します。

Azure Bastion: 仮想マシンへのプライベートで完全に管理されたRDPおよびSSHアクセス。

Azure Private Link: Azureプラットフォーム上でホストされているサービスへのプライベートアクセス。

Traffic Manager: より良いパフォーマンスと可用性のために、着信トラフィックをルーティングします。

Network Watcher: ネットワークの問題を監視し、診断します。

Azure Network Function Manager: エッジデバイス上で5GおよびSD-WANネットワーク機能をデプロイするためのAzure管理を拡張します。

Azure ExpressRoute: 企業ネットワークからクラウドへのプライベートネットワーク接続を追加します。

Azure Virtual WAN: ユニファイドポータルを使用して、ビジネスオフィス、小売店舗、サイトを安全に接続します。

Azure VPN Gateway: インターネットを安全に使用してAzure Virtual Networksにアクセスします。

Routing preference: Azureとインターネット間でトラフィックがどのようにルーティングされるかを選択します。

Azure Public MEC, Azure Private MEC: 超低遅延のエッジコンピュートでリアルタイムの顧客体験を提供します。

Azure Private 5G Core:

5Gワイヤレスネットワークの提供を簡素化し、プライベート5Gを管理します。

Azure CDN: 世界中の顧客に高帯域幅のコンテンツを迅速に配信します。

Azure Front Door: グローバルなマイクロサービスベースのWebアプリケーション向けのスケーラブルでセキュリティ強化された配信ポイント。

Azure Application Gateway: WebトラフィックロードバランサーでWebアプリケーションへのトラフィックを管理します。

Azure Web Application Firewall: Webアプリのセキュリティを向上させるためのWebアプリ用ファイアウォールサービスを使用します。

Azure DNS: ドメインのニーズに対する超高速DNSレスポンスと可用性を確保します。

Internet Analyzer: ネットワーキングインフラの変更がパフォーマンスに与える影響をテストします。

Azure NAT Gateway: 仮想ネットワークのための高度にスケーラブルで回復力があり、セキュアなアウトバウンド接続を提供します。

Cloud Security | Microsoft Azure

Microsoft Defender for Cloud: Unify security management and enable advanced threat protection for workloads in the cloud and on-premises.

Key Vault: Safeguard cryptographic keys and other secrets used by cloud apps and services.

Azure DDoS Protection: Protect your Azure resources from denial of service threats.

Azure Information Protection: Control and help secure email, documents, and sensitive data that you share outside your company.

Application Gateway: Protect your applications from common web vulnerabilities and exploits with a built-in web application firewall.

Microsoft Azure Attestation: A fully managed and unified remote attestation service to validate multiple Trusted Execution Environments (TEEs) in Azure.

Azure Confidential Ledger: Store unstructured data that is completely tamper-proof and can be cryptographically verified.

Microsoft Defender for IoT: Unified threat protection for all your IoT/OT devices.


Microsoft Defender for Cloud: クラウドとオンプレミスのワークロードに対してセキュリティ管理を統合し、高度な脅威保護を有効にします。

Key Vault: クラウドアプリやサービスが使用する暗号化キーとその他の秘密を保護します。

Azure DDoS Protection: Azureリソースをサービス拒否攻撃から保護します。

Azure Information Protection: 会社の外部に共有する電子メール、文書、および機密データを制御し、保護の手助けをします。

Application Gateway: 組み込みのWebアプリケーションファイアウォールで、一般的なWebの脆弱性やエクスプロイトからアプリケーションを保護します。

Microsoft Azure Attestation: Azure内の複数のTrusted Execution Environments (TEEs) を検証するための完全に管理された統一されたリモート証明サービス。

Azure Confidential Ledger: 完全に改ざん防止され、暗号的に検証可能な非構造化データを保存します。

Microsoft Defender for IoT: すべてのIoT/OTデバイスに対する統一された脅威保護。

Azure Cloud Storage Solutions and Services | Microsoft Azure

Azure Disk Storage: High-performance, durable block storage for business-critical applications.

Azure Blob Storage: Massively scalable and secure object storage for cloud-native workloads, archives, data lakes, high-performance computing, and machine learning.

Azure Data Lake Storage: Massively scalable and secure data lake for your high-performance analytics workloads.

Azure Files: Simple, secure, and serverless enterprise-grade cloud file shares.

Azure NetApp Files: Enterprise-grade Azure file shares, powered by NetApp.

Azure File Sync: Hybrid cloud file shares for caching your on-premises data.

Azure Stack Edge: Cloud storage gateway to transfer data efficiently and easily between the cloud and the edge.

Azure Data Box: Appliances and solutions for transferring data into and out of Azure quickly and cost-effectively.

Azure Elastic SAN: Elastic SAN is a cloud-native Storage Area Network (SAN) service built on Azure. Gain access to an end-to-end experience like your on-premises SAN.

Azure Container StoragePREVIEW: Manage persistent storage volumes for stateful container applications.

Azure Storage Actions: Simplify storage data management tasks at massive scale.


Azure Disk Storage: ビジネスクリティカルなアプリケーション向けの高性能で耐久性のあるブロックストレージ。

Azure Blob Storage: クラウドネイティブなワークロード、アーカイブ、データレイク、高性能コンピューティング、および機械学習用の大規模にスケーラブルで安全なオブジェクトストレージ。

Azure Data Lake Storage: 高性能分析ワークロード用の大規模にスケーラブルで安全なデータレイク。

Azure Files: シンプルで安全、サーバーレスなエンタープライズグレードのクラウドファイル共有。

Azure NetApp Files: NetAppによって提供されるエンタープライズグレードのAzureファイル共有。

Azure File Sync: オンプレミスのデータをキャッシュするためのハイブリッドクラウドファイル共有。

Azure Stack Edge: クラウドとエッジ間でデータを効率的かつ簡単に転送するためのクラウドストレージゲートウェイ

Azure Data Box: Azureへのデータの迅速かつコスト効果的な転送のためのアプライアンスとソリューション。

Azure Elastic SAN: Azure上に構築されたクラウドネイティブなストレージエリアネットワーク(SAN)サービスであるElastic SAN。オンプレミスのSANのようなエンドツーエンドの体験を得られます。

Azure Container StoragePREVIEW: ステートフルなコンテナアプリケーションのための永続的なストレージボリュームを管理します。

Azure Storage Actions: 大規模にストレージデータ管理タスクを簡素化します。

Virtual Desktop Infrastructure - Azure Services | Microsoft Azure

Azure Lab Services: Set up labs for education, training, and other related scenarios.

Azure Virtual Desktop: Enable a more secure, remote desktop experience from anywhere.


Azure Lab Services: 教育、トレーニング、および関連するシナリオのためのラボを設定します。

Azure Virtual Desktop: どこからでもより安全なリモートデスクトップ体験を可能にします。

Web Applications | Microsoft Azure

App Service: Build on a fully-managed platform to develop and deploy web apps at any scale using .Net Core, Java, Docker, Node.js, and more. Launch websites quickly, with broad CMS support from the Azure Marketplace. Accelerate your feature updates using built-in CI/CD.

Content Delivery Network: Accelerate the delivery of high-bandwidth content—from applications and stored content to streaming video—to customers worldwide.

Media Services: Encode, store, and stream video and audio at scale. Deliver broadcast and over-the-top (OTT) video. Use media analytics to gain insights about video files.

Azure AI Search: Implement a fully-managed search service that helps you avoid issues with index corruption, scaling, service availability, and service.

Azure SignalR Service: Add real-time functionality to your web app, such as chat room, co-authoring, live dashboard, and instant broadcasting.

Azure Maps: Add maps, search, routing, and current traffic conditions to your apps with geospatial services.

Azure DNS: Ensure ultra-fast DNS responses and ultra-high availability for all your domain needs.

Application Gateway: Optimize delivery from application server farms while increasing application security with a web application firewall.

Azure Web PubSub: Easily build real-time messaging web applications using WebSockets and the publish-subscribe pattern.

Azure Load Testing: Optimize app performance at scale with a specialized load testing service built for Azure.


App Service: 完全に管理されたプラットフォーム上で構築し、.Net Core、Java、Docker、Node.jsなどを使用して任意の規模でWebアプリを開発およびデプロイします。Azure Marketplaceからの幅広いCMSサポートを備えて、迅速にWebサイトを立ち上げます。組み込みのCI/CDを使用して機能更新を加速します。

Content Delivery Network: アプリケーションおよび保存されたコンテンツからストリーミングビデオまで、高帯域幅のコンテンツの配信を世界中の顧客に向けて加速します。

Media Services: 大規模にビデオおよびオーディオをエンコード、保存、およびストリーミングします。放送およびOTTビデオを配信します。ビデオファイルに関する洞察を得るためのメディアアナリティクスを使用します。

Azure AI Search: インデックスの破損、スケーリング、サービスの可用性、およびサービスに関する問題を回避するのに役立つ、完全に管理された検索サービスを実装します。

Azure SignalR Service: チャットルーム、共同作成、ライブダッシュボード、即時放送など、Webアプリにリアルタイム機能を追加します。

Azure Maps: 地理空間サービスを使用して、アプリに地図、検索、ルーティング、現在の交通状況を追加します。

Azure DNS: あらゆるドメインニーズに対して超高速DNS応答と超高可用性を保証します。

Application Gateway: アプリケーションサーバーファームからの配信を最適化し、Webアプリケーションファイアウォールでアプリケーションのセキュリティを高めます。

Azure Web PubSub: WebSocketsとパブリッシュ-サブスクライブパターンを使用して、リアルタイムメッセージングWebアプリケーションを簡単に構築します。

Azure Load Testing: Azure用に構築された専門の負荷テストサービスを使用して、スケールでアプリケーションのパフォーマンスを最適化します。

Cohere: The leading AI platform for enterprise まとめ

overview

Cohere | The leading AI platform for enterprise

  • Founding: Founded in 2019 by Aidan Gomez, Ivan Zhang, and Nick Frosst.
  • Headquarters: Based in Toronto and San Francisco, with offices in Palo Alto and London.
  • Key Milestones: Launched a multilingual model in 2022, partnered with Oracle in 2023, and signed voluntary AI safety measures in 2023.
  • Products: Specializes in generative AI for enterprises, offering technology for chatbots, search engines, and more.
  • Funding: Raised $40 million in Series A in 2021, $125 million in Series B in 2022, and $270 million in Series C in 2023.

  • 創設: 2019年にAidan Gomez、Ivan Zhang、Nick Frosstによって設立されました。
  • 本社: トロントとサンフランシスコに拠点を置き、パロアルトとロンドンにオフィスがあります。
  • 主要なマイルストーン: 2022年に多言語モデルを発売、2023年にオラクルと提携、2023年に自発的なAI安全対策に署名。
  • 製品: 企業向けの生成AIを専門とし、チャットボット、検索エンジンなどの技術を提供しています。
  • 資金調達: 2021年にシリーズAで4000万ドル、2022年にシリーズBで1億2500万ドル、2023年にシリーズCで2億7000万ドルを調達。

about

  • Mission and Operations: Cohere is focused on advancing language AI for developers and enterprises, aiming to harness its power for valuable products and solutions.
  • Foundation on Research: Emphasizes the synergy between research and product development for a future where technology can effectively understand and use language.
  • Technology and Innovation: Uses Transformer architecture and supercomputing to develop sophisticated NLP solutions without costly ML development.
  • Expert Team: A dedicated team of experts aims to revolutionize business operations and maximize potential through language AI applications.
  • Commitment to Improvement: Comprised of ML/AI engineers, thinkers, and champions, committed to exploring language AI's potential to better the world.
  • Support and Recognition: Supported by founders, leaders, and investors, including Geoffrey Hinton, recognizing the impact of large language models on human communication.

  • ミッションと運営: 開発者と企業向けに言語AIの進歩に焦点を当てており、価値ある製品と解決策を提供するための力を活用することを目指しています。

  • 研究に基づく: 研究と製品開発のシナジーを強調し、技術が人間のように言語を理解し使用できる未来を実現することが重要です。
  • 技術とイノベーション: トランスフォーマーアーキテクチャとスーパーコンピューティングを使用して、高価なML開発を必要としない洗練されたNLPソリューションを開発します。
  • 専門家チーム: 言語AIアプリケーションを通じてビジネス運営を革命し、潜在能力を最大限に引き出すことを目指す専門家チーム。
  • 改善へのコミットメント: ML/AIエンジニア、思想家、チャンピオンで構成され、言語AIの可能性を探求し世界をより良くすることにコミットしています。
  • サポートと認識: ジェフリー・ヒントンを含む創設者、リーダー、投資家によるサポートを受け、大規模な言語モデルが人間のコミュニケーションの理解に与える影響を認識しています。

products

model/commands

Command Model: The AI-Powered Solution for the Enterprise | Cohere

  • Title: Command
  • Summarize: Command is a multifunctional tool designed to help with writing product descriptions, drafting emails, suggesting press releases, and more. It provides detailed document analysis, enabling users to categorize documents, extract information, or answer questions about them. This can significantly save time, especially when dealing with large volumes of documents. Users are encouraged to create an account with Cohere to leverage Command's capabilities to streamline their document-related tasks.

  • タイトル: コマンド

  • 要約: コマンドは、製品説明の作成、メールの下書き、プレスリリースの提案など、様々なタスクを支援するために設計された多機能ツールです。詳細な文書分析を提供し、ユーザーが文書をカテゴリー分けしたり、情報を抽出したり、それについての質問に答えたりすることを可能にします。これは、特に大量の文書を扱う際に、時間を大幅に節約することができます。ユーザーは、文書関連のタスクを効率化するために、コヒアでアカウントを作成し、コマンドの機能を活用することが奨励されています。

model/embed

Embed

Title: Enhancing Embedding Performance with "Embed"

Summary:

  • Leading Embedding Performance: Embed is designed to excel in embedding performance, especially in processing noisy data, ensuring high accuracy across complex datasets.
  • Benefits for Retrieval-Augmented Generation (RAG): Improves RAG systems by enhancing search efficiency and accuracy, thus saving computational resources.
  • Applications of Embed:
    • Semantic Search: Facilitates searches by meaning, improving context and user intent recognition.
    • Retrieval-Augmented Generation: Boosts RAG systems with a high-performance model tailored for search.
    • Clustering: Aids in organizing text archives by grouping similar texts, revealing common patterns.
    • Text Classification: Enables automatic text categorization for specific actions or routing.
    • Language Models for Semantic Search: Integrates with various vector databases for enhanced semantic search.

Note: The Cohere Team announced the availability of Cohere’s Embed and Command Light Models with Fine-tuning on Amazon Bedrock on November 30, 2023, inviting users to explore these tools for their needs.

タイトル: "Embed"で埋め込み性能を向上させる

要約:

  • 埋め込み性能のリード: Embedは、特にノイズの多いデータの処理に優れ、複雑なデータセット全体で高い精度を保証するよう設計されています。
  • 検索強化生成(RAG)のための利点: 検索の効率と精度を高めることでRAGシステムを改善し、計算リソースを節約します。
  • Embedのアプリケーション:
    • セマンティック検索: 意味に基づく検索を容易にし、コンテキストとユーザーの意図の認識を改善します。
    • 検索強化生成: 検索用に特別に調整された高性能モデルでRAGシステムを強化します。
    • クラスタリング: 類似のテキストをグループ化してテキストアーカイブを整理し、共通のパターンを明らかにするのに役立ちます。
    • テキスト分類: 特定のアクションやルーティングのためのテキストの自動分類を可能にします。
    • セマンティック検索のための言語モデル: 拡張されたセマンティック検索機能のために、さまざまなベクトルデータベースと統合して使用できます。

注意: Cohereチームは2023年11月30日に、Amazon BedrockでのCohereのEmbedおよびCommand Lightモデルのファインチューニングの利用可能性を発表し、ユーザーにこれらのツールを自分のニーズに合わせて探求するよう呼びかけました。

Coral | Cohere

Title: Coral

  • Coral Introduction: A conversational AI toolkit for enterprises to develop RAG-enabled knowledge assistants.
  • Support for Employees and Customers: Makes enterprise data accessible and useful for both employees and customers.
  • Integration with Data Sources: Can integrate with over 100 data sources, including CRMs, collaboration tools, and databases.
  • Enhancement of Team Productivity: Aims to enhance team productivity through tailored knowledge assistants.
  • Data Security and Privacy: Offers deployment options through cloud services or virtual private clouds for enterprise security.
  • Core Model: Cohere's Command model, a top-performing generative model updated weekly.
  • Verifiable Responses: Features for verifiable responses with citations for sourced information.
  • Customization Capability: Allows businesses to augment the AI's knowledge with their specific data.
  • Open Beta: Coral is in open beta, inviting organizations for large-scale project development.

タイトル: コーラル

  • コーラル紹介: 企業がRAG(取得拡張生成)対応の知識アシスタントを開発するための会話型AIツールキット。
  • 従業員と顧客へのサポート: 従業員と顧客の両方にとって企業データをアクセスしやすく、有用なものにする。
  • データソースとの統合: CRM、コラボレーションツール、データベースなど100を超えるデータソースと統合可能。
  • チーム生産性の向上: テーラーメイドの知識アシスタントを通じてチームの生産性を向上させることを目指す。
  • データのセキュリティとプライバシー: 企業のセキュリティ基準を満たすためのクラウドサービスまたは仮想プライベートクラウドを通じた展開オプションを提供。
  • コアモデル: Cohereのコマンドモデル、週に一度更新される最高性能の生成モデル。
  • 検証可能なレスポンス: 出所のある情報に対する引用を表示できるAPIを含む検証可能なレスポンスの機能。
  • カスタマイズ能力: 特定のデータでAIの知識を増強することで、ビジネスがより関連性の高い正確なアシスタントを作ることを可能にする。
  • オープンベータ: コーラルはオープンベータ中で、大規模プロジェクトの開発に向けて組織を招待している。

Chat | Cohere

  • Title: Chat with Retrieval-Augmented Generation (RAG) Introduction
  • Summary:

    • Advanced Conversational Knowledge Assistants: Integration of chat with RAG to automate tasks and provide answers by connecting to data sources.
    • Diverse Applications: Support for customer service and personalized learning through dynamic content.
    • Ease of Use: Cohere's Command model offers a simple API for all levels of ML/AI experience.
    • Practical Implementation: Example code for implementing chat with web search connectors.
    • Further Resources: Encouragement to explore documentation and the announcement of Chat with RAG.
  • タイトル: チャットと検索拡張生成(RAG)の導入

  • 要約:
    • 高度な会話型知識アシスタント: データソースに接続してタスクを自動化し、回答を提供するためのチャットとRAGの統合。
    • 多様なアプリケーション: カスタマーサービスサポートと動的なコンテンツを通じたパーソナライズされた学習体験。
    • 使いやすさ: すべてのML/AI経験レベルに対応する簡単なAPIを提供するCohereのコマンドモデル。
    • 実践的な実装: ウェブ検索コネクタを用いたチャット実装の例示コード。
    • さらなるリソース: ドキュメントの探求を奨励し、RAGを用いたチャットの導入を発表。

Summarize - Instant Text Summarization with LLMs | Cohere

Title: Integration of Cohere's Language AI with Amazon SageMaker

Summarize:

  • Capabilities: SummarizeNews articles offer insights across various industries, aiming for high-level task focus. Cohere's API simplifies text summarization in applications.
  • Partnership Benefits: The Cohere and Amazon SageMaker partnership enhances ML model deployment, focusing on language tasks like summarization and copywriting.
  • Cohere's Medium Model: Known for quick response and efficiency in language tasks, accessible via SageMaker for fast deployment and privacy.
  • Advancement in NLP: Represents a significant leap in natural language processing, providing a model that deeply understands context and semantics.

タイトル: Cohereの言語AIとAmazon SageMakerの統合

要約:

  • 機能: SummarizeNewsの記事は、さまざまな業界にわたる洞察を提供し、高レベルのタスクに焦点を当てることを目指しています。CohereのAPIは、アプリケーションでのテキスト要約を簡素化します。
  • パートナーシップの利点: CohereとAmazon SageMakerのパートナーシップは、要約やコピーライティングなどの言語タスクに焦点を当てたMLモデルの展開を強化します。
  • Cohereのミディアムモデル: 言語タスクでの迅速な対応と効率で知られており、迅速な展開とプライバシーのためにSageMakerを通じてアクセス可能です。
  • NLPの進歩: 自然言語処理において重要な進歩を代表し、文脈と意味論を前例のないレベルで深く理解するモデルを提供します。

Generate - AI-Powered Text Generation with LLMs | Cohere

Title: "Generate" by Cohere

Summary:

  • Ad Copy Generation: Engages customers with creative ad content.
  • Blog Content Creation: Effortlessly produces content based on topics and prompts.
  • Product Descriptions: Generates unique descriptions for numerous SKUs matching the brand's voice.
  • User-Friendly Platform: Accessible to all levels of ML/AI experience, with simple API integration.
  • Content Creativity and Simplification: Offers resources and documentation for easy text generation integration.
  • Support for Developers and Businesses: Articles discussing the use of large language models and generative AI services.
  • Invitation to Use Cohere: Encourages starting with Cohere for text generation needs, highlighting the commitment to content creativity.

タイトル: "Generate" by Cohere

要約:

  • 広告コピー生成: 顧客を引きつける創造的な広告コンテンツを生成。
  • ブログコンテンツ作成: トピックとプロンプトに基づいて、労力をかけずにコンテンツを生産。
  • 製品説明: ブランドの声に合った数多くのSKUのためのユニークな説明を生成。
  • ユーザーフレンドリーなプラットフォーム: すべてのレベルのML/AI経験にアクセスしやすい、簡単なAPI統合。
  • コンテンツ創造性と簡素化: テキスト生成統合を容易にするためのリソースとドキュメンテーションを提供。
  • 開発者とビジネスへのサポート: 大規模言語モデルの使用と生成AIサービスの可能性について議論する記事。
  • Cohereの使用への招待: テキスト生成のニーズに対するCohereの開始を促し、コンテンツ創造性へのコミットメントを強調。

Embeddings - Text Embeddings with Advanced Language Models | Cohere

  • Title: "Embeddings"

  • Semantic Search: Enhances search functionalities with conversational language understanding.

  • Topic Modeling: Clusters similar topics to identify thematic trends across text sources.
  • Recommendations: Develops a recommendation engine for more relevant user content.
  • Multilingual Embeddings: Supports over 100 languages with a single model for various applications.

The text highlights the Cohere platform's easy-to-use APIs for embedding capabilities in natural language processing tasks, accessible to all experience levels. It includes a code example for embedding FAQs, resources for further exploration, and encourages contacting Cohere for embedding needs.


  • タイトル: "エンベッディング"

  • セマンティック検索: 会話言語理解で検索機能を強化します。

  • トピックモデリング: テキストソースを横断して類似トピックをクラスタリングし、テーマトレンドを特定します。
  • レコメンデーション: ユーザーにより関連性の高いコンテンツを提供する推薦エンジンを開発します。
  • 多言語エンベッディング: 100以上の言語に対応し、さまざまなアプリケーションでトピックモデリング、セマンティック検索、レコメンデーションをサポートします。

テキストでは、自然言語処理タスクにおけるエンベッディング機能のCohereプラットフォームのAPIの使いやすさとパワーを強調し、すべての経験レベルのユーザーにアクセス可能です。FAQのエンベッディングのためのコード例を含み、さらに探求するためのリソースを紹介し、エンベッディングのニーズについてCohereに連絡することを奨励しています。

Semantic Search - Advanced Semantic Search for Any Language | Cohere

  • Title: Semantic Search
  • Summary:

    • Introduction to Semantic Search: A method that goes beyond keyword matching to understand the meaning behind text, using vector search in English and multiple languages for more relevant results.
    • Cohere's Platform: Offers high-performance multilingual search capabilities, enabling global scaling for businesses by providing search results in any language. It's user-friendly for all levels of ML/AI experience.
    • Practical Implementation: A guide on implementing semantic search with Python using Cohere's API and HNSWlib, including steps for installing libraries, generating document embeddings, and creating/searching an index.
    • Resources and Encouragement: Mention of resources for further learning about semantic search, including documentation and an article by Nils Reimers. Encourages getting started with Cohere for search needs.
  • タイトル: セマンティック検索

  • 要約:
    • セマンティック検索の紹介: キーワードマッチングを超えてテキストの背後にある意味を理解し、より関連性の高い結果を提供する方法。英語および複数の言語でのベクター検索を使用します。
    • Cohereのプラットフォーム: 高性能な多言語検索機能を提供し、任意の言語での検索結果を提供することで、ビジネスのグローバルな拡大を支援します。ML/AI経験のレベルに関係なくユーザーフレンドリーです。
    • 実用的な実装: CohereのAPIとHNSWlibを使用してPythonでセマンティック検索を実装するガイド。ライブラリのインストール、ドキュメントの埋め込みの生成、インデックスの作成/検索などのステップを含みます。
    • リソースと奨励: セマンティック検索についてさらに学ぶためのリソース、Nils Reimersによるセマンティック検索の未来に関する記事の言及。検索ニーズにCohereを使い始めることを奨励します。

Rerank - Optimize Your Search With One Line of Code | Cohere

Title: Rerank

Summarize:

  • Improve search results: Rerank significantly enhances search precision, especially when used with ElasticSearch or OpenSearch, by accurately understanding and prioritizing relevant information.
  • Optimize eCommerce search: Boosts customer conversion rates by improving search accuracy and offering lightning-fast response times.
  • Boost knowledge base search: Eliminates user frustration and wasted time by ensuring semantic context is always correctly interpreted.
  • Easy and quick implementation: Implementing Rerank can be as simple as a ten-minute process and requires only a few lines of code, demonstrating its ease of integration and use.

タイトル: リランク

要約:

  • 検索結果の改善: 特にElasticSearchやOpenSearchと統合した場合に、リランクは検索の精度を大幅に向上させ、関連情報を正確に理解し優先させることで、効果的に情報をフィルタリングします。
  • eコマース検索の最適化: 検索精度を向上させ、応答時間を短縮することで、顧客のコンバージョン率を高めます。
  • ナレッジベース検索の強化: セマンティックコンテキストが常に正しく解釈されることを保証することで、ユーザーのフラストレーションと時間の浪費を排除します。
  • 簡単かつ迅速な実装: リランクの実装は、わずか10分と数行のコードで可能であり、統合と使用の容易さを示しています。

Classify - Advanced Text Classification with LLMs | Cohere

Title: "Classify"

  • Customer Support Tagging: Automates tagging of customer support requests for quicker team routing.
  • Sentiment Analysis: Identifies social media post and review sentiments to improve customer feedback understanding.
  • Content Moderation: Removes hate speech, spam, profanity, and other unwanted content using user-set filters.

Classify, through the Cohere Platform, offers a user-friendly approach to text classification, regardless of one's experience with ML/AI. It provides practical examples of using the Cohere API for efficient sentiment analysis, demonstrating its capability to deliver highly confident predictions. The text also points to additional resources for deeper insights into Classify's applications for text embedding, classification, and extraction, encouraging users and organizations to leverage this technology for better customer support and content management.

タイトル: "Classify"

  • カスタマーサポートタギング: カスタマーサポートリクエストのタギングを自動化して、チームへの迅速なルーティングを実現します。
  • センチメント分析: ソーシャルメディアの投稿やレビューの感情を特定し、顧客フィードバックの理解を深めます。
  • コンテンツモデレーション: ユーザーが設定した基準に基づき、ヘイトスピーチ、スパム、不適切な言葉遣い、その他望ましくないコンテンツを除外します。

Classifyは、Cohereプラットフォームを通じて、ML/AIの経験レベルに関わらず、テキスト分類をユーザーフレンドリーな方法で提供します。Cohere APIを使用したセンチメント分析の実用例を提供し、高い確信度での感情予測能力を実証します。また、テキストの埋め込み、分類、抽出にClassifyを使用する利点と方法論についてさらに詳しく説明するリソースも紹介しています。このテキストは、個人や組織にCohereプラットフォームを活用し、顧客サポートとコンテンツ管理の理解と管理を向上させることを促しています。

Gradio: Build Machine Learning Web Apps — in Python まとめ

overview

Gradio

Gradio: Build Machine Learning Web Apps — in Python

  • Quickly Build Demos or Web Apps: Easily create a demo or web application for your machine learning model, API, or any arbitrary Python function.
  • Share with Ease: Utilize Gradio's built-in sharing features to distribute your demo or web application link in just a few seconds.
  • No Web Experience Required: There's no need for JavaScript, CSS, or web hosting knowledge.

グラディオ:Python機械学習ウェブアプリを構築

quick start

pip install gradio
import gradio as gr

def greet(name, intensity):
    return "Hello, " + name + "!" * int(intensity)

demo = gr.Interface(
    fn=greet,
    inputs=["text", "slider"],
    outputs=["text"],
)

demo.launch()
  • output

https://i.gyazo.com/115dac49c57ea84d90f82968468e2a49.gif

huggingface.co

playground

gyazo.com

www.gradio.app

demo list

gradio/demo at main · gradio-app/gradio

Building Generative AI Applications with Gradio | DeepLearning.AI Short Courses まとめ

overview

Building Generative AI Applications with Gradio

  • Title: Building Generative AI Applications with Gradio
  • Summary: A collaborative short course by Apolinário Passos from Hugging Face, teaching rapid development of machine learning applications.
  • Learn how to:
    • Create user-friendly apps for image generation, image captioning, and text summarization accessible to non-coders.
    • Develop a chat interface with Falcon, the leading open-source LLM.
  • Course Features:

    • Interactive applications that can be shared on Hugging Face Spaces.
    • Target Audience: Individuals with basic Python skills.
    • Free access for a limited time during the DeepLearning.AI platform beta.
    • Promotes continuous learning in Generative AI with updates on news, courses, and events.
  • タイトル: Gradioを使った生成AIアプリケーションの構築

  • 要約: Hugging Faceのアポリナリオ・パッソスによる協力短期コースで、機械学習アプリケーションの迅速な開発を教えます。
  • 学べること:
    • ユーザーフレンドリーなアプリの作成 非コーダーでもアクセス可能な画像生成、画像キャプション作成、テキスト要約のための。
    • チャットインターフェースの開発 先頭を走るオープンソースLLMであるFalconと。
  • コースの特徴:
    • Hugging Face Spacesで共有可能なインタラクティブアプリケーション。
    • 対象者: 基本的なPythonスキルを持つ個人。
    • DeepLearning.AIプラットフォームベータ中は限定時間無料アクセス。
    • 生成AIにおける継続的な学習を促進 ニュース、コース、イベントの更新情報付き。

Introduction

Welcome to Building Generative AI Applications with Gradio: This course is a collaboration with Hugging Face, introducing Apolinario Passos (Poli) as the instructor.

Course Overview: Learn to build user interfaces for generative AI applications using Gradio, a tool for demonstrating machine learning models via a web interface in Python.

Why Use Gradio?: It allows for quick demonstration of AI applications without front-end coding, ideal for showcasing projects or gathering feedback.

Course Content: The course covers text summarization, name entity recognition, image captioning, image generation, and chatbots using Gradio.

Practical Demonstrations: Poli will guide through building and showcasing applications with Gradio, making AI projects accessible and interactive.

First Lesson Focus: The initial lesson will cover simple NLP tasks like summarization and name entity recognition.

Acknowledgments: Thanks to contributors from Hugging Face and DeepLearning.ai, including Omar Sanseviero, Pedro Cuenca, and others.

Next Steps: Invitation to proceed to the next video to start the learning journey.


グラディオを使用した生成AIアプリケーションの構築へようこそ: このコースは、Hugging Faceとのコラボレーションで、講師としてApolinario Passos(ポリ)を紹介します。

コース概要: Gradioを使用して、Pythonのウェブインターフェイス機械学習モデルをデモするためのユーザーインターフェイスを構築する方法を学びます。

グラディオの使用理由: フロントエンドのコーディングなしでAIアプリケーションを迅速にデモすることができ、プロジェクトのショーケースやフィードバックの収集に理想的です。

コース内容: テキスト要約、名前エンティティ認識、画像キャプショニング、画像生成、Gradioを使用したチャットボットを含むコースをカバーします。

実践デモンストレーション: Poliは、Gradioを使用してアプリケーションを構築し、ショーケースする方法を指導し、AIプロジェクトをアクセス可能でインタラクティブにします。

最初のレッスンの焦点: 初期レッスンは、要約と名前エンティティ認識などの単純なNLPタスクをカバーします。

謝辞: Hugging FaceおよびDeepLearning.aiからの貢献者、Omar Sanseviero、Pedro Cuencaなどに感謝します。

次のステップ: 学習の旅を始めるために、次のビデオに進むように招待します。

lesson 1: NLP tasks with a simple interface

Building Two NLP Apps with Gradle: In the first lesson, we'll create a text summarization app and a named entity recognition app using Gradle.

Why User Interfaces Matter: Providing a user interface makes it easier for teams or communities to engage with your models without coding.

Choosing the Right Model: Specialist models can be as effective as general-purpose models for tasks like summarization, offering cost and speed benefits.

Setting Up and Summarization: We'll set up our API key and use a Distill BART CNN model for summarizing text, showcasing its efficiency and accuracy.

Gradle for User-Friendly Demos: By integrating Gradle, we can transform code into interactive apps, making our models accessible to non-coders.

Enhancing the User Experience: We'll customize our Gradle apps to improve clarity and usability, including modifying input/output labels and text field sizes.

Named Entity Recognition App: The next app will use a BERT model fine-tuned for named entity recognition, identifying entities like locations and organizations.

Simplifying Output with Gradle: Gradle's interface will be used to present named entity recognition results in a user-friendly format, including highlighted text.

Token Management for Clarity: We'll merge tokens for a clearer presentation of entities, enhancing the app's usability for end-users.

Encouragement to Experiment: Users are encouraged to test the models with their own text to explore the apps' functionalities.

Gradle Management: Tips on managing multiple Gradle apps and closing ports to maintain system efficiency.

Preview of Next Lesson: Introduction to building an image captioning app, expanding beyond text input to include image analysis.


Gradleを使用した2つのNLPアプリの構築: 最初のレッスンでは、Gradleを使用してテキスト要約アプリと名前付きエンティティ認識アプリを作成します。

ユーザーインターフェースの重要性: ユーザーインターフェースを提供することで、コーディングなしでモデルをチームやコミュニティが簡単に利用できるようになります。

適切なモデルの選択: 要約のようなタスクには、専門モデルが汎用モデルと同じくらい効果的であり、コストと速度の利点を提供します。

設定と要約: APIキーを設定し、テキスト要約にDistill BART CNNモデルを使用します。その効率と正確性を示します。

ユーザーフレンドリーなデモのためのGradle: Gradleを統合することで、コードをインタラクティブなアプリに変換し、モデルを非コーダーにもアクセス可能にします。

ユーザーエクスペリエンスの向上: 入出力ラベルとテキストフィールドのサイズを変更して、Gradleアプリをカスタマイズし、明確さと使いやすさを向上させます。

名前付きエンティティ認識アプリ: 次のアプリは、ロケーションや組織などのエンティティを識別するために微調整されたBERTモデルを使用します。

Gradleを使用した出力の簡素化: Gradleのインターフェイスを使用して、名前付きエンティティ認識の結果をユーザーフレンドリーな形式で提示します。

エンティティの明確な提示のためのトークン管理: エンドユーザーのためにエンティティの提示を明確にするために、トークンをマージします。

実験を促す: アプリの機能を探るために、自分のテキストでモデルをテストするようにユーザーに促します。

Gradleの管理: システム効率を維持するために、複数のGradleアプリを管理し、ポートを閉じる方法についてのヒント。

次のレッスンのプレビュー: 画像分析を含めてテキスト入力を超えて拡張する、画像キャプションアプリの構築の紹介。

lesson 2: Image captioning app

Building an Image Captioning App with BLIP: We're creating an image captioning app using the Salesforce Blip model, capable of generating captions for images.

Setting Up: Re-establish our API key and prepare helper functions, including an image-to-text endpoint for the Blip model.

Model Overview: The Blip model, trained on image-caption pairs, predicts captions for new images by learning from millions of examples.

Testing the Function: Using a URL of a free image, we demonstrate the model's capability to accurately describe an image with a caption.

Gradio Interface Creation: Guide on importing Gradio and setting up functions to convert images for the API, and to generate and return text captions.

App Structure: The app features inputs, outputs, title, description, and examples, with a unique component for uploading images.

Interactive Experience: Encouragement to upload various images, including pets or family, to see how the model describes them.

Example Demonstrations: Testing the app with different images, such as a dog in a Santa hat or a bird in flight, showcasing its accuracy and detail.

Next Steps: Introduction to the upcoming lesson on generating new images.


BLIPを使用した画像キャプションアプリの構築: Salesforce Blipモデルを使用して、画像のキャプションを生成する画像キャプションアプリを作成します。

設定: APIキーを再設定し、Blipモデル用の画像からテキストへのエンドポイントを含むヘルパー関数を準備します。

モデル概要: 画像とキャプションのペアに基づいて訓練されたBlipモデルは、数百万の例から学習することで新しい画像のキャプションを予測します。

関数のテスト: 無料画像のURLを使用して、モデルが画像を正確に説明するキャプションを生成する能力を示します。

Gradioインターフェースの作成: Gradioのインポートと、API用の画像を変換し、テキストキャプションを生成して返す関数の設定に関するガイド。

アプリ構造: 入力、出力、タイトル、説明、例を特徴とし、画像をアップロードするためのユニークなコンポーネントを持つアプリ。

インタラクティブな体験: ペットや家族の画像をアップロードして、モデルがそれらをどのように説明するかを見るための奨励。

例のデモンストレーション: サンタ帽子をかぶった犬や飛行中の鳥など、さまざまな画像をアプリでテストし、その正確さと詳細を示します。

次のステップ: 新しい画像を生成する方法を学ぶ次のレッスンの紹介。

lesson 3: Image generation app

Creating an Image Generation App with Stable Diffusion: We're developing an app that generates images from text descriptions using the Stable Diffusion model via an API connection.

API Setup and Model Introduction: Setting up our API key and introducing the text-to-image endpoint for the Stable Diffusion model, which generates images based on text descriptions.

Testing the Model: Demonstrating the model's capability to create images from descriptions, showing its effectiveness.

Building the Gradio App: Constructing a Gradio application that takes text prompts and returns generated images, with helper functions for API interaction.

Interface and Functionality: The app's interface features text input for prompts and image output for generated visuals, with examples to demonstrate its capabilities.

Exploring Creative Prompts: Encouraging experimentation with various prompts, including imaginative scenarios or everyday objects, to explore the model's creative potential.

Enhancing User Experience with Advanced Options: Introducing additional parameters like negative prompts and inference steps to refine image generation, demonstrated through a more detailed UI.

Introducing Gradio Blocks for Custom UI: Transitioning to Gradio Blocks for a customizable user interface, allowing for more complex layouts and better element organization.

Experimentation with UI Elements: Encouraging users to experiment with Gradio Blocks by adjusting the layout and exploring advanced UI elements like sliders and accordions for a more engaging experience.

Preview of Next Lesson: Announcing a game that integrates both image-to-text and text-to-image models, combining their functionalities into a singular application.


テキストから画像を生成するアプリの作成: Stable DiffusionモデルをAPI経由で接続し、テキストの説明から画像を生成するアプリを開発します。

API設定とモデル紹介: APIキーの設定と、テキスト説明に基づいて画像を生成するStable Diffusionモデルのテキストから画像へのエンドポイントの紹介。

モデルのテスト: 説明から画像を作成するモデルの能力を示し、その有効性を示します。

Gradioアプリの構築: テキストプロンプトを受け取り、生成された画像を返すGradioアプリケーションを構築し、APIとのやり取りのためのヘルパー関数を用意します。

インターフェイスと機能性: アプリのインターフェイスは、プロンプトのためのテキスト入力と、生成されたビジュアルのための画像出力を特徴とし、その能力を示す例を提供します。

創造的なプロンプトの探求: モデルの創造的な可能性を探るために、想像力あふれるシナリオや日常の物体など、さまざまなプロンプトでの実験を奨励します。

高度なオプションでユーザー体験を向上: 画像生成を洗練させるために、ネガティブプロンプトや推論ステップなどの追加パラメータを紹介し、より詳細なUIを通じてデモンストレーションします。

カスタムUIのためのGradioブロックの紹介: より複雑なレイアウトと要素のより良い組織化を可能にするカスタマイズ可能なユーザーインターフェイスのために、Gradioブロックへの移行。

UI要素での実験: レイアウトの調整や、より魅力的な体験のためにスライダーやアコーディオンなどの高度なUI要素を探ることにより、Gradioブロックでの実験をユーザーに奨励します。

次のレッスンのプレビュー: 画像からテキスト

へ、そしてテキストから画像へのモデルの機能を組み合わせた単一のアプリケーションに統合するゲームを発表します。

lesson 4: Describe-and-Generate game

Combining Text-to-Image and Image-to-Text into a Fun Game: We're merging our skills in text-to-image and image-to-text to create an engaging app that iterates between captioning images and generating images from captions.

Recap of Previous Lessons: Overview of building NLP, captioning, and text-to-image applications using Gradio.

Game Concept: Starting with an image captioning process, followed by generating a new image from the produced caption, creating a loop of image and text transformation.

Implementation with Gradio Blocks: Utilizing Gradio blocks to craft an app with functionalities for uploading images, generating captions, and then creating images from those captions.

Step-by-Step Process: Instructions on building the app, including importing necessary functions, setting up Gradio, and outlining the flow from image upload to caption generation to image generation.

Streamlined versus Detailed Interaction: Discussion on preferences between a more streamlined single-function interaction versus a detailed step-by-step process with multiple buttons.

Encouragement to Experiment: Inviting users to experiment with the app by uploading various images, generating captions, and seeing how the model interprets and transforms these inputs.

Preview of Next Lesson: Introduction to building a chatbot app using a state-of-the-art large language model, continuing the exploration of AI's capabilities.


テキストから画像へ、画像からテキストへの楽しいゲームの組み合わせ: テキストから画像へ、画像からテキストへのスキルを組み合わせて、画像のキャプション付けとキャプションから画像を生成するプロセスを繰り返す魅力的なアプリを作成します。

前回のレッスンの振り返り: Gradioを使用してNLP、キャプション作成、テキストから画像へのアプリケーションを構築する概要。

ゲームコンセプト: 画像のキャプション付けプロセスから始め、そのキャプションから新しい画像を生成し、画像とテキストの変換ループを作成します。

Gradioブロックを利用した実装: 画像のアップロード、キャプションの生成、そしてそれらのキャプションから画像を生成する機能を備えたアプリを作るためにGradioブロックを使用。

ステップバイステッププロセス: 必要な関数のインポート、Gradioのセットアップ、画像アップロードからキャプション生成、画像生成へのフローを概説する指示。

シンプルな対話と詳細な対話の選択: よりシンプルな単一機能の対話と、複数のボタンを使用した詳細なステップバイステッププロセスの間の好みについての議論。

実験への奨励: 様々な画像をアップロードし、キャプションを生成し、モデルがこれらの入力をどのように解釈し変換するかを見るためにアプリでの実験をユーザーに促します。

次のレッスンのプレビュー: 最先端の大規模言語モデルを使用したチャットボットアプリの構築について紹介し、AIの能力の探求を続けます。

lesson 5: Chat with any LLM

Building a Chatbot with an Open Source Large Language Model: In our final lesson, we're creating a chatbot application using Falcon 40B, a leading open-source LLM, to demonstrate the integration of NLP capabilities and UI design.

Overview of Previous Learnings: Summarizing our journey through building NLP applications, captioning apps, and text-to-image apps using Gradio.

Introduction to Falcon 40B: Highlighting Falcon 40B as a robust open-source LLM for building chat applications, capable of running locally or on the cloud.

Chatbot Application Development: Setting up the application with API connections for both text-to-image and image-to-text functionalities, utilizing the text generation library for seamless integration.

Gradio Interface for Chatting: Demonstrating how to create a simple yet effective chat interface using Gradio, allowing for real-time interaction with the LLM.

Enhancing User Interaction: Exploring the Gradio Chatbot component to streamline chat experiences, including maintaining conversation context for follow-up questions.

Advanced Chatbot Features: Introducing advanced options like system messages and temperature settings to customize the chatbot's responses and behavior.

Interactive Chat Experience: Showcasing the ability to stream responses for dynamic and engaging user interactions.

Encouragement for Exploration: Inviting users to experiment with the chatbot, suggesting modifications to the system message for personalized interactions or language changes.

Conclusion and Experimentation: Encouraging further exploration with the Gradio chatbot UI, emphasizing the potential for creative and customized chatbot applications.


オープンソースの大規模言語モデルを使ったチャットボットの構築: 最終レッスンでは、NLPの能力とUIデザインの統合を実演するために、Falcon 40Bという先進のオープンソースLLMを使用してチャットボットアプリケーションを作成します。

これまでの学習の概要: Gradioを使用してNLPアプリケーション、キャプションアプリ、テキストから画像へのアプリを構築する旅をまとめます。

Falcon 40Bの紹介: チャットアプリケーションを構築するための強力なオープンソースLLMとしてFalcon 40Bを強調し、ローカルまたはクラウドで実行できます。

チャットボットアプリケーションの開発: テキストから画像へ、画像からテキストへの機能のためのAPI接続を設定し、シームレスな統合のためにテキスト生成ライブラリを利用してアプリケーションをセットアップします。

チャット用Gradioインターフェース: Gradioを使用して、LLMとリアルタイムで対話できるシンプルで効果的なチャットインターフェースを作成する方法を示します。

ユーザーインタラクションの強化: フォローアップ質問のための会話コンテキストを維持することを含む、チャット体験を効率化するGradioチャットボットコンポーネントを探索します。

高度なチャットボット機能: チャットボットの応答と挙動をカスタマイズするためのシステムメッセージや温度設定などの高度なオプションを導入します。

インタラクティブなチャット体験: 動的で魅力的なユーザーインタラクションのために、レスポンスのストリーミングを実演します。

探索への奨励: システムメッセージの変更など、パーソナライズされたインタラクションや言語変更のためのチャット

ボットとの実験をユーザーに提案します。

結論と実験: クリエイティブでカスタマイズされたチャットボットアプリケーションの可能性を強調しながら、GradioチャットボットUIでのさらなる探索を奨励します。