kaeken(嘉永島健司)のTech探究ブログ

主に情報科学/情報技術全般に関する知見をポストします。(最近は、特にData Science、機械学習、深層学習、統計学、Python、数学、ビッグデータ)

Azure Products 一覧まとめ

overview

Azure Products – Browse by Category | Microsoft Azure

AI + Machine Learning: Create the next generation of applications with artificial intelligence capabilities for all developers and scenarios.

Analytics: Gather, store, process, analyze, and visualize data of any variety, volume, or velocity.

Compute: Access cloud compute capacity and scale on demand, paying only for the resources used.

Containers: Develop and manage containerized applications more quickly with integrated tools.

Databases: Support rapid growth and innovate faster with secure, enterprise-grade, fully managed database services.

Developer Tools: Build, manage, and continuously deliver cloud applications using any platform or language.

DevOps: Deliver innovation faster with simple, reliable tools for continuous delivery.

Hybrid + Multicloud: Get Azure innovation everywhere, bringing the agility and innovation of cloud computing to on-premises workloads.

Identity: Manage user identities and access to protect against advanced threats across devices, data, apps, and infrastructure.

Integration: Seamlessly integrate on-premises and cloud-based applications, data, and processes across your enterprise.

Internet of Things: Connect assets or environments, discover insights, and drive informed actions to transform your business.

Management and Governance: Simplify, automate, and optimize the management and compliance of your cloud resources.

Media: Deliver high-quality video content anywhere, any time, and on any device.

Migration: Simplify and accelerate your migration to the cloud with guidance, tools, and resources.

Mixed Reality: Blend your physical and digital worlds to create immersive, collaborative experiences.

Mobile: Build and deploy cross-platform and native apps for any mobile device.

Networking: Connect cloud and on-premises infrastructure and services to provide the best possible experience for your customers and users.

Security: Protect your enterprise from advanced threats across hybrid cloud workloads.

Storage: Get secure, massively scalable cloud storage for your data, apps, and workloads.

Virtual Desktop Infrastructure: Empower employees to work securely from anywhere with a cloud-based virtual desktop infrastructure.

Web: Build, deploy, and scale powerful web applications quickly and efficiently.


AI + Machine Learning: すべての開発者とシナリオのための人工知能機能を使用して、次世代のアプリケーションを作成します。

Analytics: あらゆる種類、ボリューム、または速度のデータを収集、保存、処理、分析し、可視化します。

Compute: 需要に応じてクラウドコンピューティング容量にアクセスし、使用したリソースにのみ料金を支払います。

Containers: 統合ツールを使用して、コンテナ化されたアプリケーションをより迅速に開発および管理します。

Databases: 安全でエンタープライズグレードの完全に管理されたデータベースサービスで、迅速な成長をサポートし、より速くイノベーションを実現します。

Developer Tools: 任意のプラットフォームまたは言語を使用して、クラウドアプリケーションを構築、管理、継続的に提供します。

DevOps: シンプルで信頼性の高いツールを使用して、より速くイノベーションを提供します。

Hybrid + Multicloud: Azureのイノベーションをどこにでも持ち込み、オンプレミスのワークロードにクラウドコンピューティングの俊敏性とイノベーションを提供します。

Identity:バイス、データ、アプリケーション、およびインフラストラクチャ全体の高度な脅威から保護するために、ユーザーのアイデンティティとアクセスを管理します。

Integration: エンタープライズ全体でオンプレミスおよびクラウドベースのアプリケーション、データ、およびプロセスをシームレスに

統合します。

Internet of Things: 資産または環境を接続し、洞察を発見し、ビジネスを変革するための情報に基づいたアクションを推進します。

Management and Governance: クラウドリソースの管理とコンプライアンスを簡素化、自動化、および最適化します。

Media: どこでも、いつでも、どのデバイスでも、高品質のビデオコンテンツを配信します。

Migration: ガイダンス、ツール、およびリソースを提供して、クラウドへの移行を簡素化および加速します。

Mixed Reality: 物理的およびデジタルの世界を融合させ、没入型のコラボレーション体験を作成します。

Mobile: 任意のモバイルデバイスのためのクロスプラットフォームおよびネイティブアプリを構築および展開します。

Networking: お客様とユーザーに最高のエクスペリエンスを提供するために、クラウドおよびオンプレミスのインフラストラクチャとサービスを接続します。

Security: ハイブリッドクラウドワークロード全体で企業を高度な脅威から保護します。

Storage: データ、アプリケーション、およびワークロードのための安全で大規模にスケーラブルなクラウドストレージを取得します。

Virtual Desktop Infrastructure: クラウドベースの仮想デスクトップインフラストラクチャで、従業員がどこからでも安全に働けるようにします。

Web: 強力なWebアプリケーションを迅速かつ効率的に構築、展開、およびスケーリングします。

products

AI and Machine Learning - Azure Services | Microsoft Azure

Azure AI Metrics Advisor: Find an AI service that monitors metrics and diagnoses issues.

Azure AI Content Safety: Keep your content safer with better online experiences.

Azure AI Video Indexer: Easily extract meaningful insights from audio and video files using media AI.

Azure AI Bot Service: Create bots and connect them across channels.

Azure AI Search: Find insights using enterprise-scale search for app development.

Azure Databricks: Design AI with Apache Spark™-based analytics.

Azure Machine Learning: Use an enterprise-grade service for the end-to-end machine learning lifecycle.

Azure AI Services: Add cognitive capabilities to apps with APIs and AI services.

Azure AI Immersive Reader: Empower users of all ages and abilities to read and comprehend text.

AI Anomaly Detector: Easily add anomaly detection capabilities to your apps.

Azure OpenAI Service PREVIEW: Apply advanced coding and language models to a variety of use cases.

Content Moderator: Automate content moderation for image, text, and video.

Azure AI Custom Vision: Easily customize your own state-of-the-art computer vision models for your unique use case.

Azure AI Document Intelligence: Use an AI-powered document extraction service that understands your forms.

AI Language: Add natural language capabilities with a single API call.

Azure AI Personalizer: Deliver personalized, relevant experiences for each of your users.

Azure AI Speech: Create voice-enabled applications using SDK tailored to your needs.

Azure AI Translator: Easily conduct machine translation with a simple REST API call.

Azure AI Vision: Analyze images, read text, and detect faces with vision AI-powered capabilities.

Health Bot: Develop virtual healthcare assistants using a managed service purpose-built for their development.

Kinect DK: Build for mixed reality using AI sensors.

Microsoft Genomics: Power genome sequencing and research insights.


Azure AI Metrics Advisor: メトリックを監視し、問題を診断するAIサービスを見つけます。

Azure AI Content Safety: より良いオンライン体験でコンテンツを安全に保ちます。

Azure AI Video Indexer: メディアAIを使用して、オーディオおよびビデオファイルから意味のある洞察を簡単に抽出します。

Azure AI Bot Service: ボットを作成し、チャネル間で接続します。

Azure AI Search: アプリ開発のためのエンタープライズスケールの検索を使用して洞察を見つけます。

Azure Databricks: Apache Spark™ベースの分析でAIを設計します。

Azure Machine Learning: エンドツーエンドのマシンラーニングライフサイクルのためのエンタープライズグレードサービスを使用します。

Azure AI Services: APIとAIサービスでアプリに認知能力を追加します。

Azure AI Immersive Reader: すべての年齢と能力のユーザーがテキストを読んで理解できるようにします。

AI Anomaly Detector: アプリに異常検出機能を簡単に追加します。

Azure OpenAI Service PREVIEW: 様々なユースケースに高度なコーディングと言語モデルを適用します。

Content Moderator: 画像、テキスト、ビデオのコンテンツモデレーションを自動化します。

Azure AI Custom Vision: 独自のユースケースに最適な最先端のコンピュータビジョンモデルを簡単にカスタマイズします。

Azure AI Document Intelligence: フォームを理解するAI駆動のドキュメント抽出サービスを使用します。

AI Language: 単一のAPIコールで自然言語能力を追加します。

Azure AI Personalizer: 各ユーザーにパーソナライズされた、関連性の高い体験を提供します。

Azure AI Speech: 必要に応じたSDKを使用して、音声対応アプリ

ケーションを作成します。

Azure AI Translator: 単純なREST APIコールで機械翻訳を簡単に実施します。

Azure AI Vision: 視覚AIの能力で画像を分析し、テキストを読み取り、顔を検出します。

Health Bot: 専用の管理サービスを使用して、仮想のヘルスケアアシスタントを開発します。

Kinect DK: AIセンサーを使用してミックスドリアリティのために構築します。

Microsoft Genomics: ゲノム配列決定と研究の洞察を強化します。

Azure Analytics Services | Microsoft Azure

Azure Synapse Analytics: Limitless analytics with unmatched time to insight.

Azure Databricks: A fully managed, fast, easy, and collaborative Apache® Spark™ based analytics platform optimized for Azure.

HDInsight: A fully managed cloud Hadoop and Spark service backed by a 99.9% SLA for your enterprise.

Azure Data Factory: A data integration service to orchestrate and automate data movement and transformation.

Azure Machine Learning: Open and elastic AI development spanning the cloud and the edge.

Azure Stream Analytics: Real-time data stream processing from millions of IoT devices.

Data Lake Analytics: A fully managed on-demand pay-per-job analytics service with enterprise-grade security, auditing, and support.

Azure Analysis Services: Enterprise-grade analytics engine as a service.

Event Hubs: A hyper-scale telemetry ingestion service that collects, transforms, and stores millions of events.

Azure Data Explorer: Fast and highly scalable data exploration service.

Azure Data Share: A simple and safe service for sharing big data with external organizations.

Azure Time Series Insights: End-to-end IoT analytics platform to monitor, analyze, and visualize your industrial IoT data at scale.

Microsoft Graph Data Connect: A secure, high-throughput connector designed to copy select Microsoft 365 productivity datasets into your Azure tenant.

Azure Chaos Studio: Improved resilience of your applications through controlled chaos engineering experimentation.


Azure Synapse Analytics: 洞察に至るまでの時間が比類なき無制限の分析。

Azure Databricks: Azure用に最適化された、完全管理された高速で簡単で協力的なApache® Spark™ベースの分析プラットフォーム。

HDInsight: 企業のための99.9%のSLAでバックアップされた完全管理されたクラウドHadoopおよびSparkサービス。

Azure Data Factory: データ移動と変換をオーケストレーションし自動化するデータ統合サービス。

Azure Machine Learning: クラウドとエッジをまたがるオープンで弾力的なAI開発。

Azure Stream Analytics: 数百万のIoTデバイスからのリアルタイムデータストリーム処理。

Data Lake Analytics: 企業向けのセキュリティ、監査、サポートを備えた完全管理型のオンデマンドペイパージョブ分析サービス。

Azure Analysis Services: サービスとしての企業向け分析エンジン。

Event Hubs: 数百万のイベントを収集、変換、および保存するハイパースケールのテレメトリ収集サービス。

Azure Data Explorer: 高速で高いスケーラビリティを持つデータ探索サービス。

Azure Data Share: 外部組織と大規模なデータを安全に共有するシンプルなサービス。

Azure Time Series Insights: スケールで産業用IoTデータを監視、分析、および視覚化するエンドツーエンドのIoT分析プラットフォーム。

Microsoft Graph Data Connect: 選択したMicrosoft 365生産性データセットをAzureテナントにコピーするために設計されたセキュアで高スループットのコネクタ。

Azure Chaos Studio: 制御されたカオスエンジニアリングの実験を通じてアプリケーションの回復力を向上させます。

Azure Compute—Virtualization and Scalability | Microsoft Azure

Virtual Machines: Provision Linux and Windows virtual machines in seconds with the configurations of your choice.

Virtual Machine Scale Sets: Achieve high availability by autoscaling to create thousands of VMs in minutes.

Azure Spot Virtual Machines: Get deep discounts when you provision unused compute capacity to run your workloads.

Azure Kubernetes Service (AKS): Deploy and scale containers on managed Kubernetes.

Azure Functions: Accelerate app development using an event-driven, serverless architecture.

Azure Service Fabric: Develop microservices and orchestrate containers on Windows and Linux.

App Service: Quickly create cloud apps for web and mobile with a fully managed platform.

Azure Container Instances: Containerize apps and easily run containers with a single command.

Batch: Cloud-scale job scheduling and compute management with the ability to scale to tens, hundreds, or thousands of virtual machines.

Cloud Services: Create highly available, scalable cloud applications and APIs that help you focus on apps instead of hardware.

Azure Dedicated Host: Deploy your Azure virtual machines on a physical server only used by your organization.


Virtual Machines: 好みの設定で数秒以内にLinuxおよびWindows仮想マシンをプロビジョニングします。

Virtual Machine Scale Sets: オートスケーリングにより数分で数千のVMを作成して高可用性を実現します。

Azure Spot Virtual Machines: 未使用の計算容量をプロビジョニングして作業負荷を実行する際に大幅な割引を受けます。

Azure Kubernetes Service (AKS): 管理されたKubernetes上でコンテナをデプロイおよびスケーリングします。

Azure Functions: イベント駆動型のサーバレスアーキテクチャを使用してアプリ開発を加速します。

Azure Service Fabric: WindowsおよびLinux上でマイクロサービスを開発し、コンテナをオーケストレーションします。

App Service: 完全に管理されたプラットフォームでWebおよびモバイルのクラウドアプリを迅速に作成します。

Azure Container Instances: アプリをコンテナ化し、単一のコマンドで簡単にコンテナを実行します。

Batch: 数十、数百、数千の仮想マシンにスケールする能力を備えたクラウドスケールのジョブスケジューリングおよび計算管理。

Cloud Services: ハードウェアではなくアプリに焦点を当てることができる、高可用性でスケーラブルなクラウドアプリケーションおよびAPIを作成します。

Azure Dedicated Host: 組織専用の物理サーバー上にAzure仮想マシンをデプロイします。

Azure Databases - Types of Databases on Azure | Microsoft Azure

Azure Cosmos DB: Fast, distributed NoSQL and relational database at any scale.

Azure SQL Database: Flexible, fast, and elastic SQL database for your new apps.

Azure Database for PostgreSQL: Fully managed, intelligent, and scalable PostgreSQL database.

Azure Database for MySQL: Scalable, open-source MySQL database.

Azure Database for MariaDB: Fully managed, community MariaDB.

Azure Cache for Redis: Distributed, in-memory, scalable caching.

SQL Server on Azure Virtual Machines: Migrate your SQL Server workloads with ease and maintain them with 100 percent compatibility and operating system-level access.

Azure SQL Managed Instance: Modernize .NET applications with Azure SQL Managed Instance, a fully managed and intelligent service combining the broadest SQL Server engine compatibility with an always-up-to-date service.

Oracle on Azure: Migrate your Oracle Database workloads with ease and combine the best of Oracle with the best of Azure.

Azure Database for PostgreSQL (Migration): Migrate Oracle Database to Azure Database for PostgreSQL for a fully managed, open-source database designed for scalable and secure enterprise-ready apps.

Azure SQL Database (Migration): Migrate Oracle Database to Azure SQL Database, a fully managed and intelligent service for relational performance at scale.

MongoDB Atlas on Azure: Modernize with a fully managed database-as-a-service that runs MongoDB Enterprise and offers full support for all MongoDB features.

Azure Cosmos DB for MongoDB: Add scalability and high performance to applications of any size and scale with a managed and serverless distributed database that supports MongoDB data.

Azure Database for PostgreSQL (Open-source): Migrate to a fully managed open-source database with support for the latest PostgreSQL versions and AI-powered performance optimization.

Azure Database for MySQL (Migration): Migrate your on-premises MySQL database to a fully managed database that offers high availability, elastic scale, and mission-critical performance.

Azure Database for MariaDB (Migration): Combine MariaDB Community edition with the benefits of a fully managed service provider that offers high availability and elastic scale.

Azure Managed Instance for Apache Cassandra: Modernize Cassandra data clusters with a managed instance in the cloud and lower operational overhead for critical Apache Cassandra workloads by hosting on a scalable and fully managed platform while retaining control over configuration options.

Azure Cosmos DB for Apache Cassandra: Add scalability and high performance to applications of any size and scale with a managed and serverless distributed database that supports Apache Cassandra data.


Azure Cosmos DB: 任意の規模での高速な分散NoSQLおよびリレーショナルデータベース。

Azure SQL Database: 新しいアプリのための柔軟で高速、弾力的なSQLデータベース。

Azure Database for PostgreSQL: 完全管理された、インテリジェントでスケーラブルなPostgreSQLデータベース。

Azure Database for MySQL: スケーラブルなオープンソースMySQLデータベース。

Azure Database for MariaDB: 完全管理されたコミュニティMariaDB

Azure Cache for Redis: 分散型でインメモリのスケーラブルなキャッシング。

Azure Virtual Machines上のSQL Server: 100%の互換性とオペレーティングシステムレベルのアクセスを維持しながら、SQL Serverワークロードを容易に移行し、維持します。

Azure SQL Managed Instance: Azure SQL Managed Instanceで、最も広いSQL Serverエンジンの互換性と常に最新のサービスを組み合わせた、完全管理されたインテリジェントなサービスで.NETアプリケーションを近代化します。

Azure上のOracle Database: Oracle Databaseワークロードを容易に移行し、OracleのベストとAzureのベストを組み合わせます。

PostgreSQL用Azure Database (移行): オープンソースの開発者がスケーラブルでセキュアなエンタープライズ対応アプリを構築するための完全管理されたPostgreSQLデータベースサービスにOracle Databaseを移行します。

Azure SQL Database (移行): Oracle Databaseをスケールでのリレーショナルパフォーマンスのための完全管理されたインテリジェントなサービスであるAzure SQL Databaseに移行します。

Azure上のMongoDB Atlas: MongoDB Enterpriseを実行し、MongoDBのすべての機能を完全にサポートする完全管理型のデータベースサービスで近代化します。

MongoDB用Azure Cosmos DB: 任意のサイズや規模のアプリケーションにスケーラビリティと高性能を追加する、MongoDBデータをサポートする管理されたサーバレス分散データベース。

PostgreSQL用Azure Database (オープンソース): 最新のPostgreSQLバージョンをサポートし、AIによるパフォーマンス最適化を備えた完全管理型のオープンソースデータベースに移行します。

MySQL用Azure Database (移行): 高可用性、弾力的なスケール、ミッションクリティカルなパフォーマンスを提供する完全管理型のデータベースにオンプレミスのMySQLデータベースを移行します。

MariaDB用Azure Database (移行): 高可用性と弾力的なスケールを提供する完全管理型サービスプロバイダーの利点をMariaDB Communityエディションと組み合わせます。

Apache Cassandra用Azure Managed Instance: クラウド内の管理されたインスタンスでCassandraデータクラスターを近代化し、設定オプションをコントロールしながらスケーラブルで完全管理されたプラットフォーム上でホスティングすることで、重要なApache Cassandraワークロードの運用オーバーヘッドを削減します。

Apache Cassandra用Azure Cosmos DB: 任意のサイズや規模のアプリケーションにスケーラビリティと高性能を追加する、Apache Cassandraデータをサポートする管理されたサーバレス分散データベース。

Developer Tools | Microsoft Azure

Visual Studio: Get all the power and capabilities you need to easily develop, debug, deploy, manage, and diagnose cloud-scale applications on Azure, using a full-featured IDE.

Visual Studio Code: Edit and debug code quickly with a lightweight code editor that runs on macOS, Linux, and Windows—streamlined for building and deploying Node.js and Java apps to the cloud—using serverless computing, containers, or managed Web Apps.

SDKs: Download and install language-specific SDKs and tools for your platform of choice, including .NET, Java, Node.js, Python, and Go.

Visual Studio Subscriptions: Access Visual Studio, Azure credits, Azure DevOps, and many other resources for creating, deploying, and managing applications.

App Configuration: Fast, scalable parameter storage for app configuration.

Azure Load Testing: Optimize app performance at scale with a specialized load-testing service built for Azure.

Azure Managed Confidential Consortium Framework (CCF) ᴾᴿᴱⱽᴵᴱᵂ: Build enterprise-grade, consortium-style stateful services and decentralized-trust applications with a common source of truth.


Visual Studio: フル機能のIDEを使用して、Azure上でクラウドスケールのアプリケーションを簡単に開発、デバッグ、デプロイ、管理、診断するために必要なすべてのパワーと機能を手に入れましょう。

Visual Studio Code: macOSLinuxWindowsで動作する軽量コードエディタを使用してコードを迅速に編集・デバッグ。サーバーレスコンピューティング、コンテナ、または管理されたWebアプリを使用してクラウドにNode.jsおよびJavaアプリを構築およびデプロイするために最適化されています。

SDK: .NETJava、Node.js、Python、Goなど、選択したプラットフォーム用の言語固有のSDKおよびツールをダウンロードしてインストールします。

Visual Studio Subscriptions: Visual Studio、Azureクレジット、Azure DevOpsなど、アプリケーションの作成、デプロイ、管理に必要な多くのリソースにアクセスします。

App Configuration: アプリ設定のための高速でスケーラブルなパラメータストレージ。

Azure Load Testing: Azure向けに構築された専門の負荷テストサービスを使用して、スケールでアプリケーションのパフォーマンスを最適化します。

Azure Managed Confidential Consortium Framework (CCF) ᴾᴿᴱⱽᴵᴱᵂ: 共通の真実の源を持つエンタープライズグレードのコンソーシアムスタイルのステートフルサービスおよび分散型信頼アプリケーションを構築します。

DevOps Technologies | Microsoft Azure

Azure DevOps: Services for teams to share code, track work, and ship software.

Azure DevOps Projects: Create a full continuous integration and continuous deployment (CI/CD) pipeline with just a few clicks for any application in any language deployed on a variety of Azure services.

App Center: Automatically build, test, distribute, deploy, and monitor iOS, Android, Windows, and macOS apps—all in one place.

Azure Lab Services: Set up labs for a classroom, trials, development, or testing.

Azure Monitor: Full observability into your applications, infrastructure, and network.

Azure DevTest Labs: Create cloud environments with quick setup, reusable templates, cost management, and integration with existing toolchains.

Azure Load Testing: Optimize app performance at scale with a specialized load testing service built for Azure.


Azure DevOps: コードを共有し、作業を追跡し、ソフトウェアを出荷するためのチーム向けサービス。

Azure DevOps Projects: Azureサービスにデプロイされた任意の言語のアプリケーションに対して、わずか数クリックで完全な継続的インテグレーションと継続的デプロイメント(CI/CD)パイプラインを作成します。

App Center: iOSAndroidWindowsmacOSアプリを自動的にビルド、テスト、配布、デプロイ、監視します—すべて一箇所で。

Azure Lab Services: 教室、トライアル、開発、テスト用のラボを設定します。

Azure Monitor: アプリケーション、インフラストラクチャ、およびネットワークへの完全な可視性。

Azure DevTest Labs: 迅速なセットアップ、再利用可能なテンプレート、コスト管理、既存のツールチェーンとの統合を備えたクラウド環境を作成します。

Azure Load Testing: Azure用に構築された専門の負荷テストサービスを使用して、スケールでアプリケーションのパフォーマンスを最適化します。

Hybrid and Multicloud Technologies - Azure Services | Microsoft Azure

Azure Active Directory: Synchronize on-premises directories and enable single sign-on.

Azure Database for PostgreSQL: Find fully managed, intelligent, and scalable PostgreSQL.

ExpressRoute: Experience a fast, reliable, and private connection to Azure.

Microsoft Sentinel: Find cloud-native SIEM and intelligent security analytics.

Azure SQL Edge: Consume services privately on Azure.

Microsoft Defender for Cloud: Extend threat protection to any infrastructure.

Azure Stack Hub: Bring the agility and innovation of cloud computing to your on-premises environment.

Azure Arc: Secure, develop, and operate infrastructure, apps, and Azure services anywhere.

Azure DevOps: Use services for teams to share code, track work, and ship software.

SQL Database: Find managed, intelligent SQL in the cloud.

Azure Stack: Build and run innovative hybrid apps across cloud boundaries.

Azure Stack HCI: Run your production workloads anywhere on hybrid, familiar, hyperconverged infrastructure.

Azure Stack Edge: Find an Azure-managed device that brings the compute, storage, and intelligence of Azure to the edge.


Azure Active Directory: オンプレミスのディレクトリを同期し、シングルサインオンを有効にします。

Azure Database for PostgreSQL: 完全に管理された、インテリジェントでスケーラブルなPostgreSQLを見つけます。

ExpressRoute: Azureへの高速で信頼性の高いプライベート接続を体験します。

Microsoft Sentinel: クラウドネイティブのSIEMとインテリジェントなセキュリティ分析を見つけます。

Azure SQL Edge: Azure上でプライベートにサービスを利用します。

Microsoft Defender for Cloud: 任意のインフラストラクチャへの脅威保護を拡張します。

Azure Stack Hub: オンプレミス環境にクラウドコンピューティングの俊敏性とイノベーションをもたらします。

Azure Arc: どこでもインフラストラクチャ、アプリ、およびAzureサービスを安全に開発し、運用します。

Azure DevOps: コードを共有し、作業を追跡し、ソフトウェアを出荷するためのサービスを使用します。

SQL Database: クラウド内の管理された、インテリジェントなSQLを見つけます。

Azure Stack: クラウドの境界を越えて革新的なハイブリッドアプリを構築し、実行します。

Azure Stack HCI: ハイブリッドで親しみやすい、ハイパーコンバージドインフラストラクチャ上でどこでも本番ワークロードを実行します。

Azure Stack Edge: Azureのコンピューティング、ストレージ、およびインテリジェンスをエッジにもたらすAzure管理デバイスを見つけます。

Azure Identity and Access Management Solutions | Microsoft Azure

Azure Active Directory External Identities: Consumer identity and access management in the cloud.

Microsoft Entra Domain Services: Join virtual machines in Azure to a domain without deploying domain controllers.


Azure Active Directory External Identities: クラウドでの消費者向けアイデンティティとアクセス管理。

Microsoft Entra Domain Services: ドメインコントローラーをデプロイすることなく、Azureの仮想マシンドメインに参加させます。

Azure Integration Services | Microsoft Azure

Logic Apps: Create workflows and orchestrate business processes to connect hundreds of services in the cloud and on-premises.

Service Bus: Connect on-premises and cloud-based applications and services to implement highly secure messaging workflows.

API Management: Publish your APIs securely for internal and external developers to use when connecting to backend systems hosted anywhere.

Event Grid: Connect supported Azure and third-party services using a fully managed event-routing service with a publish-subscribe model that simplifies event-based app development.

Azure Functions: Simplify complex orchestration problems with an event-driven serverless compute platform.

Azure Data Factory: Visually integrate data sources to construct ETL and ELT processes and accelerate data transformation, using 90+ pre-built connectors to manage data pipelines and support enterprise workflows.


Logic Apps: クラウドおよびオンプレミスで数百のサービスを接続するビジネスプロセスをオーケストレーションし、ワークフローを作成します。

Service Bus: オンプレミスとクラウドベースのアプリケーションおよびサービスを接続して、高度にセキュアなメッセージングワークフローを実装します。

API Management: バックエンドシステムに接続するために内部および外部の開発者が使用するために、APIを安全に公開します。

Event Grid: 公開-購読モデルを使用した完全管理型のイベントルーティングサービスを通じて、サポートされるAzureおよびサードパーティのサービスを接続し、イベントベースのアプリ開発を簡素化します。

Azure Functions: イベント駆動型のサーバーレスコンピュートプラットフォームで複雑なオーケストレーション問題を簡素化します。

Azure Data Factory: 90以上の事前構築されたコネクタを使用してデータソースを視覚的に統合し、ETLおよびELTプロセスを構築してデータ変換を加速し、データパイプラインを管理し、エンタープライズのワークフローをサポートします。

Azure IoT Products and Services | Microsoft Azure

Azure Digital Twins: Create a digital model of your physical space or assets.

Azure IoT Central: Accelerate the creation of IoT solutions.

Azure IoT Edge: Extend intelligence from the cloud to your edge devices.

Azure IoT Hub: Connect, monitor, and control billions of IoT assets.

Azure IoT Operations: Unlock insights for intelligent local actions and global visibility.

Azure RTOS: Making embedded IoT development and connectivity easy.

Azure Sphere: Build and connect highly secure MCU-powered devices.

Azure SQL Edge: Consume Services privately on Azure Platform.

Azure Time Series Insights: Explore and gain insights from time-series IoT data in real time.


Azure Digital Twins: 物理的な空間や資産のデジタルモデルを作成します。

Azure IoT Central: IoTソリューションの作成を加速します。

Azure IoT Edge: クラウドからエッジデバイスへとインテリジェンスを拡張します。

Azure IoT Hub: 数十億のIoT資産を接続、監視、制御します。

Azure IoT Operations: インテリジェントなローカルアクションとグローバルな可視性のための洞察を解き放ちます。

Azure RTOS: 組み込みIoT開発と接続を容易にします。

Azure Sphere: 高度に安全なMCU駆動デバイスを構築して接続します。

Azure SQL Edge: Azureプラットフォーム上でプライベートにサービスを利用します。

Azure Time Series Insights: 時系列IoTデータからリアルタイムで洞察を探求し、得ます。

App Monitoring and Resource Management Products | Microsoft Azure

Azure Monitor: Get visibility into the status of Azure platform components.

Network Watcher: Monitor and diagnose network issues.

Microsoft Copilot for AzurePreview: Simplify how you design, operate, optimize, and troubleshoot from cloud to edge.

Automation: Automate, configure, and update your resources.

Azure Advisor: Get personalized recommendations to help manage your Azure environment.

Azure Resource Manager: Deploy and manage your Azure resources.

Azure Resource Mover: Simplify how you move multiple resources between Azure regions.

Scheduler: Create, maintain, and invoke scheduled work for your apps.

Traffic Manager: Route incoming traffic for better performance and availability.

Cloud Shell: Manage Azure using a command-line experience.

Azure Managed Applications: Manage deployed solutions for your customers.

Microsoft Azure portal: Personalize and manage your Azure environment.

Azure mobile app: Stay connected to your Azure resources from anywhere at anytime.

Azure Lighthouse: Empowering service providers to manage customers at scale and with precision.

Microsoft Cost Management: Get transparency into what you’re spending on cloud resources.

Azure Policy: Set policies across resources and monitor compliance.

Azure Blueprints: Enabling quick, repeatable creation of governed environments.

Azure Managed Grafana: Deploy Grafana dashboards as a fully managed Azure service.

Update management center: Centrally manage updates and compliance at scale.


Azure Monitor: Azureプラットフォームのコンポーネントの状態を把握します。

Network Watcher: ネットワークの問題を監視し、診断します。

Microsoft Copilot for AzurePreview: クラウドからエッジまで、設計、運用、最適化、トラブルシューティングを簡素化します。

Automation: リソースを自動化、設定、更新します。

Azure Advisor: Azure環境を管理するためのパーソナライズされた推奨事項を取得します。

Azure Resource Manager: Azureリソースをデプロイして管理します。

Azure Resource Mover: 複数のリソースをAzureリージョン間で移動する方法を簡素化します。

Scheduler: アプリのためにスケジュールされた作業を作成、維持、呼び出します。

Traffic Manager: より良いパフォーマンスと可用性のために、入ってくるトラフィックをルーティングします。

Cloud Shell: コマンドライン体験を使用してAzureを管理します。

Azure Managed Applications: 顧客のためにデプロイされたソリューションを管理します。

Microsoft Azure portal: Azure環境をパーソナライズして管理します。

Azure mobile app: いつでもどこでもAzureリソースに接続します。

Azure Lighthouse: サービスプロバイダーが大規模かつ精密に顧客を管理できるようにします。

Microsoft Cost Management: クラウドリソースにかかる費用の透明性を得ます。

Azure Policy: リソース全体にポリシーを設定し、コンプライアンスを監視します。

Azure Blueprints: 管理された環境の迅速かつ繰り返し可能な作成を可能にします。

Azure Managed Grafana: 完全に管理されたAzureサービスとしてGrafanaダッシュボードをデプロイします。

Update management center: 中央集権的にアップデートとコンプライアンスを大規模に管理します。

Media Products and Services – Azure Services | Microsoft Azure

Azure Media Player: A single player for all your playback needs.

Content Protection: Securely deliver content using AES, PlayReady, Widevine, and Fairplay.

Live and On-Demand Streaming: Deliver content to virtually all devices with the ability to scale.

Azure Content Delivery Network: Use a fast, reliable, content delivery network with global reach.

Encoding: Studio-grade encoding at cloud scale.

Media Services: Encode, store, and stream video and audio at scale.


Azure Media Player: すべての再生ニーズに対応する単一のプレーヤー。

Content Protection: AES、PlayReady、Widevine、Fairplayを使用してコンテンツを安全に配信します。

Live and On-Demand Streaming: スケールの可能性を持ち、ほぼすべてのデバイスにコンテンツを配信します。

Azure Content Delivery Network: グローバルにリーチする高速で信頼性の高いコンテンツ配信ネットワークを使用します。

Encoding: クラウドスケールでのスタジオグレードのエンコーディング

Media Services: 大規模にビデオおよびオーディオをエンコード、保存、ストリーミングします。

Azure Cloud Migration Products - Azure Services | Microsoft Azure

Azure Database Migration Service: Accelerate your data migration to Azure.

Azure Site Recovery: Keep your business running with built-in disaster recovery service.

Azure Data Box: Find appliances and solutions for data transfer to Azure and edge compute.

Azure Migrate: Simplify migration and modernization with a unified platform.

Microsoft Cost Management: Monitor, allocate, and optimize cloud costs with transparency, accuracy, and efficiency.


Azure Database Migration Service: Azureへのデータ移行を加速します。

Azure Site Recovery: 組み込みの災害復旧サービスでビジネスの稼働を維持します。

Azure Data Box: Azureおよびエッジコンピューティングへのデータ転送用のアプライアンスとソリューションを見つけます。

Azure Migrate: 統合されたプラットフォームで移行と近代化を簡素化します。

Microsoft Cost Management: 透明性、正確性、効率性をもってクラウドコストを監視、割り当て、最適化します。

Mixed Reality Technologies - Azure Services | Microsoft Azure

Azure Digital Twins: Use IoT spatial intelligence to create models of physical environments.

Azure Remote Rendering: Render high-quality, interactive 3D content with real-time streaming.

Object Anchors PREVIEW: Automatically align and anchor 3D content to objects in the physical world.

Kinect DK: Build for mixed reality using AI sensors.

Spatial Anchors: Create multiuser, spatially aware, mixed-reality experiences.


Azure Digital Twins: IoT空間知能を使用して物理環境のモデルを作成します。

Azure Remote Rendering: リアルタイムストリーミングで高品質のインタラクティブな3Dコンテンツをレンダリングします。

Object Anchors PREVIEW: 物理世界のオブジェクトに3Dコンテンツを自動的に整列させてアンカーします。

Kinect DK: AIセンサーを使用してミックスドリアリティのために構築します。

Spatial Anchors: 複数ユーザーが空間認識できるミックスドリアリティ体験を作成します。

Mobile | Microsoft Azure

App Center: Quickly create high-quality apps for Android, iOS, Xamarin, React Native, Unity, and Cordova. Integrate globally scalable backend services with just a few lines of code. Automate your build, test, and distribution pipeline and continuously monitor real-time performance.

Notification Hubs: Send personalized push notifications to any mobile platform from any back end.

Xamarin: Create Android, iOS, and Windows apps with native performance and UI using existing skills, teams, and code.

Azure Maps: Add maps, search, routing, and traffic capabilities to your apps with geospatial services.

API Management: Publish APIs in minutes, manage access, gain insights, fine-tune performance, and scale on demand.

Azure AI Search: Find insights using enterprise-scale search for app development.


App Center: AndroidiOS、Xamarin、React Native、Unity、Cordova用の高品質なアプリを迅速に作成します。数行のコードでグローバルにスケーラブルなバックエンドサービスを統合します。ビルド、テスト、配布パイプラインを自動化し、リアルタイムのパフォーマンスを継続的に監視します。

Notification Hubs: 任意のバックエンドから任意のモバイルプラットフォームにパーソナライズされたプッシュ通知を送信します。

Xamarin: 既存のスキル、チーム、コードを使用して、ネイティブのパフォーマンスとUIを備えたAndroidiOSWindowsアプリを作成します。

Azure Maps: 地理空間サービスを使用して、アプリに地図、検索、ルーティング、交通機能を追加します。

API Management: 数分でAPIを公開し、アクセスを管理し、洞察を得て、パフォーマンスを微調整し、需要に応じてスケールします。

Azure AI Search: アプリ開発のためのエンタープライズスケールの検索を使用して洞察を見つけます。

Networking | Microsoft Azure

Azure Virtual Network: Connect everything from virtual machines to incoming VPN connections.

Azure Load Balancer: Balance inbound and outbound connections and requests to applications.

Azure DDoS Protection: Protect your applications from DDoS attacks.

Azure Firewall: Native firewall capabilities with built-in high availability and zero maintenance.

Azure Firewall Manager: Manage network security policy and routing centrally.

Azure Bastion: Private and fully managed RDP and SSH access to your virtual machines.

Azure Private Link: Private access to services hosted on the Azure platform.

Traffic Manager: Route incoming traffic for better performance and availability.

Network Watcher: Monitor and diagnose network issues.

Azure Network Function Manager: Extend Azure management for deploying 5G and SD-WAN network functions on edge devices.

Azure ExpressRoute: Add private network connectivity from your corporate network to cloud.

Azure Virtual WAN: Connect business offices, retail locations, and sites securely with a unified portal.

Azure VPN Gateway: Securely use the internet to access Azure Virtual Networks.

Routing preference: Choose how your traffic routes between Azure and the Internet.

Azure Public MEC, Azure Private MEC: Provide real-time customer experiences with ultra-low-latency edge compute.

Azure Private 5G Core: Simplify delivery of 5G wireless networks and manage private 5G.

Azure CDN: Accelerate the delivery of high-bandwidth content to customers worldwide.

Azure Front Door: Scalable, security-enhanced delivery point for global, microservice-based web applications.

Azure Application Gateway: Manage traffic to your web applications with a web traffic load balancer.

Azure Web Application Firewall: Use a firewall service for web apps to help improve web app security.

Azure DNS: Ensure ultra-fast DNS responses and availability for your domain needs.

Internet Analyzer: Test how networking infrastructure changes will impact performance.

Azure NAT Gateway: Provide highly scalable, resilient, and secure outbound connectivity for virtual networks.


Azure Virtual Network: 仮想マシンから着信VPN接続まで、あらゆるものを接続します。

Azure Load Balancer: アプリケーションへの入力および出力接続とリクエストをバランスします。

Azure DDoS Protection: アプリケーションをDDoS攻撃から保護します。

Azure Firewall: 組み込みの高可用性とゼロメンテナンスを備えたネイティブファイアウォール機能。

Azure Firewall Manager: ネットワークセキュリティポリシーとルーティングを中央で管理します。

Azure Bastion: 仮想マシンへのプライベートで完全に管理されたRDPおよびSSHアクセス。

Azure Private Link: Azureプラットフォーム上でホストされているサービスへのプライベートアクセス。

Traffic Manager: より良いパフォーマンスと可用性のために、着信トラフィックをルーティングします。

Network Watcher: ネットワークの問題を監視し、診断します。

Azure Network Function Manager: エッジデバイス上で5GおよびSD-WANネットワーク機能をデプロイするためのAzure管理を拡張します。

Azure ExpressRoute: 企業ネットワークからクラウドへのプライベートネットワーク接続を追加します。

Azure Virtual WAN: ユニファイドポータルを使用して、ビジネスオフィス、小売店舗、サイトを安全に接続します。

Azure VPN Gateway: インターネットを安全に使用してAzure Virtual Networksにアクセスします。

Routing preference: Azureとインターネット間でトラフィックがどのようにルーティングされるかを選択します。

Azure Public MEC, Azure Private MEC: 超低遅延のエッジコンピュートでリアルタイムの顧客体験を提供します。

Azure Private 5G Core:

5Gワイヤレスネットワークの提供を簡素化し、プライベート5Gを管理します。

Azure CDN: 世界中の顧客に高帯域幅のコンテンツを迅速に配信します。

Azure Front Door: グローバルなマイクロサービスベースのWebアプリケーション向けのスケーラブルでセキュリティ強化された配信ポイント。

Azure Application Gateway: WebトラフィックロードバランサーでWebアプリケーションへのトラフィックを管理します。

Azure Web Application Firewall: Webアプリのセキュリティを向上させるためのWebアプリ用ファイアウォールサービスを使用します。

Azure DNS: ドメインのニーズに対する超高速DNSレスポンスと可用性を確保します。

Internet Analyzer: ネットワーキングインフラの変更がパフォーマンスに与える影響をテストします。

Azure NAT Gateway: 仮想ネットワークのための高度にスケーラブルで回復力があり、セキュアなアウトバウンド接続を提供します。

Cloud Security | Microsoft Azure

Microsoft Defender for Cloud: Unify security management and enable advanced threat protection for workloads in the cloud and on-premises.

Key Vault: Safeguard cryptographic keys and other secrets used by cloud apps and services.

Azure DDoS Protection: Protect your Azure resources from denial of service threats.

Azure Information Protection: Control and help secure email, documents, and sensitive data that you share outside your company.

Application Gateway: Protect your applications from common web vulnerabilities and exploits with a built-in web application firewall.

Microsoft Azure Attestation: A fully managed and unified remote attestation service to validate multiple Trusted Execution Environments (TEEs) in Azure.

Azure Confidential Ledger: Store unstructured data that is completely tamper-proof and can be cryptographically verified.

Microsoft Defender for IoT: Unified threat protection for all your IoT/OT devices.


Microsoft Defender for Cloud: クラウドとオンプレミスのワークロードに対してセキュリティ管理を統合し、高度な脅威保護を有効にします。

Key Vault: クラウドアプリやサービスが使用する暗号化キーとその他の秘密を保護します。

Azure DDoS Protection: Azureリソースをサービス拒否攻撃から保護します。

Azure Information Protection: 会社の外部に共有する電子メール、文書、および機密データを制御し、保護の手助けをします。

Application Gateway: 組み込みのWebアプリケーションファイアウォールで、一般的なWebの脆弱性やエクスプロイトからアプリケーションを保護します。

Microsoft Azure Attestation: Azure内の複数のTrusted Execution Environments (TEEs) を検証するための完全に管理された統一されたリモート証明サービス。

Azure Confidential Ledger: 完全に改ざん防止され、暗号的に検証可能な非構造化データを保存します。

Microsoft Defender for IoT: すべてのIoT/OTデバイスに対する統一された脅威保護。

Azure Cloud Storage Solutions and Services | Microsoft Azure

Azure Disk Storage: High-performance, durable block storage for business-critical applications.

Azure Blob Storage: Massively scalable and secure object storage for cloud-native workloads, archives, data lakes, high-performance computing, and machine learning.

Azure Data Lake Storage: Massively scalable and secure data lake for your high-performance analytics workloads.

Azure Files: Simple, secure, and serverless enterprise-grade cloud file shares.

Azure NetApp Files: Enterprise-grade Azure file shares, powered by NetApp.

Azure File Sync: Hybrid cloud file shares for caching your on-premises data.

Azure Stack Edge: Cloud storage gateway to transfer data efficiently and easily between the cloud and the edge.

Azure Data Box: Appliances and solutions for transferring data into and out of Azure quickly and cost-effectively.

Azure Elastic SAN: Elastic SAN is a cloud-native Storage Area Network (SAN) service built on Azure. Gain access to an end-to-end experience like your on-premises SAN.

Azure Container StoragePREVIEW: Manage persistent storage volumes for stateful container applications.

Azure Storage Actions: Simplify storage data management tasks at massive scale.


Azure Disk Storage: ビジネスクリティカルなアプリケーション向けの高性能で耐久性のあるブロックストレージ。

Azure Blob Storage: クラウドネイティブなワークロード、アーカイブ、データレイク、高性能コンピューティング、および機械学習用の大規模にスケーラブルで安全なオブジェクトストレージ。

Azure Data Lake Storage: 高性能分析ワークロード用の大規模にスケーラブルで安全なデータレイク。

Azure Files: シンプルで安全、サーバーレスなエンタープライズグレードのクラウドファイル共有。

Azure NetApp Files: NetAppによって提供されるエンタープライズグレードのAzureファイル共有。

Azure File Sync: オンプレミスのデータをキャッシュするためのハイブリッドクラウドファイル共有。

Azure Stack Edge: クラウドとエッジ間でデータを効率的かつ簡単に転送するためのクラウドストレージゲートウェイ

Azure Data Box: Azureへのデータの迅速かつコスト効果的な転送のためのアプライアンスとソリューション。

Azure Elastic SAN: Azure上に構築されたクラウドネイティブなストレージエリアネットワーク(SAN)サービスであるElastic SAN。オンプレミスのSANのようなエンドツーエンドの体験を得られます。

Azure Container StoragePREVIEW: ステートフルなコンテナアプリケーションのための永続的なストレージボリュームを管理します。

Azure Storage Actions: 大規模にストレージデータ管理タスクを簡素化します。

Virtual Desktop Infrastructure - Azure Services | Microsoft Azure

Azure Lab Services: Set up labs for education, training, and other related scenarios.

Azure Virtual Desktop: Enable a more secure, remote desktop experience from anywhere.


Azure Lab Services: 教育、トレーニング、および関連するシナリオのためのラボを設定します。

Azure Virtual Desktop: どこからでもより安全なリモートデスクトップ体験を可能にします。

Web Applications | Microsoft Azure

App Service: Build on a fully-managed platform to develop and deploy web apps at any scale using .Net Core, Java, Docker, Node.js, and more. Launch websites quickly, with broad CMS support from the Azure Marketplace. Accelerate your feature updates using built-in CI/CD.

Content Delivery Network: Accelerate the delivery of high-bandwidth content—from applications and stored content to streaming video—to customers worldwide.

Media Services: Encode, store, and stream video and audio at scale. Deliver broadcast and over-the-top (OTT) video. Use media analytics to gain insights about video files.

Azure AI Search: Implement a fully-managed search service that helps you avoid issues with index corruption, scaling, service availability, and service.

Azure SignalR Service: Add real-time functionality to your web app, such as chat room, co-authoring, live dashboard, and instant broadcasting.

Azure Maps: Add maps, search, routing, and current traffic conditions to your apps with geospatial services.

Azure DNS: Ensure ultra-fast DNS responses and ultra-high availability for all your domain needs.

Application Gateway: Optimize delivery from application server farms while increasing application security with a web application firewall.

Azure Web PubSub: Easily build real-time messaging web applications using WebSockets and the publish-subscribe pattern.

Azure Load Testing: Optimize app performance at scale with a specialized load testing service built for Azure.


App Service: 完全に管理されたプラットフォーム上で構築し、.Net Core、Java、Docker、Node.jsなどを使用して任意の規模でWebアプリを開発およびデプロイします。Azure Marketplaceからの幅広いCMSサポートを備えて、迅速にWebサイトを立ち上げます。組み込みのCI/CDを使用して機能更新を加速します。

Content Delivery Network: アプリケーションおよび保存されたコンテンツからストリーミングビデオまで、高帯域幅のコンテンツの配信を世界中の顧客に向けて加速します。

Media Services: 大規模にビデオおよびオーディオをエンコード、保存、およびストリーミングします。放送およびOTTビデオを配信します。ビデオファイルに関する洞察を得るためのメディアアナリティクスを使用します。

Azure AI Search: インデックスの破損、スケーリング、サービスの可用性、およびサービスに関する問題を回避するのに役立つ、完全に管理された検索サービスを実装します。

Azure SignalR Service: チャットルーム、共同作成、ライブダッシュボード、即時放送など、Webアプリにリアルタイム機能を追加します。

Azure Maps: 地理空間サービスを使用して、アプリに地図、検索、ルーティング、現在の交通状況を追加します。

Azure DNS: あらゆるドメインニーズに対して超高速DNS応答と超高可用性を保証します。

Application Gateway: アプリケーションサーバーファームからの配信を最適化し、Webアプリケーションファイアウォールでアプリケーションのセキュリティを高めます。

Azure Web PubSub: WebSocketsとパブリッシュ-サブスクライブパターンを使用して、リアルタイムメッセージングWebアプリケーションを簡単に構築します。

Azure Load Testing: Azure用に構築された専門の負荷テストサービスを使用して、スケールでアプリケーションのパフォーマンスを最適化します。

Cohere: The leading AI platform for enterprise まとめ

overview

Cohere | The leading AI platform for enterprise

  • Founding: Founded in 2019 by Aidan Gomez, Ivan Zhang, and Nick Frosst.
  • Headquarters: Based in Toronto and San Francisco, with offices in Palo Alto and London.
  • Key Milestones: Launched a multilingual model in 2022, partnered with Oracle in 2023, and signed voluntary AI safety measures in 2023.
  • Products: Specializes in generative AI for enterprises, offering technology for chatbots, search engines, and more.
  • Funding: Raised $40 million in Series A in 2021, $125 million in Series B in 2022, and $270 million in Series C in 2023.

  • 創設: 2019年にAidan Gomez、Ivan Zhang、Nick Frosstによって設立されました。
  • 本社: トロントとサンフランシスコに拠点を置き、パロアルトとロンドンにオフィスがあります。
  • 主要なマイルストーン: 2022年に多言語モデルを発売、2023年にオラクルと提携、2023年に自発的なAI安全対策に署名。
  • 製品: 企業向けの生成AIを専門とし、チャットボット、検索エンジンなどの技術を提供しています。
  • 資金調達: 2021年にシリーズAで4000万ドル、2022年にシリーズBで1億2500万ドル、2023年にシリーズCで2億7000万ドルを調達。

about

  • Mission and Operations: Cohere is focused on advancing language AI for developers and enterprises, aiming to harness its power for valuable products and solutions.
  • Foundation on Research: Emphasizes the synergy between research and product development for a future where technology can effectively understand and use language.
  • Technology and Innovation: Uses Transformer architecture and supercomputing to develop sophisticated NLP solutions without costly ML development.
  • Expert Team: A dedicated team of experts aims to revolutionize business operations and maximize potential through language AI applications.
  • Commitment to Improvement: Comprised of ML/AI engineers, thinkers, and champions, committed to exploring language AI's potential to better the world.
  • Support and Recognition: Supported by founders, leaders, and investors, including Geoffrey Hinton, recognizing the impact of large language models on human communication.

  • ミッションと運営: 開発者と企業向けに言語AIの進歩に焦点を当てており、価値ある製品と解決策を提供するための力を活用することを目指しています。

  • 研究に基づく: 研究と製品開発のシナジーを強調し、技術が人間のように言語を理解し使用できる未来を実現することが重要です。
  • 技術とイノベーション: トランスフォーマーアーキテクチャとスーパーコンピューティングを使用して、高価なML開発を必要としない洗練されたNLPソリューションを開発します。
  • 専門家チーム: 言語AIアプリケーションを通じてビジネス運営を革命し、潜在能力を最大限に引き出すことを目指す専門家チーム。
  • 改善へのコミットメント: ML/AIエンジニア、思想家、チャンピオンで構成され、言語AIの可能性を探求し世界をより良くすることにコミットしています。
  • サポートと認識: ジェフリー・ヒントンを含む創設者、リーダー、投資家によるサポートを受け、大規模な言語モデルが人間のコミュニケーションの理解に与える影響を認識しています。

products

model/commands

Command Model: The AI-Powered Solution for the Enterprise | Cohere

  • Title: Command
  • Summarize: Command is a multifunctional tool designed to help with writing product descriptions, drafting emails, suggesting press releases, and more. It provides detailed document analysis, enabling users to categorize documents, extract information, or answer questions about them. This can significantly save time, especially when dealing with large volumes of documents. Users are encouraged to create an account with Cohere to leverage Command's capabilities to streamline their document-related tasks.

  • タイトル: コマンド

  • 要約: コマンドは、製品説明の作成、メールの下書き、プレスリリースの提案など、様々なタスクを支援するために設計された多機能ツールです。詳細な文書分析を提供し、ユーザーが文書をカテゴリー分けしたり、情報を抽出したり、それについての質問に答えたりすることを可能にします。これは、特に大量の文書を扱う際に、時間を大幅に節約することができます。ユーザーは、文書関連のタスクを効率化するために、コヒアでアカウントを作成し、コマンドの機能を活用することが奨励されています。

model/embed

Embed

Title: Enhancing Embedding Performance with "Embed"

Summary:

  • Leading Embedding Performance: Embed is designed to excel in embedding performance, especially in processing noisy data, ensuring high accuracy across complex datasets.
  • Benefits for Retrieval-Augmented Generation (RAG): Improves RAG systems by enhancing search efficiency and accuracy, thus saving computational resources.
  • Applications of Embed:
    • Semantic Search: Facilitates searches by meaning, improving context and user intent recognition.
    • Retrieval-Augmented Generation: Boosts RAG systems with a high-performance model tailored for search.
    • Clustering: Aids in organizing text archives by grouping similar texts, revealing common patterns.
    • Text Classification: Enables automatic text categorization for specific actions or routing.
    • Language Models for Semantic Search: Integrates with various vector databases for enhanced semantic search.

Note: The Cohere Team announced the availability of Cohere’s Embed and Command Light Models with Fine-tuning on Amazon Bedrock on November 30, 2023, inviting users to explore these tools for their needs.

タイトル: "Embed"で埋め込み性能を向上させる

要約:

  • 埋め込み性能のリード: Embedは、特にノイズの多いデータの処理に優れ、複雑なデータセット全体で高い精度を保証するよう設計されています。
  • 検索強化生成(RAG)のための利点: 検索の効率と精度を高めることでRAGシステムを改善し、計算リソースを節約します。
  • Embedのアプリケーション:
    • セマンティック検索: 意味に基づく検索を容易にし、コンテキストとユーザーの意図の認識を改善します。
    • 検索強化生成: 検索用に特別に調整された高性能モデルでRAGシステムを強化します。
    • クラスタリング: 類似のテキストをグループ化してテキストアーカイブを整理し、共通のパターンを明らかにするのに役立ちます。
    • テキスト分類: 特定のアクションやルーティングのためのテキストの自動分類を可能にします。
    • セマンティック検索のための言語モデル: 拡張されたセマンティック検索機能のために、さまざまなベクトルデータベースと統合して使用できます。

注意: Cohereチームは2023年11月30日に、Amazon BedrockでのCohereのEmbedおよびCommand Lightモデルのファインチューニングの利用可能性を発表し、ユーザーにこれらのツールを自分のニーズに合わせて探求するよう呼びかけました。

Coral | Cohere

Title: Coral

  • Coral Introduction: A conversational AI toolkit for enterprises to develop RAG-enabled knowledge assistants.
  • Support for Employees and Customers: Makes enterprise data accessible and useful for both employees and customers.
  • Integration with Data Sources: Can integrate with over 100 data sources, including CRMs, collaboration tools, and databases.
  • Enhancement of Team Productivity: Aims to enhance team productivity through tailored knowledge assistants.
  • Data Security and Privacy: Offers deployment options through cloud services or virtual private clouds for enterprise security.
  • Core Model: Cohere's Command model, a top-performing generative model updated weekly.
  • Verifiable Responses: Features for verifiable responses with citations for sourced information.
  • Customization Capability: Allows businesses to augment the AI's knowledge with their specific data.
  • Open Beta: Coral is in open beta, inviting organizations for large-scale project development.

タイトル: コーラル

  • コーラル紹介: 企業がRAG(取得拡張生成)対応の知識アシスタントを開発するための会話型AIツールキット。
  • 従業員と顧客へのサポート: 従業員と顧客の両方にとって企業データをアクセスしやすく、有用なものにする。
  • データソースとの統合: CRM、コラボレーションツール、データベースなど100を超えるデータソースと統合可能。
  • チーム生産性の向上: テーラーメイドの知識アシスタントを通じてチームの生産性を向上させることを目指す。
  • データのセキュリティとプライバシー: 企業のセキュリティ基準を満たすためのクラウドサービスまたは仮想プライベートクラウドを通じた展開オプションを提供。
  • コアモデル: Cohereのコマンドモデル、週に一度更新される最高性能の生成モデル。
  • 検証可能なレスポンス: 出所のある情報に対する引用を表示できるAPIを含む検証可能なレスポンスの機能。
  • カスタマイズ能力: 特定のデータでAIの知識を増強することで、ビジネスがより関連性の高い正確なアシスタントを作ることを可能にする。
  • オープンベータ: コーラルはオープンベータ中で、大規模プロジェクトの開発に向けて組織を招待している。

Chat | Cohere

  • Title: Chat with Retrieval-Augmented Generation (RAG) Introduction
  • Summary:

    • Advanced Conversational Knowledge Assistants: Integration of chat with RAG to automate tasks and provide answers by connecting to data sources.
    • Diverse Applications: Support for customer service and personalized learning through dynamic content.
    • Ease of Use: Cohere's Command model offers a simple API for all levels of ML/AI experience.
    • Practical Implementation: Example code for implementing chat with web search connectors.
    • Further Resources: Encouragement to explore documentation and the announcement of Chat with RAG.
  • タイトル: チャットと検索拡張生成(RAG)の導入

  • 要約:
    • 高度な会話型知識アシスタント: データソースに接続してタスクを自動化し、回答を提供するためのチャットとRAGの統合。
    • 多様なアプリケーション: カスタマーサービスサポートと動的なコンテンツを通じたパーソナライズされた学習体験。
    • 使いやすさ: すべてのML/AI経験レベルに対応する簡単なAPIを提供するCohereのコマンドモデル。
    • 実践的な実装: ウェブ検索コネクタを用いたチャット実装の例示コード。
    • さらなるリソース: ドキュメントの探求を奨励し、RAGを用いたチャットの導入を発表。

Summarize - Instant Text Summarization with LLMs | Cohere

Title: Integration of Cohere's Language AI with Amazon SageMaker

Summarize:

  • Capabilities: SummarizeNews articles offer insights across various industries, aiming for high-level task focus. Cohere's API simplifies text summarization in applications.
  • Partnership Benefits: The Cohere and Amazon SageMaker partnership enhances ML model deployment, focusing on language tasks like summarization and copywriting.
  • Cohere's Medium Model: Known for quick response and efficiency in language tasks, accessible via SageMaker for fast deployment and privacy.
  • Advancement in NLP: Represents a significant leap in natural language processing, providing a model that deeply understands context and semantics.

タイトル: Cohereの言語AIとAmazon SageMakerの統合

要約:

  • 機能: SummarizeNewsの記事は、さまざまな業界にわたる洞察を提供し、高レベルのタスクに焦点を当てることを目指しています。CohereのAPIは、アプリケーションでのテキスト要約を簡素化します。
  • パートナーシップの利点: CohereとAmazon SageMakerのパートナーシップは、要約やコピーライティングなどの言語タスクに焦点を当てたMLモデルの展開を強化します。
  • Cohereのミディアムモデル: 言語タスクでの迅速な対応と効率で知られており、迅速な展開とプライバシーのためにSageMakerを通じてアクセス可能です。
  • NLPの進歩: 自然言語処理において重要な進歩を代表し、文脈と意味論を前例のないレベルで深く理解するモデルを提供します。

Generate - AI-Powered Text Generation with LLMs | Cohere

Title: "Generate" by Cohere

Summary:

  • Ad Copy Generation: Engages customers with creative ad content.
  • Blog Content Creation: Effortlessly produces content based on topics and prompts.
  • Product Descriptions: Generates unique descriptions for numerous SKUs matching the brand's voice.
  • User-Friendly Platform: Accessible to all levels of ML/AI experience, with simple API integration.
  • Content Creativity and Simplification: Offers resources and documentation for easy text generation integration.
  • Support for Developers and Businesses: Articles discussing the use of large language models and generative AI services.
  • Invitation to Use Cohere: Encourages starting with Cohere for text generation needs, highlighting the commitment to content creativity.

タイトル: "Generate" by Cohere

要約:

  • 広告コピー生成: 顧客を引きつける創造的な広告コンテンツを生成。
  • ブログコンテンツ作成: トピックとプロンプトに基づいて、労力をかけずにコンテンツを生産。
  • 製品説明: ブランドの声に合った数多くのSKUのためのユニークな説明を生成。
  • ユーザーフレンドリーなプラットフォーム: すべてのレベルのML/AI経験にアクセスしやすい、簡単なAPI統合。
  • コンテンツ創造性と簡素化: テキスト生成統合を容易にするためのリソースとドキュメンテーションを提供。
  • 開発者とビジネスへのサポート: 大規模言語モデルの使用と生成AIサービスの可能性について議論する記事。
  • Cohereの使用への招待: テキスト生成のニーズに対するCohereの開始を促し、コンテンツ創造性へのコミットメントを強調。

Embeddings - Text Embeddings with Advanced Language Models | Cohere

  • Title: "Embeddings"

  • Semantic Search: Enhances search functionalities with conversational language understanding.

  • Topic Modeling: Clusters similar topics to identify thematic trends across text sources.
  • Recommendations: Develops a recommendation engine for more relevant user content.
  • Multilingual Embeddings: Supports over 100 languages with a single model for various applications.

The text highlights the Cohere platform's easy-to-use APIs for embedding capabilities in natural language processing tasks, accessible to all experience levels. It includes a code example for embedding FAQs, resources for further exploration, and encourages contacting Cohere for embedding needs.


  • タイトル: "エンベッディング"

  • セマンティック検索: 会話言語理解で検索機能を強化します。

  • トピックモデリング: テキストソースを横断して類似トピックをクラスタリングし、テーマトレンドを特定します。
  • レコメンデーション: ユーザーにより関連性の高いコンテンツを提供する推薦エンジンを開発します。
  • 多言語エンベッディング: 100以上の言語に対応し、さまざまなアプリケーションでトピックモデリング、セマンティック検索、レコメンデーションをサポートします。

テキストでは、自然言語処理タスクにおけるエンベッディング機能のCohereプラットフォームのAPIの使いやすさとパワーを強調し、すべての経験レベルのユーザーにアクセス可能です。FAQのエンベッディングのためのコード例を含み、さらに探求するためのリソースを紹介し、エンベッディングのニーズについてCohereに連絡することを奨励しています。

Semantic Search - Advanced Semantic Search for Any Language | Cohere

  • Title: Semantic Search
  • Summary:

    • Introduction to Semantic Search: A method that goes beyond keyword matching to understand the meaning behind text, using vector search in English and multiple languages for more relevant results.
    • Cohere's Platform: Offers high-performance multilingual search capabilities, enabling global scaling for businesses by providing search results in any language. It's user-friendly for all levels of ML/AI experience.
    • Practical Implementation: A guide on implementing semantic search with Python using Cohere's API and HNSWlib, including steps for installing libraries, generating document embeddings, and creating/searching an index.
    • Resources and Encouragement: Mention of resources for further learning about semantic search, including documentation and an article by Nils Reimers. Encourages getting started with Cohere for search needs.
  • タイトル: セマンティック検索

  • 要約:
    • セマンティック検索の紹介: キーワードマッチングを超えてテキストの背後にある意味を理解し、より関連性の高い結果を提供する方法。英語および複数の言語でのベクター検索を使用します。
    • Cohereのプラットフォーム: 高性能な多言語検索機能を提供し、任意の言語での検索結果を提供することで、ビジネスのグローバルな拡大を支援します。ML/AI経験のレベルに関係なくユーザーフレンドリーです。
    • 実用的な実装: CohereのAPIとHNSWlibを使用してPythonでセマンティック検索を実装するガイド。ライブラリのインストール、ドキュメントの埋め込みの生成、インデックスの作成/検索などのステップを含みます。
    • リソースと奨励: セマンティック検索についてさらに学ぶためのリソース、Nils Reimersによるセマンティック検索の未来に関する記事の言及。検索ニーズにCohereを使い始めることを奨励します。

Rerank - Optimize Your Search With One Line of Code | Cohere

Title: Rerank

Summarize:

  • Improve search results: Rerank significantly enhances search precision, especially when used with ElasticSearch or OpenSearch, by accurately understanding and prioritizing relevant information.
  • Optimize eCommerce search: Boosts customer conversion rates by improving search accuracy and offering lightning-fast response times.
  • Boost knowledge base search: Eliminates user frustration and wasted time by ensuring semantic context is always correctly interpreted.
  • Easy and quick implementation: Implementing Rerank can be as simple as a ten-minute process and requires only a few lines of code, demonstrating its ease of integration and use.

タイトル: リランク

要約:

  • 検索結果の改善: 特にElasticSearchやOpenSearchと統合した場合に、リランクは検索の精度を大幅に向上させ、関連情報を正確に理解し優先させることで、効果的に情報をフィルタリングします。
  • eコマース検索の最適化: 検索精度を向上させ、応答時間を短縮することで、顧客のコンバージョン率を高めます。
  • ナレッジベース検索の強化: セマンティックコンテキストが常に正しく解釈されることを保証することで、ユーザーのフラストレーションと時間の浪費を排除します。
  • 簡単かつ迅速な実装: リランクの実装は、わずか10分と数行のコードで可能であり、統合と使用の容易さを示しています。

Classify - Advanced Text Classification with LLMs | Cohere

Title: "Classify"

  • Customer Support Tagging: Automates tagging of customer support requests for quicker team routing.
  • Sentiment Analysis: Identifies social media post and review sentiments to improve customer feedback understanding.
  • Content Moderation: Removes hate speech, spam, profanity, and other unwanted content using user-set filters.

Classify, through the Cohere Platform, offers a user-friendly approach to text classification, regardless of one's experience with ML/AI. It provides practical examples of using the Cohere API for efficient sentiment analysis, demonstrating its capability to deliver highly confident predictions. The text also points to additional resources for deeper insights into Classify's applications for text embedding, classification, and extraction, encouraging users and organizations to leverage this technology for better customer support and content management.

タイトル: "Classify"

  • カスタマーサポートタギング: カスタマーサポートリクエストのタギングを自動化して、チームへの迅速なルーティングを実現します。
  • センチメント分析: ソーシャルメディアの投稿やレビューの感情を特定し、顧客フィードバックの理解を深めます。
  • コンテンツモデレーション: ユーザーが設定した基準に基づき、ヘイトスピーチ、スパム、不適切な言葉遣い、その他望ましくないコンテンツを除外します。

Classifyは、Cohereプラットフォームを通じて、ML/AIの経験レベルに関わらず、テキスト分類をユーザーフレンドリーな方法で提供します。Cohere APIを使用したセンチメント分析の実用例を提供し、高い確信度での感情予測能力を実証します。また、テキストの埋め込み、分類、抽出にClassifyを使用する利点と方法論についてさらに詳しく説明するリソースも紹介しています。このテキストは、個人や組織にCohereプラットフォームを活用し、顧客サポートとコンテンツ管理の理解と管理を向上させることを促しています。

Gradio: Build Machine Learning Web Apps — in Python まとめ

overview

Gradio

Gradio: Build Machine Learning Web Apps — in Python

  • Quickly Build Demos or Web Apps: Easily create a demo or web application for your machine learning model, API, or any arbitrary Python function.
  • Share with Ease: Utilize Gradio's built-in sharing features to distribute your demo or web application link in just a few seconds.
  • No Web Experience Required: There's no need for JavaScript, CSS, or web hosting knowledge.

グラディオ:Python機械学習ウェブアプリを構築

quick start

pip install gradio
import gradio as gr

def greet(name, intensity):
    return "Hello, " + name + "!" * int(intensity)

demo = gr.Interface(
    fn=greet,
    inputs=["text", "slider"],
    outputs=["text"],
)

demo.launch()
  • output

https://i.gyazo.com/115dac49c57ea84d90f82968468e2a49.gif

huggingface.co

playground

gyazo.com

www.gradio.app

demo list

gradio/demo at main · gradio-app/gradio

Building Generative AI Applications with Gradio | DeepLearning.AI Short Courses まとめ

overview

Building Generative AI Applications with Gradio

  • Title: Building Generative AI Applications with Gradio
  • Summary: A collaborative short course by Apolinário Passos from Hugging Face, teaching rapid development of machine learning applications.
  • Learn how to:
    • Create user-friendly apps for image generation, image captioning, and text summarization accessible to non-coders.
    • Develop a chat interface with Falcon, the leading open-source LLM.
  • Course Features:

    • Interactive applications that can be shared on Hugging Face Spaces.
    • Target Audience: Individuals with basic Python skills.
    • Free access for a limited time during the DeepLearning.AI platform beta.
    • Promotes continuous learning in Generative AI with updates on news, courses, and events.
  • タイトル: Gradioを使った生成AIアプリケーションの構築

  • 要約: Hugging Faceのアポリナリオ・パッソスによる協力短期コースで、機械学習アプリケーションの迅速な開発を教えます。
  • 学べること:
    • ユーザーフレンドリーなアプリの作成 非コーダーでもアクセス可能な画像生成、画像キャプション作成、テキスト要約のための。
    • チャットインターフェースの開発 先頭を走るオープンソースLLMであるFalconと。
  • コースの特徴:
    • Hugging Face Spacesで共有可能なインタラクティブアプリケーション。
    • 対象者: 基本的なPythonスキルを持つ個人。
    • DeepLearning.AIプラットフォームベータ中は限定時間無料アクセス。
    • 生成AIにおける継続的な学習を促進 ニュース、コース、イベントの更新情報付き。

Introduction

Welcome to Building Generative AI Applications with Gradio: This course is a collaboration with Hugging Face, introducing Apolinario Passos (Poli) as the instructor.

Course Overview: Learn to build user interfaces for generative AI applications using Gradio, a tool for demonstrating machine learning models via a web interface in Python.

Why Use Gradio?: It allows for quick demonstration of AI applications without front-end coding, ideal for showcasing projects or gathering feedback.

Course Content: The course covers text summarization, name entity recognition, image captioning, image generation, and chatbots using Gradio.

Practical Demonstrations: Poli will guide through building and showcasing applications with Gradio, making AI projects accessible and interactive.

First Lesson Focus: The initial lesson will cover simple NLP tasks like summarization and name entity recognition.

Acknowledgments: Thanks to contributors from Hugging Face and DeepLearning.ai, including Omar Sanseviero, Pedro Cuenca, and others.

Next Steps: Invitation to proceed to the next video to start the learning journey.


グラディオを使用した生成AIアプリケーションの構築へようこそ: このコースは、Hugging Faceとのコラボレーションで、講師としてApolinario Passos(ポリ)を紹介します。

コース概要: Gradioを使用して、Pythonのウェブインターフェイス機械学習モデルをデモするためのユーザーインターフェイスを構築する方法を学びます。

グラディオの使用理由: フロントエンドのコーディングなしでAIアプリケーションを迅速にデモすることができ、プロジェクトのショーケースやフィードバックの収集に理想的です。

コース内容: テキスト要約、名前エンティティ認識、画像キャプショニング、画像生成、Gradioを使用したチャットボットを含むコースをカバーします。

実践デモンストレーション: Poliは、Gradioを使用してアプリケーションを構築し、ショーケースする方法を指導し、AIプロジェクトをアクセス可能でインタラクティブにします。

最初のレッスンの焦点: 初期レッスンは、要約と名前エンティティ認識などの単純なNLPタスクをカバーします。

謝辞: Hugging FaceおよびDeepLearning.aiからの貢献者、Omar Sanseviero、Pedro Cuencaなどに感謝します。

次のステップ: 学習の旅を始めるために、次のビデオに進むように招待します。

lesson 1: NLP tasks with a simple interface

Building Two NLP Apps with Gradle: In the first lesson, we'll create a text summarization app and a named entity recognition app using Gradle.

Why User Interfaces Matter: Providing a user interface makes it easier for teams or communities to engage with your models without coding.

Choosing the Right Model: Specialist models can be as effective as general-purpose models for tasks like summarization, offering cost and speed benefits.

Setting Up and Summarization: We'll set up our API key and use a Distill BART CNN model for summarizing text, showcasing its efficiency and accuracy.

Gradle for User-Friendly Demos: By integrating Gradle, we can transform code into interactive apps, making our models accessible to non-coders.

Enhancing the User Experience: We'll customize our Gradle apps to improve clarity and usability, including modifying input/output labels and text field sizes.

Named Entity Recognition App: The next app will use a BERT model fine-tuned for named entity recognition, identifying entities like locations and organizations.

Simplifying Output with Gradle: Gradle's interface will be used to present named entity recognition results in a user-friendly format, including highlighted text.

Token Management for Clarity: We'll merge tokens for a clearer presentation of entities, enhancing the app's usability for end-users.

Encouragement to Experiment: Users are encouraged to test the models with their own text to explore the apps' functionalities.

Gradle Management: Tips on managing multiple Gradle apps and closing ports to maintain system efficiency.

Preview of Next Lesson: Introduction to building an image captioning app, expanding beyond text input to include image analysis.


Gradleを使用した2つのNLPアプリの構築: 最初のレッスンでは、Gradleを使用してテキスト要約アプリと名前付きエンティティ認識アプリを作成します。

ユーザーインターフェースの重要性: ユーザーインターフェースを提供することで、コーディングなしでモデルをチームやコミュニティが簡単に利用できるようになります。

適切なモデルの選択: 要約のようなタスクには、専門モデルが汎用モデルと同じくらい効果的であり、コストと速度の利点を提供します。

設定と要約: APIキーを設定し、テキスト要約にDistill BART CNNモデルを使用します。その効率と正確性を示します。

ユーザーフレンドリーなデモのためのGradle: Gradleを統合することで、コードをインタラクティブなアプリに変換し、モデルを非コーダーにもアクセス可能にします。

ユーザーエクスペリエンスの向上: 入出力ラベルとテキストフィールドのサイズを変更して、Gradleアプリをカスタマイズし、明確さと使いやすさを向上させます。

名前付きエンティティ認識アプリ: 次のアプリは、ロケーションや組織などのエンティティを識別するために微調整されたBERTモデルを使用します。

Gradleを使用した出力の簡素化: Gradleのインターフェイスを使用して、名前付きエンティティ認識の結果をユーザーフレンドリーな形式で提示します。

エンティティの明確な提示のためのトークン管理: エンドユーザーのためにエンティティの提示を明確にするために、トークンをマージします。

実験を促す: アプリの機能を探るために、自分のテキストでモデルをテストするようにユーザーに促します。

Gradleの管理: システム効率を維持するために、複数のGradleアプリを管理し、ポートを閉じる方法についてのヒント。

次のレッスンのプレビュー: 画像分析を含めてテキスト入力を超えて拡張する、画像キャプションアプリの構築の紹介。

lesson 2: Image captioning app

Building an Image Captioning App with BLIP: We're creating an image captioning app using the Salesforce Blip model, capable of generating captions for images.

Setting Up: Re-establish our API key and prepare helper functions, including an image-to-text endpoint for the Blip model.

Model Overview: The Blip model, trained on image-caption pairs, predicts captions for new images by learning from millions of examples.

Testing the Function: Using a URL of a free image, we demonstrate the model's capability to accurately describe an image with a caption.

Gradio Interface Creation: Guide on importing Gradio and setting up functions to convert images for the API, and to generate and return text captions.

App Structure: The app features inputs, outputs, title, description, and examples, with a unique component for uploading images.

Interactive Experience: Encouragement to upload various images, including pets or family, to see how the model describes them.

Example Demonstrations: Testing the app with different images, such as a dog in a Santa hat or a bird in flight, showcasing its accuracy and detail.

Next Steps: Introduction to the upcoming lesson on generating new images.


BLIPを使用した画像キャプションアプリの構築: Salesforce Blipモデルを使用して、画像のキャプションを生成する画像キャプションアプリを作成します。

設定: APIキーを再設定し、Blipモデル用の画像からテキストへのエンドポイントを含むヘルパー関数を準備します。

モデル概要: 画像とキャプションのペアに基づいて訓練されたBlipモデルは、数百万の例から学習することで新しい画像のキャプションを予測します。

関数のテスト: 無料画像のURLを使用して、モデルが画像を正確に説明するキャプションを生成する能力を示します。

Gradioインターフェースの作成: Gradioのインポートと、API用の画像を変換し、テキストキャプションを生成して返す関数の設定に関するガイド。

アプリ構造: 入力、出力、タイトル、説明、例を特徴とし、画像をアップロードするためのユニークなコンポーネントを持つアプリ。

インタラクティブな体験: ペットや家族の画像をアップロードして、モデルがそれらをどのように説明するかを見るための奨励。

例のデモンストレーション: サンタ帽子をかぶった犬や飛行中の鳥など、さまざまな画像をアプリでテストし、その正確さと詳細を示します。

次のステップ: 新しい画像を生成する方法を学ぶ次のレッスンの紹介。

lesson 3: Image generation app

Creating an Image Generation App with Stable Diffusion: We're developing an app that generates images from text descriptions using the Stable Diffusion model via an API connection.

API Setup and Model Introduction: Setting up our API key and introducing the text-to-image endpoint for the Stable Diffusion model, which generates images based on text descriptions.

Testing the Model: Demonstrating the model's capability to create images from descriptions, showing its effectiveness.

Building the Gradio App: Constructing a Gradio application that takes text prompts and returns generated images, with helper functions for API interaction.

Interface and Functionality: The app's interface features text input for prompts and image output for generated visuals, with examples to demonstrate its capabilities.

Exploring Creative Prompts: Encouraging experimentation with various prompts, including imaginative scenarios or everyday objects, to explore the model's creative potential.

Enhancing User Experience with Advanced Options: Introducing additional parameters like negative prompts and inference steps to refine image generation, demonstrated through a more detailed UI.

Introducing Gradio Blocks for Custom UI: Transitioning to Gradio Blocks for a customizable user interface, allowing for more complex layouts and better element organization.

Experimentation with UI Elements: Encouraging users to experiment with Gradio Blocks by adjusting the layout and exploring advanced UI elements like sliders and accordions for a more engaging experience.

Preview of Next Lesson: Announcing a game that integrates both image-to-text and text-to-image models, combining their functionalities into a singular application.


テキストから画像を生成するアプリの作成: Stable DiffusionモデルをAPI経由で接続し、テキストの説明から画像を生成するアプリを開発します。

API設定とモデル紹介: APIキーの設定と、テキスト説明に基づいて画像を生成するStable Diffusionモデルのテキストから画像へのエンドポイントの紹介。

モデルのテスト: 説明から画像を作成するモデルの能力を示し、その有効性を示します。

Gradioアプリの構築: テキストプロンプトを受け取り、生成された画像を返すGradioアプリケーションを構築し、APIとのやり取りのためのヘルパー関数を用意します。

インターフェイスと機能性: アプリのインターフェイスは、プロンプトのためのテキスト入力と、生成されたビジュアルのための画像出力を特徴とし、その能力を示す例を提供します。

創造的なプロンプトの探求: モデルの創造的な可能性を探るために、想像力あふれるシナリオや日常の物体など、さまざまなプロンプトでの実験を奨励します。

高度なオプションでユーザー体験を向上: 画像生成を洗練させるために、ネガティブプロンプトや推論ステップなどの追加パラメータを紹介し、より詳細なUIを通じてデモンストレーションします。

カスタムUIのためのGradioブロックの紹介: より複雑なレイアウトと要素のより良い組織化を可能にするカスタマイズ可能なユーザーインターフェイスのために、Gradioブロックへの移行。

UI要素での実験: レイアウトの調整や、より魅力的な体験のためにスライダーやアコーディオンなどの高度なUI要素を探ることにより、Gradioブロックでの実験をユーザーに奨励します。

次のレッスンのプレビュー: 画像からテキスト

へ、そしてテキストから画像へのモデルの機能を組み合わせた単一のアプリケーションに統合するゲームを発表します。

lesson 4: Describe-and-Generate game

Combining Text-to-Image and Image-to-Text into a Fun Game: We're merging our skills in text-to-image and image-to-text to create an engaging app that iterates between captioning images and generating images from captions.

Recap of Previous Lessons: Overview of building NLP, captioning, and text-to-image applications using Gradio.

Game Concept: Starting with an image captioning process, followed by generating a new image from the produced caption, creating a loop of image and text transformation.

Implementation with Gradio Blocks: Utilizing Gradio blocks to craft an app with functionalities for uploading images, generating captions, and then creating images from those captions.

Step-by-Step Process: Instructions on building the app, including importing necessary functions, setting up Gradio, and outlining the flow from image upload to caption generation to image generation.

Streamlined versus Detailed Interaction: Discussion on preferences between a more streamlined single-function interaction versus a detailed step-by-step process with multiple buttons.

Encouragement to Experiment: Inviting users to experiment with the app by uploading various images, generating captions, and seeing how the model interprets and transforms these inputs.

Preview of Next Lesson: Introduction to building a chatbot app using a state-of-the-art large language model, continuing the exploration of AI's capabilities.


テキストから画像へ、画像からテキストへの楽しいゲームの組み合わせ: テキストから画像へ、画像からテキストへのスキルを組み合わせて、画像のキャプション付けとキャプションから画像を生成するプロセスを繰り返す魅力的なアプリを作成します。

前回のレッスンの振り返り: Gradioを使用してNLP、キャプション作成、テキストから画像へのアプリケーションを構築する概要。

ゲームコンセプト: 画像のキャプション付けプロセスから始め、そのキャプションから新しい画像を生成し、画像とテキストの変換ループを作成します。

Gradioブロックを利用した実装: 画像のアップロード、キャプションの生成、そしてそれらのキャプションから画像を生成する機能を備えたアプリを作るためにGradioブロックを使用。

ステップバイステッププロセス: 必要な関数のインポート、Gradioのセットアップ、画像アップロードからキャプション生成、画像生成へのフローを概説する指示。

シンプルな対話と詳細な対話の選択: よりシンプルな単一機能の対話と、複数のボタンを使用した詳細なステップバイステッププロセスの間の好みについての議論。

実験への奨励: 様々な画像をアップロードし、キャプションを生成し、モデルがこれらの入力をどのように解釈し変換するかを見るためにアプリでの実験をユーザーに促します。

次のレッスンのプレビュー: 最先端の大規模言語モデルを使用したチャットボットアプリの構築について紹介し、AIの能力の探求を続けます。

lesson 5: Chat with any LLM

Building a Chatbot with an Open Source Large Language Model: In our final lesson, we're creating a chatbot application using Falcon 40B, a leading open-source LLM, to demonstrate the integration of NLP capabilities and UI design.

Overview of Previous Learnings: Summarizing our journey through building NLP applications, captioning apps, and text-to-image apps using Gradio.

Introduction to Falcon 40B: Highlighting Falcon 40B as a robust open-source LLM for building chat applications, capable of running locally or on the cloud.

Chatbot Application Development: Setting up the application with API connections for both text-to-image and image-to-text functionalities, utilizing the text generation library for seamless integration.

Gradio Interface for Chatting: Demonstrating how to create a simple yet effective chat interface using Gradio, allowing for real-time interaction with the LLM.

Enhancing User Interaction: Exploring the Gradio Chatbot component to streamline chat experiences, including maintaining conversation context for follow-up questions.

Advanced Chatbot Features: Introducing advanced options like system messages and temperature settings to customize the chatbot's responses and behavior.

Interactive Chat Experience: Showcasing the ability to stream responses for dynamic and engaging user interactions.

Encouragement for Exploration: Inviting users to experiment with the chatbot, suggesting modifications to the system message for personalized interactions or language changes.

Conclusion and Experimentation: Encouraging further exploration with the Gradio chatbot UI, emphasizing the potential for creative and customized chatbot applications.


オープンソースの大規模言語モデルを使ったチャットボットの構築: 最終レッスンでは、NLPの能力とUIデザインの統合を実演するために、Falcon 40Bという先進のオープンソースLLMを使用してチャットボットアプリケーションを作成します。

これまでの学習の概要: Gradioを使用してNLPアプリケーション、キャプションアプリ、テキストから画像へのアプリを構築する旅をまとめます。

Falcon 40Bの紹介: チャットアプリケーションを構築するための強力なオープンソースLLMとしてFalcon 40Bを強調し、ローカルまたはクラウドで実行できます。

チャットボットアプリケーションの開発: テキストから画像へ、画像からテキストへの機能のためのAPI接続を設定し、シームレスな統合のためにテキスト生成ライブラリを利用してアプリケーションをセットアップします。

チャット用Gradioインターフェース: Gradioを使用して、LLMとリアルタイムで対話できるシンプルで効果的なチャットインターフェースを作成する方法を示します。

ユーザーインタラクションの強化: フォローアップ質問のための会話コンテキストを維持することを含む、チャット体験を効率化するGradioチャットボットコンポーネントを探索します。

高度なチャットボット機能: チャットボットの応答と挙動をカスタマイズするためのシステムメッセージや温度設定などの高度なオプションを導入します。

インタラクティブなチャット体験: 動的で魅力的なユーザーインタラクションのために、レスポンスのストリーミングを実演します。

探索への奨励: システムメッセージの変更など、パーソナライズされたインタラクションや言語変更のためのチャット

ボットとの実験をユーザーに提案します。

結論と実験: クリエイティブでカスタマイズされたチャットボットアプリケーションの可能性を強調しながら、GradioチャットボットUIでのさらなる探索を奨励します。

The SPACE of Developer Productivity まとめ

The SPACE of Developer Productivity - ACM Queue

overview

What is the SPACE framework?

  • SPACE is a developer productivity framework, encapsulating key research findings.
  • Led by Nicole Forsgren of the DORA team, SPACE offers a comprehensive view of productivity beyond DORA metrics.
  • It outlines five critical productivity dimensions (Satisfaction & Well-being, Performance, Activity, Communication & Collaboration, Efficiency & Flow) across three organizational levels (individual, team, system).

SPACEフレームワークとは何か?

  • SPACEは開発者の生産性フレームワークで、主要な研究結果を包括している。
  • DORAチームのNicole Forsgrenによって率いられたSPACEは、DORA指標を超えて生産性の包括的な視点を提供する。
  • それは、3つの組織レベル(個人、チーム、システム)にわたる5つの重要な生産性の次元(満足度とウェルビーイング、パフォーマンス、アクティビティ、コミュニケーションとコラボレーション、効率性とフロー)を概説している。

S/P/A/C/E

  • Satisfaction and Well-being: Recognizes the emotional and psychological aspects of productivity, emphasizing that a satisfied and well-being-focused work environment contributes significantly to overall productivity.

  • Performance: Measures the outcomes and results of development work, focusing on the quality and effectiveness of the software produced.

  • Activity: Looks at the actual tasks and work done by developers, including coding, debugging, and other development-related activities.

  • Communication and Collaboration: Highlights the importance of teamwork and effective communication among developers, which are crucial for successful software development.

  • Efficiency and Flow: Focuses on the ability of developers to work in a state of flow, where they are fully immersed and efficiently progressing through tasks.

  • 満足度とウェルビーイング: 生産性の感情的および心理的側面を認識し、満足でウェルビーイングに焦点を当てた作業環境が全体的な生産性に大きく貢献することを強調します。

  • パフォーマンス: 開発作業の成果と結果を測定し、生産されたソフトウェアの品質と効果に焦点を当てます。

  • アクティビティ: 開発者によって行われる実際のタスクと作業、コーディング、デバッグ、その他の開発関連活動を見ます。

  • コミュニケーションと協力: チームワークと開発者間の効果的なコミュニケーションの重要性を強調します。これらは成功したソフトウェア開発に不可欠です。

  • 効率とフロー: 開発者がタスクを通じて完全に没入し、効率的に進行するフローの状態で作業できる能力に焦点を当てます。

Myths and Misconceptions about Developer Productivity

Myth: Productivity is all about developer activity

  • Productivity myths suggest activity equals productivity, leading to potential overwork and dissatisfaction.
  • Activity metrics are unreliable for assessing true productivity due to measurement errors and overlook collaboration benefits.

Myth: Productivity is only about individual performance

  • Success involves both individual and team contributions, requiring a balanced measure of performance.
  • Focusing solely on personal productivity can detriment team productivity, emphasizing the importance of team-focused activities.

Myth: One productivity metric can tell us everything

  • The belief in a universal productivity metric is misleading; productivity is multifaceted and context-dependent.

Myth: Productivity Measures are useful only for managers

  • Despite misconceptions, productivity measures can be valuable for developers for personal insight and communication.

Myth: Productivity is only about engineering systems and developer tools

  • Human factors like work environment and culture significantly impact productivity, highlighting the importance of "invisible" work like morale building and mentoring.

神話:生産性は開発者の活動についてのみである

  • 生産性の神話は、活動が生産性に等しいと示唆しており、過労と不満を招く可能性がある。
  • 活動指標は、測定エラーや協力の利点を見落とすため、真の生産性を評価するには信頼性がない。

神話:生産性は個々のパフォーマンスについてのみである

  • 成功には個人とチームの両方の貢献が含まれ、パフォーマンスのバランスの取れた測定が必要である。
  • 個人の生産性にのみ焦点を当てることは、チームの生産性を損なう可能性があり、チーム中心の活動の重要性を強調している。

神話:1つの生産性指標がすべてを教えてくれる

  • 普遍的な生産性指標への信念は誤解を招くものであり、生産性は多面的で文脈に依存している。

神話:生産性の指標はマネージャーにのみ有用である

  • 誤解にもかかわらず、生産性の指標は個人の洞察とコミュニケーションのために開発者にとって価値がある。

神話:生産性はエンジニアリングシステムと開発者ツールについてのみである

  • 職場環境や文化のような人間的要因は生産性に大きな影響を与え、士気の向上やメンタリングのような「目に見えない」仕事の重要性を強調している。

Framework in Action

  • Satisfaction: Perceptual measures about code reviews can indicate developers' perspectives on their work, including learning, mentorship opportunities, or the ability to shape the codebase. High numbers of code reviews per developer may signal dissatisfaction if perceived as disproportionate.

  • Performance: Code-review velocity measures the speed of reviews, reflecting both individual and team constraints, such as policy-imposed review durations.

  • Activity: The number of code reviews completed is an individual metric that shows productivity and contribution to the final product.

  • Communication and Collaboration: The quality or thoughtfulness of code reviews serves as a qualitative measure of how well developers collaborate and communicate through code.

  • Efficiency and Flow: The timing and batching of code reviews can affect workflow and system throughput. Metrics that measure the impact of code-review timing on efficiency and the flow of work are crucial.

  • 満足度: コードレビューに関する知覚的指標は、学習機会、メンターシップの機会、またはコードベースを形成する能力など、開発者が自分の仕事をどのように見るかを示すことができます。開発者一人当たりのコードレビューの数が多い場合、不均等に認識されると不満のサインとなるかもしれません。

  • パフォーマンス: コードレビューの速度はレビューの速さを測定し、個人とチームの制約を反映します。例えば、レビューポリシーによる持続時間など。

  • アクティビティ: 完了したコードレビューの数は、生産性と最終製品への貢献を示す個人指標です。

  • コミュニケーションと協力: コードレビューの質や思慮深さは、開発者がコードを通じてどのように協力し、コミュニケーションをとるかの定性的な測定値です。

  • 効率とフロー: コードレビューのタイミングとバッチ処理は、ワークフローとシステムスループットに影響を与える可能性があります。効率と仕事の流れに対するコードレビューのタイミングの影響を測定する指標は重要です。

How to Use the Framework

  • Diverse Metric Selection: Teams should select metrics from multiple dimensions of the SPACE framework, ensuring a broad understanding of productivity. For instance, alongside activity metrics like commits, include metrics from different dimensions such as productivity perception and pull request merge time.

  • Inclusion of Perceptual Measures: Incorporate perceptual measures, like survey data, to capture a more comprehensive view of productivity, acknowledging the value of individuals' experiences and insights.

  • Balanced View Through Metrics in Tension: Employing metrics from various dimensions may create tension, but this is intentional to provide a balanced perspective of the work and systems, facilitating smarter decisions and trade-offs.

  • Consideration of What Metrics Signal: Metrics indicate what an organization values; thus, the choice of metrics influences behaviors and priorities within the team and the broader organization.

  • 多様な指標の選択: チームはSPACEフレームワークの複数の次元から指標を選び、生産性の広範な理解を確保するべきです。例えば、コミットのようなアクティビティ指標の横に、生産性の認識やプルリクエストのマージ時間など異なる次元からの指標を含めます。

  • 知覚的指標の含有: 個人の経験や洞察を認め、生産性のより包括的なビューを捉えるために、アンケートデータのような知覚的指標を組み込みます。

  • 緊張を通じたバランスの取れたビュー: 様々な次元からの指標を使用することは緊張を生み出すかもしれませんが、これは意図的で、仕事とシステムのバランスの取れた視点を提供し、より賢い決定とトレードオフを促進します。

  • 指標が示すものの考慮: 指標は組織が何を価値あると考えているかを示します。したがって、指標の選択はチーム内およびより広い組織内の行動や優先順位に影響を与えます。

What to Watch For

  • Metric Overload: Having too many metrics can cause confusion and demotivate, as striving to meet a lengthy list of targets may seem unachievable. Aim for a balanced number of metrics across dimensions for a holistic view.

  • Imperfect Proxies: No metric perfectly captures productivity; some can be misleading or reflect multiple factors beyond the intended measure, such as retention reflecting more than satisfaction.

  • Privacy and Anonymity: Ensure developer privacy by reporting only anonymized, aggregate results at the team or group level. Individual analyses should be optional and respect legal and ethical standards.

  • Bias and Norms: Be aware of biases and cultural norms that may influence metrics, such as gender disparities in peer reviews or cultural differences in self-reporting.

  • メトリックの過多: 多すぎるメトリックは混乱を招き、動機を低下させる可能性があります。目標の長いリストを満たすことが達成不可能に思えるかもしれません。包括的な視点を促すために、少数のメトリックを少なくとも三つの次元で目指します。

  • 不完全な代理: どのメトリックも生産性を完全には捉えられません。いくつかは誤解を招くか、意図された尺度を超えた複数の要因を反映する可能性があります。例えば、保持は満足度以上のものを反映するかもしれません。

  • プライバシーと匿名性: 開発者のプライバシーを確保するために、チームまたはグループレベルでのみ匿名化された集約結果を報告してください。個人分析は任意であり、法的および倫理的基準を尊重すべきです。

  • バイアスと規範: ピアレビューの性別差や文化的差異による自己報告など、メトリックに影響を与える可能性のあるバイアスや文化規範に注意してください。

Professional Scrum™ Certifications まとめ

Professional Scrum™ Certifications | Scrum.org

overview

  • Globally Recognized: Certifications are acknowledged worldwide as proof of Scrum knowledge.
  • Comprehensive Tests: Assess your understanding of Scrum principles and application.
  • Areas for Improvement: Identify personal growth opportunities within the Scrum framework.
  • Wide Range of Topics: Covers fundamentals, accountabilities, and complementary practices.
  • Respect and Validation: Earned through rigorous testing, not merely attendance, with a passing score of 85% or higher.
  • Knowledge Proof: Certifications validate real-world Scrum application knowledge and skills.
  • No Class Requirement: Tests can be taken with or without Scrum.org classes.
  • Self-Learning Value: Acknowledges self-study and experience in addition to class learning.
  • Practice Tests Available: Open Assessments for various Scrum topics with no fee.
  • Lifetime Certification: No renewal costs or ongoing learning proofs required.
  • Test Translation: English tests with support for Google Translate Plugin for non-English speakers.

  • 世界的に認められている: スクラムの知識の証として世界中で認識されています。

  • 包括的なテスト: スクラムの原則とその適用に関する理解を評価します。
  • 改善のための領域: スクラムフレームワーク内での個人的成長の機会を特定します。
  • トピックの幅広い範囲: 基礎、アカウンタビリティ、補完的な実践をカバーしています。
  • 尊敬と検証: 出席だけでなく、厳格なテストを通じて獲得され、85%以上の合格点を要求されます。
  • 知識の証明: スクラムの実世界での応用知識とスキルを検証します。
  • クラス要件なし: スクラム.orgのクラスの受講有無に関わらずテストを受けることができます。
  • 自己学習の価値: クラスでの学習に加えて、自己学習と経験も認められます。
  • 利用可能な練習テスト: 無料で提供される様々なスクラムトピックのオープンアセスメント。
  • 終身認証: 更新費用や継続的な学習の証明は不要です。
  • テスト翻訳: 英語のテストをサポートし、非英語話者がGoogle翻訳プラグインを使用してテストを受けることができます。

category

Professional Scrum Master™ Certifications | Scrum.org

  • Industry Respect: The most esteemed certification for Scrum Masters.
  • Understanding and Application: Validates deep knowledge of Scrum practices/values and ability to handle real-world challenges.
  • Assessment Value: PSM assessments offer unparalleled value in the Scrum certification landscape through rigorous knowledge demonstration.
  • Continuous Improvement: Regular updates ensure the assessments' relevance and value.
  • No Mandatory Training: Assessments are available to all, regardless of Scrum.org class attendance, emphasizing knowledge over attendance.
  • Certification upon Passing: Successful candidates receive recognized certification, with three levels of PSM assessments available.

  • 業界の尊敬: スクラムマスターのための最も高く評価された認証。

  • 理解と応用: スクラムの実践/価値の深い知識と実世界の課題への対応能力を検証します。
  • アセスメントの価値: 知識の厳格な実証を通じて、スクラム認証の風景の中でPSMアセスメントは比類のない価値を提供します。
  • 継続的な改善: 定期的な更新により、アセスメントの関連性と価値を保証します。
  • 必須トレーニングなし: Scrum.orgのクラスへの出席にかかわらず、すべての人がアセスメントを受けられ、知識を重視します。
  • 合格時の認証: 成功した候補者は認識された認証を受け取ります。PSMアセスメントには3つのレベルがあります。

Professional Scrum Product Owner™ Certifications | Scrum.org

  • Professional Scrum Product Owner™ Certifications: Validate and certify their understanding of the accountabilities of the Product Owner.
  • What is a Professional Scrum Product Owner™: Demonstrates knowledge and understanding of Scrum, the Product Owner role, and the ability to apply that knowledge in real-world situations.
  • Becoming A Professional Scrum Product Owner: Not mandatory to take a Scrum.org Professional Scrum training class to take one of the assessments, although highly recommended. Certification demonstrates knowledge beyond attending a class. Scrum.org provides highly regarded certifications in the industry. Assessments available to anyone to demonstrate detailed knowledge of the Product Owner role. Each training class includes a free attempt at the corresponding assessment.
  • Certification Options: Those that pass the PSPO assessments will receive the corresponding industry recognized certification. Options include PSPO I, PSPO II, and PSPO III.

  • プロフェッショナルスクラムプロダクトオーナー™認定: プロダクトオーナーの責任の理解を検証し認定する。

  • プロフェッショナルスクラムプロダクトオーナー™とは: スクラム、プロダクトオーナーの役割、およびその知識を実際の状況に適用する能力を示す。
  • プロフェッショナルスクラムプロダクトオーナーになるには: Scrum.orgのプロフェッショナルスクラムレーニングクラスを受講することは必須ではないが、強く推奨される。認定はクラスに参加したことを示す以上のものであり、そのためScrum.orgのプロフェッショナル認定は業界で高く評価されている。誰でもプロダクトオーナーの役割に関する知識を示すためにアセスメントを受けることができる。各トレーニングクラスには、対応するアセスメントの無料試験が含まれている。
  • 認定オプション: PSPOアセスメントに合格した人は、対応する業界認定を受ける。オプションにはPSPO I、PSPO II、PSPO IIIが含まれる。

Professional Scrum Developer™ Certification | Scrum.org

  • Software Development with Scrum: Validates knowledge of using Scrum in software development teams.
  • Comprehensive Skillset: Demonstrates understanding of Agile and DevOps practices, design, programming, quality, testing, and more.
  • Recommended Training: Though not required, the Applying Professional Scrum for Software Development class is advised.
  • Focus Areas: Mainly on professional product development and core Scrum concepts.
  • Diverse Topics: Includes backlog refinement, architecture, programming, Scrum values, team management, product value, and stakeholder engagement.

  • スクラムを使ったソフトウェア開発: ソフトウェア開発チームでのスクラムの使用知識を検証します。

  • 包括的なスキルセット: アジャイルとDevOpsの実践、設計、プログラミング、品質、テストなどの理解を示します。
  • 推奨トレーニング: 必須ではありませんが、ソフトウェア開発のためのプロフェッショナルスクラム適用クラスを受講することをお勧めします。
  • フォーカスエリア: 主にプロフェッショナルな製品開発とコアスクラムの概念に焦点を当てます。
  • 多様なトピック: バックログの洗練、アーキテクチャ、プログラミング、スクラムの価値、チーム管理、製品価値、ステークホルダーの関与を含みます。

Scaled Professional Scrum™ Certification | Scrum.org

  • Scaling Scrum Knowledge: Validates understanding of the Nexus Framework for scaling Scrum.
  • Integrated Teamwork: Tests ability to coordinate multiple Scrum Teams towards a common goal.
  • Recommended Training: Scaled Professional Scrum class advised, though not mandatory.
  • Focus Areas: Nexus Framework, its application, and fundamentals of scaling.

  • スクラムのスケーリング知識: スクラムをスケーリングするためのネクサスフレームワークの理解を検証します。

  • 統合されたチームワーク: 共通の目標に向かって複数のスクラムチームを調整する能力をテストします。
  • 推奨トレーニング: 必須ではありませんが、スケールドプロフェッショナルスクラムクラスの受講をお勧めします。
  • フォーカスエリア: ネクサスフレームワーク、その応用、およびスケーリングの基礎。

Professional Agile Leadership™ Certification | Scrum.org

Understanding and Applying the Scrum Framework: Empiricism, Scrum Values, Scrum Team, Events

Developing People and Teams: Self-Managing Teams, Facilitation, Leadership Styles

Managing Products with Agility: Forecasting & Release Planning, Product Value, Stakeholders & Customers

Developing and Delivering Products Professionally: Emergent Software Development

Evolving the Agile Organization: Organizational Design and Culture, Evidence-Based Management

スクラムフレームワークの理解と適用: 経験主義、スクラムの価値、スクラムチーム、イベント

人とチームの開発: 自己管理チーム、ファシリテーション、リーダーシップスタイル

アジリティで製品を管理する: 予測とリリース計画、製品価値、ステークホルダーと顧客

プロフェッショナルに製品を開発・提供する: 緊急ソフトウェア開発

アジャイル組織の進化: 組織設計と文化、エビデンスに基づく管理

Professional Agile Leadership™ - Evidence-Based Management™ Certification | Scrum.org

  • Professional Agile Leadership™ - Evidence-Based Management™ Certification: Proves knowledge of the Evidence-Based Management framework, guiding teams towards improving customer outcomes, organizational capabilities, and business results.
  • Key Areas of Focus: Tests knowledge necessary for enabling agility, including identifying goals and measures, using hypotheses for improvement opportunities, conducting experiments, and applying learning to improve.
  • Recommendation: While not required, attending a Professional Agile Leadership - Evidence-Based Management class is highly recommended.
  • Certification Requirements: Requires interpretation and application of experiences in alignment with EBM principles.
  • Content Areas: Includes questions from Empiricism, Managing Products with Agility, Evolving the Agile Organization, and additional topics like forming and evaluating hypotheses, and setting, inspecting, and adapting goals.

  • プロフェッショナルアジャイルリーダーシップ™ - エビデンスベースドマネジメント™認定: エビデンスベースドマネジメントフレームワークの基本的な理解を証明し、チームを顧客の成果、組織の能力、およびビジネス結果の継続的な改善に導くリーダーであることを検証します。

  • 重点領域: アジリティを可能にするための知識をテストし、目標と関連する達成指標の特定、改善機会の特定のための仮説の使用、これらの仮説をテストする実験の実施、および改善への学習の適用を含む。
  • 推奨事項: 必須ではありませんが、プロフェッショナルアジャイルリーダーシップ - エビデンスベースドマネジメントクラスへの出席を強く推奨します。
  • 認定要件: EBMの原則に沿った経験の解釈と適用が必要です。
  • 内容領域: 経験主義、アジリティでの製品管理、アジャイル組織の進化、および仮説の形成と評価、目標の設定、検査、および適応などの追加トピックからの質問を含む。

Professional Scrum™ with Kanban Certification | Scrum.org

Understanding and Applying the Scrum Framework: How Scrum and Kanban can be used together for greater benefit without compromising the core tenets of either Scrum or Kanban

Complementary Practices: Kanban Practices

Knowledge of the Kanban practices listed in the Kanban Guide for Scrum Teams

Agile Metrics for Kanban: Knowledge of the required metrics listed in the Kanban Guide for Scrum Teams and how to use them effectively

スクラムフレームワークの理解と適用: スクラムとカンバンを組み合わせて使用し、どちらの核心的な原則も損なうことなく、より大きな利益を得る方法

補完的な実践: カンバン実践

スクラムチーム用カンバンガイドに記載されているカンバン実践の知識

カンバンのアジャイルメトリックス: スクラムチーム用カンバンガイドに記載されている必須メトリックスの知識と、それらを効果的に使用する方法

Professional Scrum™ with User Experience Certification | Scrum.org

Understanding and Applying the Scrum Framework: Empiricism, Scrum Values, Scrum Team, Events, Artifacts, Done

Developing People and Teams: Self-Managing (Cross-Functional) Teams - Including UX

Managing Products with Agility: Product Value, Product Backlog Management, Stakeholders & Customers, Work Management with UX

Complementary Practices: Lean UX Practices & Techniques

スクラムフレームワークの理解と適用: 経験主義、スクラムの価値、スクラムチーム、イベント、成果物、完了

人とチームの開発: 自己管理(クロスファンクショナル)チーム - UXを含む

アジリティで製品を管理する: 製品価値、プロダクトバックログ管理、ステークホルダー&顧客、UXとの作業管理

補完的な実践: リーンUXの実践と技術

Professional Scrum Facilitation Skills™ Certification | Scrum.org

  • Facilitation Skills Knowledge: Validates understanding of facilitation techniques and their application.
  • Effective Team Facilitation: Demonstrates how to use facilitation to help teams achieve desired outcomes.
  • Diverse Perspectives: Emphasizes leveraging team diversity for improved collaboration and decision-making.
  • Recommended Training: Though not required, the PSM I course is recommended for foundational Scrum understanding.
  • Focus Areas: Facilitation, principles and values of facilitation, and applying facilitation skills and techniques.

  • ファシリテーションスキルの知識: ファシリテーション技術とその応用の理解を検証します。

  • 効果的なチームファシリテーション: チームが望む成果を達成するためにファシリテーションをどのように使用するかを示します。
  • 多様な視点の活用: 改善された協働と意思決定のためにチーム内の多様性を活用することを強調します。
  • 推奨トレーニング: 必須ではありませんが、スクラムの基本的な理解のためにPSM Iコースの受講が強く推奨されます。
  • フォーカスエリア: ファシリテーションファシリテーションの原則と価値、ファシリテーションスキルと技術の応用。

Professional Scrum Product Backlog Management Skills™ Certification | Scrum.org

  • Professional Scrum Product Backlog Management Skills™ Certification: Validates knowledge of skills and techniques applied in managing a Product Backlog effectively, emphasizing transparency and value focus.
  • Core Competencies: Includes capturing customer needs, refining the Product Backlog, managing stakeholder expectations, and leveraging empiricism for competitive advantage.
  • Recommendation: Strongly recommended to attend a Professional Scrum Product Backlog Management skills course; a foundational understanding of Scrum is crucial. Having earned PSM I or PSPO I is advantageous but not required.
  • Focus Areas: Test draws from areas concerning Product Backlog management, including Understanding and Applying the Scrum Framework, The Product Backlog, and Managing Products with Agility.

  • プロフェッショナルスクラムプロダクトバックログマネジメントスキル™認定: プロダクトバックログの効果的な管理に適用されるスキルとテクニックの知識を検証し、透明性と価値に焦点を当てた管理方法を理解していることを示します。

  • コアコンピテンシー: 顧客のニーズの捕捉、プロダクトバックログの精緻化、ステークホルダーの期待管理、競争優位性のための経験主義の活用を含む。
  • 推奨事項: プロフェッショナルスクラムプロダクトバックログマネジメントスキルコースへの参加を強く推奨; スクラムの基本的理解が不可欠です。PSM IまたはPSPO Iの取得が有利になりますが、必須ではありません。
  • 焦点領域: プロダクトバックログ管理に関連する領域からのテストで、スクラムフレームワークの理解と適用、プロダクトバックログ、アジリティでの製品管理を含む。

Azure DevOps 概要まとめ

overview

Azure DevOps Services | Microsoft Azure

Title: Azure DevOps Overview

Azure DevOps supports a collaborative culture and set of processes that unite developers, project managers, and contributors to foster software development. It enables organizations to accelerate product development beyond the capabilities of traditional software development methodologies.

Key Points:

  • Collaborative Culture: Facilitates teamwork among developers, project managers, and contributors.
  • Faster Pace: Allows for quicker creation and improvement of products compared to traditional methods.
  • Flexibility: Work in the cloud with Azure DevOps Services or on-premises with Azure DevOps Server.
  • Integrated Features: Access through web browsers or IDE clients, offering versatility in how services are used.
  • Customizable Services: Option to use all services included with Azure DevOps or select only necessary ones to enhance existing workflows.

タイトル: Azure DevOps 概要

Azure DevOpsは、開発者、プロジェクトマネージャー、および貢献者を一体化させ、ソフトウェア開発を促進する協力的な文化とプロセスのセットを支援します。これにより、組織は従来のソフトウェア開発方法よりも速いペースで製品を作成および改善することができます。

主なポイント:

  • 協力的な文化: 開発者、プロジェクトマネージャー、および貢献者間のチームワークを促進します。
  • 高速ペース: 従来の方法と比較して、製品の作成および改善をより速く実現します。
  • 柔軟性: Azure DevOps Servicesを使用してクラウドで作業するか、またはAzure DevOps Serverを使用してオンプレミスで作業します。
  • 統合された機能: ウェブブラウザーIDEクライアントを通じてアクセス可能で、サービスの使用方法において多様性を提供します。
  • カスタマイズ可能なサービス: Azure DevOpsに含まれるすべてのサービスを使用するか、既存のワークフローを強化するために必要なものだけを選択するオプションがあります。

service

Azure Boards | Microsoft Azure

  • docs

Azure Boards documentation | Microsoft Learn

Title: What is Azure Boards?

Azure Boards is a web-based service designed for teams to plan, track, and discuss work throughout the development process. It supports agile methodologies and offers a customizable platform for managing work items, enabling effective collaboration and streamlined workflows. Key features include:

  • Azure Boards Hubs: Central locations for accessing various functions such as work items, boards, backlogs, sprints, queries, delivery plans, and analytics views.

  • Benefits: Includes starting easily and scaling as needed, using visual and interactive tools, customization, built-in social tools for communication, generous cloud storage for information capture, quick search and notification features, monitoring with built-in dashboards and analytics, Office integration, functionality extension through Marketplace extensions, mobile browser updates, and free start for up to five users.

  • Integration with GitHub: Allows linking GitHub commits, pull requests, and issues to work items for a seamless development and planning experience.

  • Dashboard and Power BI Reports Configuration: Customized views for status updates, progress tracking, and trend analysis, with the ability to create sophisticated reports based on Analytics service queries.

  • End-to-End Traceability: Full integration with Azure DevOps for tracking work from requirements to deployment, supporting tasks like branch creation from requirements, pull request validation, inline testing, and deployment status updates.

  • Support for Independent, Autonomous Teams: Facilitates the definition and management of teams by names, members, and area paths, essential for configuring various Azure Boards features.

タイトル: Azure Boardsとは何か?

Azure Boardsは、開発プロセス全体を通じて作業の計画、追跡、および議論を行うためのWebベースのサービスです。アジャイル方法論をサポートし、作業項目を管理するためのカスタマイズ可能なプラットフォームを提供し、効果的なコラボレーションと合理化されたワークフローを可能にします。主な特徴には以下が含まれます:

  • Azure Boardsハブ: 作業項目、ボード、バックログ、スプリント、クエリ、デリバリープラン、分析ビューなど、さまざまな機能にアクセスするための中心的な場所。

  • 利点: 必要に応じて簡単に開始してスケールアップする、視覚的でインタラクティブなツールを使用する、カスタマイズ、コミュニケーションのための組み込みのソーシャルツール、情報キャプチャのための豊富なクラウドストレージ、迅速な検索と通知機能、組み込みダッシュボードと分析による監視、Officeとの統合、Marketplace拡張機能による機能拡張、モバイルブラウザーの更新、最大5人のユーザーまで無料で開始することができます。

  • GitHubとの統合: GitHubのコミット、プルリクエスト、および問題を作業項目にリンクして、開発と計画のシームレスな体験を提供します。

  • ダッシュボードとPower BIレポートの設定: ステータスの更新、進捗の追跡、およびトレンド分析のためのカスタマイズされたビューを提供し、分析サービスクエリに基づいた洗練されたレポートを作成する能力を提供します。

  • エンドツーエンドのトレーサビリティ: 要件からデプロイメントまでの作業を追跡するためのAzure DevOpsとの完全な統合を提供し、要件からのブランチ作成、プルリクエストの検証

、インラインテスト、およびデプロイメントステータスの更新などのタスクをサポートします。

  • 独立した自律的なチームのサポート: 名前、メンバー、およびエリアパスによってチームを定義および管理することを容易にし、さまざまなAzure Boards機能を設定するために不可欠です。

Azure Repos – Git Repositories | Microsoft Azure

  • docs

Azure Repos documentation - Azure DevOps | Microsoft Learn

Title: What is Azure Repos?

Azure Repos offers version control tools to manage code for any size software project, emphasizing the importance of adopting version control early in development. Version control systems track code changes over time, allowing for snapshots of files to be saved permanently for future reference. This facilitates code changes coordination across teams and helps individual developers organize bug fixes and feature developments. Azure Repos provides:

  • Git: A distributed version control system allowing for complete local repositories, facilitating offline or remote work. Changes are committed locally before syncing with the server.

  • Team Foundation Version Control (TFVC): A centralized version control system, where historical data is stored on the server, and branches are path-based.

Azure Repos supports: - Connecting to various development environments. - Code review through pull requests, ensuring changes build and pass tests before merging. - Branch protection policies to maintain critical branches in good shape. - Extension of pull request workflows with statuses for additional requirements and validations. - Code isolation using forks for experimental or confidential changes.

タイトル: Azure Reposとは何ですか?

Azure Reposは、任意の規模のソフトウェアプロジェクトのコードを管理するためのバージョン管理ツールを提供し、開発の早い段階でバージョン管理を採用することの重要性を強調しています。バージョン管理システムは時間とともにコード変更を追跡し、将来の参照のためにファイルのスナップショットを永久に保存することができます。これにより、チーム間でのコード変更の調整を容易にし、個々の開発者がバグ修正や機能開発を整理するのに役立ちます。Azure Reposは以下を提供します:

  • Git: 完全なローカルリポジトリを許可する分散バージョン管理システムで、オフラインまたはリモートでの作業を容易にします。変更はローカルにコミットされ、その後サーバーと同期されます。

  • Team Foundation Version Control (TFVC): 履歴データがサーバーに保存され、ブランチがパスベースで作成される集中型バージョン管理システムです。

Azure Reposは以下をサポートします: - 様々な開発環境への接続。 - プルリクエストを通じたコードレビューで、マージ前に変更がビルドされテストを通過することを確認します。 - 重要なブランチを良好な状態に保つためのブランチ保護ポリシー。 - 追加要件と検証のためのプルリクエストワークフローをステータスで拡張します。 - 実験的または機密性の高い変更のためのフォークを使用したコードの隔離。

Azure Pipelines | Microsoft Azure

  • docs

Azure Pipelines documentation - Azure DevOps | Microsoft Learn

Title: What is Azure Pipelines?

Azure Pipelines is a service that automates the building and testing of code projects, supporting continuous integration (CI), continuous delivery (CD), and continuous testing (CT). It works with all major languages and project types, allowing code to be built, tested, and delivered to any destination. Key features include:

  • Continuous Integration: Automates merging and testing of code to catch bugs early, producing artifacts for release processes.

  • Continuous Delivery: Builds, tests, and deploys code to various environments, enhancing quality and enabling frequent deployments.

  • Continuous Testing: Automates testing in various environments, maintaining quality and finding problems early.

  • Version Control Systems: Supports Git and Azure Repos, automatically building and validating changes pushed to the repository.

  • Languages and Applications: Compatible with a wide range of programming languages and frameworks, allowing parallel runs on different OS.

  • Deployment Targets: Enables code deployment to multiple targets, including VMs, environments, containers, and cloud platforms.

  • Package Formats: Supports publishing NuGet, npm, or Maven packages to Azure Pipelines or other package management repositories.

  • Usage Requirements: Requires an Azure DevOps organization and source code in a version control system.

  • Pricing: Offers free options for public projects and limited free minutes for private projects monthly, with additional services for Azure DevOps Server.

Azure Pipelines facilitates a quick, consistent, and quality automation process for building projects, supporting any language or platform and integrating with various environments and GitHub.

タイトル: Azure Pipelinesとは何か?

Azure Pipelinesは、コードプロジェクトのビルドとテストを自動化するサービスで、継続的インテグレーション(CI)、継続的デリバリー(CD)、および継続的テスティング(CT)をサポートします。すべての主要な言語とプロジェクトタイプで動作し、コードを任意の宛先にビルド、テスト、および配信できます。主な特徴には以下が含まれます:

  • 継続的インテグレーション: コードの自動マージとテストを自動化し、早期にバグを捕捉し、リリースプロセス用のアーティファクトを生成します。

  • 継続的デリバリー: コードをビルド、テスト、およびさまざまな環境にデプロイし、品質を向上させ、頻繁なデプロイメントを可能にします。

  • 継続的テスティング: さまざまな環境でのテストを自動化し、品質を維持し、早期に問題を見つけます。

  • バージョン管理システム: GitとAzure Reposをサポートし、リポジトリにプッシュされた変更を自動的にビルドして検証します。

  • 言語とアプリケーション: 幅広いプログラミング言語フレームワークと互換性があり、異なるOSでの並行実行を可能にします。

  • デプロイメントターゲット: VM、環境、コンテナ、およびクラウドプラットフォームを含む複数のターゲットへのコードデプロイを可能にします。

  • パッケージ形式: Azure Pipelinesまたは他のパッケージ管理リポジトリにNuGet、npm、またはMavenパッケージを公開することをサポートします。

  • 使用要件: Azure DevOps組織とバージョン管理システム内のソースコードが必要です。

  • 価格: パブリックプロジェクトの無料オプションと、プライベートプロジェクトの月間限定無料分を提供し、Azure DevOps

Serverの追加サービスがあります。

Azure Pipelinesは、プロジェクトのビルドに対して迅速かつ一貫性のある品質の自動化プロセスを容易にし、任意の言語やプラットフォームをサポートし、さまざまな環境やGitHubとの統合を実現します。

Azure Test Plans | Microsoft Azure

  • docs

Azure Test Plans documentation - Azure DevOps | Microsoft Learn

Title: What is Azure Test Plans?

Azure Test Plans is a browser-based test management solution that supports planned manual testing, user acceptance testing, exploratory testing, and feedback gathering from stakeholders, providing tools for quality assurance and collaboration throughout the development process. Key features include:

  • Manual and Exploratory Testing: Organizes tests into plans and suites for manual execution and allows for exploratory testing without predefined plans or suites.
  • Automated Testing: Integrates with Azure Pipelines for continuous integration/continuous deployment (CI/CD), allowing tests and test cases to be associated with builds or release pipelines.
  • Traceability: Supports linking test cases and suites to user stories, features, or requirements, ensuring end-to-end traceability and quality tracking.
  • Reporting and Analysis: Offers configurable tracking charts, dashboard widgets, and built-in reports to monitor test progress and analyze results.
  • Load and Performance Testing: While Azure DevOps' cloud-based load testing service is deprecated, Azure Load Testing is available for generating high-scale load using Apache JMeter scripts.

Azure Test Plans is an extensible platform that can be integrated with and extended using REST APIs, supporting a wide range of manual and automated testing scenarios.

タイトル: Azure Test Plansとは何ですか?

Azure Test Plansは、計画的な手動テスト、ユーザーアクセプタンステスト、探索的テスト、およびステークホルダーからのフィードバック収集をサポートするブラウザベースのテスト管理ソリューションで、開発プロセス全体での品質保証とコラボレーションのためのツールを提供します。主な機能は以下の通りです:

  • 手動および探索的テスト: 手動実行のためにテストをプランとスイートに整理し、定義されたプランやスイートなしで探索的テストを可能にします。
  • 自動テスト: Azure Pipelinesとの統合をサポートし、継続的インテグレーション/継続的デリバリー(CI/CD)において、テストおよびテストケースをビルドまたはリリースパイプラインに関連付けることができます。
  • トレーサビリティ: テストケースおよびスイートをユーザーストーリー、機能、または要件にリンクすることをサポートし、エンドツーエンドのトレーサビリティと品質追跡を保証します。
  • 報告と分析: テストの進行状況を監視し、結果を分析するための設定可能な追跡チャート、ダッシュボードウィジェット、および組み込みレポートを提供します。
  • 負荷およびパフォーマンステスト: Azure DevOpsのクラウドベースの負荷テストサービスは廃止されましたが、Apache JMeterスクリプトを使用して高規模な負荷を生成するためのAzure Load Testingが利用可能です。

Azure Test Plansは、REST APIを使用して統合および拡張可能なプラットフォームであり、幅広い手動および自動テストシナリオをサポートします。

Azure Artifacts | Microsoft Azure

  • docs

Azure Artifacts documentation | Microsoft Learn

Title: Artifacts in Azure Pipelines - Overview

Azure Artifacts allows developers to publish and consume various types of packages from both feeds and public registries like PyPI, Maven Central, and NuGet.org. When combined with Azure Pipelines, it facilitates the publishing of build and pipeline artifacts, deployment of packages, or integration of files across different pipeline stages for building, testing, or deploying applications. Supported artifacts include:

  • Build Artifacts: Files generated by a build, such as .dll, .exe, and .PDB files.
  • Pipeline Artifacts: Recommended for Azure DevOps Services for faster performance, but not supported in release pipelines.
  • NuGet: Publish NuGet packages to Azure Artifacts feeds or to public registries like nuget.org.
  • npm: Publish npm packages to Azure Artifacts feeds or to public registries like npmjs.com.
  • Maven: Publish Maven packages to Azure Artifacts feeds or to public registries like Maven Central.
  • Python: Publish Python packages to Azure Artifacts feeds or to public registries like PyPI.org.
  • Cargo: Publish Cargo packages to Azure Artifacts feeds or to public registries like Crates.io.
  • Universal Packages: Publish Universal Packages to Azure Artifacts feeds.
  • Symbols: Publish symbols to the Azure Artifacts symbol server or to a file share.

Publishing artifacts can be done through various package managers and build tools including NuGet, npm, Python, Maven, Gradle, and Universal Packages, utilizing Azure Pipelines in both YAML and Classic formats.

タイトル: Azure Pipelines内のアーティファクト - 概要

Azure Artifactsを使用すると、開発者はPyPIMaven Central、NuGet.orgなどのフィードや公開レジストリから様々なタイプのパッケージを公開および使用できます。Azure Pipelinesと組み合わせることで、ビルドおよびパイプラインアーティファクトの公開、パッケージのデプロイ、またはアプリケーションのビルド、テスト、またはデプロイのための異なるパイプラインステージ間でのファイルの統合を容易にします。サポートされているアーティファクトには以下が含まれます:

  • ビルドアーティファクト: ビルドによって生成されるファイル。例:.dll、.exe、.PDBファイル。
  • パイプラインアーティファクト: Azure DevOps Servicesでの高速なパフォーマンスに推奨されますが、リリースパイプラインではサポートされていません。
  • NuGet: Azure Artifactsフィードまたはnuget.orgのような公開レジストリにNuGetパッケージを公開します。
  • npm: Azure Artifactsフィードまたはnpmjs.comのような公開レジストリにnpmパッケージを公開します。
  • Maven: Azure ArtifactsフィードまたはMaven Centralのような公開レジストリMavenパッケージを公開します。
  • Python: Azure ArtifactsフィードまたはPyPI.orgのような公開レジストリPythonパッケージを公開します。
  • Cargo: Azure ArtifactsフィードまたはCrates.ioのような公開レジストリにCargoパッケージを公開します。
  • ユニバーサルパッケージ: Azure Artifactsフィードにユニバーサルパッケージを公開します。
  • シンボル: Azure Artifactsシンボルサーバーまたはファイル共有にシンボルを公開します。

NuGet、npm、PythonMaven、Gradle、ユニバーサルパッケージなど、様々なパッケージマネージャーやビルドツールを通じてアーティファクトを公開できます。これは、YAMLおよびクラシック形式のAzure Pipelinesを利用して行われます。

certification

Microsoft Certified: DevOps Engineer Expert - Certifications | Microsoft Learn

Exam AZ-400: Designing and Implementing Microsoft DevOps Solutions - Certifications | Microsoft Learn

materials

Azure DevOps Hands-On Labs | Azure DevOps Hands-on-Labs

Scrum.orgにおけるScrum基本解説 まとめ

overview

Home | Scrum.org

  • Mission: Scrum.org aims to assist individuals and teams in tackling complex problems using Professional Scrum.
  • Learning Platform: Offers training courses, certifications, and ongoing learning based on a common competency model.
  • Professional Scrum Trainers (PSTs): Provides hands-on learning experiences led by vetted PSTs, with courses updated regularly for relevance and effectiveness.
  • Certification Tests: Globally recognized tests assess Professional Scrum knowledge independently of how it was learned.
  • Founding Background: Ken Schwaber founded Scrum.org to focus on improving Scrum knowledge and training, addressing issues like "Flaccid Scrum" and ensuring a consistent understanding of Scrum practices.
  • Commitment to Advancement: Dedicated to advancing the profession to address the challenges of complex technologies and products through collaboration, creativity, continuous improvement, and community engagement.

  • ミッション: Scrum.orgは、プロフェッショナルスクラムを使用して、個人とチームが複雑な問題を解決するのを支援することを目的としています。

  • 学習プラットフォーム: 共通の能力モデルに基づいたトレーニングコース、認定資格、および継続的な学習機会を提供します。
  • プロフェッショナルスクラムトレーナー(PSTs): 知識と教育能力で審査されたPSTによる実践的な学習体験を提供し、関連性と効果を保証するためにコースを定期的に更新します。
  • 認定テスト: どのように学んだかにかかわらず、プロフェッショナルスクラムの知識を評価するために、全世界で認識されているテスト。
  • 創設の背景: ケン・シュワバーは、アジャイル宣言に続くスクラムの急速な普及の中で、スクラムの知識とトレーニングを改善するためのより集中的な取り組みが必要であると気づき、Scrum.orgを設立しました。これは、「フラシッドスクラム」の問題やスクラム実践の理解の不一致に対処するためです。
  • 進歩へのコミットメント: 複雑な技術や製品の課題に対処するために、協力、創造性、継続的な改善、およびコミュニティとのエンゲージメントを通じて、職業を前進させることに専念しています。

keywords

  • General Terms ⼀般⽤語
  • Theory 理論
    • Empiricism 経験主義
    • Transparency 透明性
    • Inspection 検査
    • Adaptation 適応
  • Events イベント
    • Sprint スプリント
    • Sprint Planning スプリントプランニング
    • Daily Scrum デイリースクラム
    • Sprint Review スプリントレビュー
    • Sprint Retrospective スプリントレトロスペクティブ
  • Roles 役割
    • Scrum Team スクラムチーム
    • Scrum Master スクラムマスター
    • Product Owner プロダクトオーナー
    • Developers 開発者
  • Artifacts 作成物
  • Misc その他
    • Definition of Done 完成の定義

tutorial

1 What is Scrum? | Scrum.org

Title: What is Scrum?

  • Agile Framework: Scrum is an agile framework aimed at enhancing team collaboration on complex projects through breaking down work into smaller, manageable pieces.
  • Continuous Improvement: It allows for continuous feedback, experimentation, and improvement.
  • Incremental Delivery: Encourages incremental delivery of value in a collaborative setting.
  • Scrum Framework Components: Includes a Scrum Team (Product Owner, Scrum Master, Developers), five events, and three artifacts for effective progress.
  • Empiricism Principles: Based on empiricism, emphasizing transparency, inspection, and adaptation.
  • Core Values: Supported by values of courage, focus, commitment, respect, and openness to foster team trust.
  • Sprints: Work increments delivered in Sprints, short cycles of one month or less.
  • Professional Scrum: Requires a mindset shift and supportive environment for effective Scrum implementation.
  • Learning and Community Support: Offers resources like books, presentations, and forums for deeper Scrum practice engagement.

タイトル: スクラムとは何か?

  • アジャイルフレームワーク: スクラムは、作業をより小さく管理しやすい部分に分けることにより、複雑なプロジェクトにおけるチーム協力を高めることを目的としたアジャイルフレームワークです。
  • 継続的改善: 継続的なフィードバック、実験、改善を可能にします。
  • インクリメンタルデリバリー: 協力的な環境で価値の段階的な提供を奨励します。
  • スクラムフレームワークの構成要素: スクラムチーム(プロダクトオーナー、スクラムマスター、開発者)、5つのイベント、効果的な進捗のための3つの成果物が含まれます。
  • 経験主義の原則: 経験主義に基づき、透明性、検査、適応を強調します。
  • 核心価値: 勇気、集中、コミットメント、尊重、開放性の価値を支持し、チーム内の信頼を育成します。
  • スプリント: 1ヶ月未満の短いサイクルであるスプリントで、作業のインクリメントが提供されます。
  • プロフェッショナルスクラム: 効果的なスクラム実装のために、マインドセットの変化と支援環境が必要です。
  • 学習とコミュニティサポート: スクラム実践の深化のための書籍、プレゼンテーション、フォーラムなどのリソースを提供します。

2 The Scrum Team

The Scrum Team

  • Composition: One Scrum Master, one Product Owner, and Developers.
  • Structure: No sub-teams or hierarchies; a cohesive unit.
  • Functionality: Cross-functional and self-managing.
  • Size: Typically 10 or fewer people.
  • Productivity: Smaller teams communicate better and are more productive.
  • Responsibility: Responsible for all product-related activities.
  • Accountability: Accountable for creating a valuable, useful Increment every Sprint.
  • Specific Accountabilities: Developers, Product Owner, and Scrum Master.

スクラムチーム

  • 構成: スクラムマスター1人、プロダクトオーナー1人、開発者。
  • 構造: サブチームや階層なし; 一体のユニット。
  • 機能性: クロスファンクショナルで自己管理。
  • サイズ: 通常10人以下。
  • 生産性: 小さいチームはコミュニケーションがよく、より生産的。
  • 責任: すべての製品関連の活動に責任を持つ。
  • 説明責任: 価値のある、有用なインクリメントを各スプリントごとに作成すること。
  • 特定の責任: 開発者、プロダクトオーナー、スクラムマスター。

2.1 What is a Scrum Master?

The Accountabilities of the Scrum Master

  • Establishing Scrum: Helping everyone understand Scrum theory and practice.
  • Coaching and Mentoring: Utilizing soft skills to guide and support the Scrum Team and organization.
  • Facilitating Success: Offering assistance and removing impediments to the team's progress.
  • Improving Team Effectiveness: Helping the team improve their collaboration and value creation.

スクラムマスターの責務

  • スクラムの確立: スクラム理論と実践を皆が理解するよう助ける。
  • コーチングとメンタリング: スクラムチームと組織を導き、支援するためのソフトスキルを活用する。
  • 成功の促進: チームの進捗に対する支援と障害の除去を行う。
  • チーム効果の向上: チームの協働と価値創造の改善を助ける。

What does a Scrum Master do?

  • For the Scrum Team: Coaches on self-management and cross-functionality, helps focus on high-value Increments, influences impediment removal, ensures productive Scrum events.
  • For the Product Owner: Assists in defining Product Goals and managing the Product Backlog, facilitates stakeholder collaboration.
  • For the Organization: Leads Scrum adoption, coaches on empirical approaches for complex work, removes barriers between stakeholders and Scrum Teams.
  • Scrum Master Stances: Adapts roles such as Servant Leader, Facilitator, Coach, Manager, Mentor, Teacher, Impediment Remover, or Change Agent depending on the situation.

スクラムマスターは何をするか?

2.2 What is a Product Owner?

The Accountabilities of the Product Owner

  • Maximizing Value: Accountable for maximizing the product's value.
  • Providing Clarity: Provides clarity on the product's vision and goal.
  • Identifying and Measuring Value: Identifies, measures, and maximizes value throughout the product lifecycle.
  • Effective Product Backlog Management: Involves developing the Product Goal, creating Product Backlog Items, ordering them, and ensuring transparency and understanding.

プロダクトオーナーの責務

  • 価値の最大化: 製品の価値を最大化することに責任を持つ。
  • 明確性の提供: 製品のビジョンと目標についてチームに明確性を提供する。
  • 価値の特定と測定: 製品ライフサイクル全体を通じて価値を特定、測定、最大化する。
  • 効果的なプロダクトバックログ管理: プロダクトゴールの開発、プロダクトバックログアイテムの作成と整理、透明性と理解の確保を含む。

What does a Product Owner do?

  • Product Goal Communication: Develops and communicates the Product Goal.
  • Product Backlog Items Creation: Creates and communicates Product Backlog Items.
  • Product Backlog Management: Orders Product Backlog Items and ensures their transparency and visibility.
  • Decision Making: Makes decisions regarding the product and its backlog.
  • Stakeholder Representation: Represents the needs of various stakeholders in the Product Backlog.

プロダクトオーナーは何をするのか?

Product Owner Stances

  • Visionary: Communicates the product vision and strategy.
  • Collaborator: Works with the Scrum Team to define goals.
  • Customer Representative: Acts as a bridge between the customers and the Scrum Team.
  • Decision Maker: Makes daily decisions to guide the product development.
  • Experimenter and Influencer: Tests new ideas and influences the direction of the product.

プロダクトオーナーのスタンス

  • ビジョナリー: 製品のビジョンと戦略を伝える。
  • コラボレーター: スクラムチームと協力して目標を定義する。
  • 顧客代表: 顧客とスクラムチームの間の橋渡しを行う。
  • 意思決定者: 製品開発を導く日々の決定を行う。
  • 実験者および影響力者: 新しいアイデアをテストし、製品の方向性に影響を与える。

2.3 What is a Developer?

The Accountabilities of a Developer

  • Sprint Planning: Creating a plan for the Sprint, the Sprint Backlog.
  • Quality Assurance: Instilling quality by adhering to a Definition of Done.
  • Adapting Plans: Adapting their plan each day toward the Sprint Goal.
  • Professional Accountability: Holding each other accountable as professionals.
  • Embracing Practices: May include facilitation, mentoring, teaching, and coaching.

デベロッパーの責務

  • スプリント計画: スプリントの計画を立てる、スプリントバックログを作成する。
  • 品質保証: 定義された完成の基準に従って品質を保証する。
  • 計画の適応: 毎日、スプリント目標に向けて計画を適応させる。
  • 専門的な説明責任: 互いにプロフェッショナルとして責任を持つ。
  • 習慣の受入れ: ファシリテーション、メンタリング、教育、コーチングを含む可能性がある。

What does a Developer do?

  • Focus on Product Work: Can involve software or non-software product work.
  • Diverse Skills: May include design, build, test, or ship the product.
  • Sprint Backlog Management: Creating and managing the Sprint Backlog.
  • Quality Control: Ensuring quality through the Definition of Done.
  • Daily Adaptation: Adapting plans daily to achieve the Sprint Goal.
  • Peer Accountability: Holding each other accountable as professionals.
  • Facilitation and Teaching: May involve facilitating events or teaching skills to team members.

デベロッパーは何をするのか?

  • 製品作業に焦点を当てる: ソフトウェアまたは非ソフトウェア製品作業を含む可能性がある。
  • 多様なスキル: 設計、構築、テスト、または製品の出荷を含む可能性がある。
  • スプリントバックログの管理: スプリントバックログの作成と管理。
  • 品質管理: 完成の定義を通じて品質を確保する。
  • 日々の適応: スプリント目標を達成するために計画を日々適応させる。
  • 仲間の説明責任: プロフェッショナルとして互いに責任を持つ。
  • ファシリテーションと教育: イベントのファシリテーションやチームメンバーへのスキル教育を含む可能性がある。

3 The Scrum Events

The Scrum Events

  • Sprint Container: The Sprint acts as a container for all other events.
  • Formal Opportunities: Each event is an opportunity to inspect and adapt Scrum artifacts.
  • Transparency Enablement: Events are designed to enable the required transparency.
  • Consequences of Failure: Failing to operate events as prescribed results in lost opportunities.
  • Regularity and Minimization: Events create regularity and minimize the need for non-Scrum meetings.
  • Consistency: Ideally, all events are held at the same time and place to reduce complexity.

スクラムのイベント

  • スプリントコンテナ: スプリントは他のすべてのイベントのコンテナとして機能します。
  • 公式の機会: 各イベントはスクラムアーティファクトを検査し、適応するための機会です。
  • 透明性の促進: イベントは必要な透明性を促進するために特別に設計されています。
  • 失敗の結果: 指示された通りにイベントを運用しないと、検査し適応する機会を失います。
  • 定期性と最小化: イベントは定期性を生み出し、スクラムに定義されていない会議の必要性を最小限に抑えます。
  • 一貫性: 理想的には、すべてのイベントは複雑さを減らすために同じ時間と場所で開催されます。

3.1 What is a Sprint?

What is a Sprint?

  • Heartbeat of Scrum: Where ideas are turned into value.
  • Fixed Length: Lasts one month or less for consistency and short feedback iterations.
  • Comprehensive: Encompasses all other Scrum events including Sprint Planning, Daily Scrums, Sprint Review, and Sprint Retrospective.
  • Continuous Cycle: A new Sprint starts immediately after the conclusion of the previous one.
  • Adaptation and Learning: Enables predictability and continuous improvement towards the Product Goal and Sprint Goal.

スプリントとは何か?

  • スクラムの鼓動: アイデアを価値に変える場所。
  • 固定期間: 一貫性を確保し、フィードバックの短い反復のために1ヶ月以下。
  • 包括的: スプリント計画、デイリースクラム、スプリントレビュー、スプリントレトロスペクティブを含むすべてのスクラムイベントを包含する。
  • 連続するサイクル: 前のスプリントの結論の直後に新しいスプリントが始まる。
  • 適応と学習: プロダクトゴールとスプリントゴールに向けての予測可能性と継続的な改善を可能にする。

During the Sprint:

  • No Goal Endangerment: No changes made that endanger the Sprint Goal.
  • Quality Maintenance: Quality levels are maintained throughout the Sprint.
  • Backlog Refinement: The Product Backlog is refined as necessary.
  • Scope Clarification: Scope may be renegotiated with the Product Owner as more is learned.

スプリント中において:

  • ゴール危険回避: スプリントゴールを危険にさらす変更は行わない。
  • 品質維持: スプリントを通じて品質レベルが維持される。
  • バックログの洗練: 必要に応じてプロダクトバックログが洗練される。
  • スコープの明確化: 学習に応じてプロダクトオーナーとスコープが再交渉されることがある。

Empiricism during the Sprint:

  • Learning by Doing: Embracing empiricism for continuous improvement.
  • Forward Decisions: Based on experiences and what has already happened.
  • Forecasting Practices: Utilizing burn-downs, burn-ups, or cumulative flows without replacing the importance of empiricism.

スプリント中の経験主義:

  • 実践による学習: 継続的な改善のための経験主義を受け入れる。
  • 前向きな決定: 経験と過去に起こったことに基づく。
  • 予測実践: バーンダウン、バーンアップ、累積フローを利用するが、経験主義の重要性を置き換えるものではない。

3.2 What is Sprint Planning?

What is Sprint Planning?

  • Initiation of Sprint: Sprint Planning starts the Sprint by outlining the work.
  • Collaborative Effort: Involves the entire Scrum Team in creating the plan.
  • Product Owner's Role: Prepares the team to discuss key Product Backlog items and their alignment with the Product Goal.
  • Invitation for Advice: May include external advisers for additional insights.
  • Sprint Goal Definition: Collaboratively defining why the Sprint is valuable.
  • Selection of Work: Developers select Product Backlog items for the Sprint, refining them for clarity and confidence.
  • Work Planning: Developers plan how to accomplish the selected work, adhering to the Definition of Done.
  • Sprint Backlog Creation: The Sprint Goal, selected items, and the delivery plan constitute the Sprint Backlog.
  • Timeboxed Event: Max eight hours for a one-month Sprint, shorter for less.

スプリントプランニングとは何か?

  • スプリントの開始: スプリントプランニングはスプリントに取り組む作業を概説して開始します。
  • 共同の取り組み: スクラムチーム全体が計画作成に関わります。
  • プロダクトオーナーの役割: チームがプロダクトゴールに沿った重要なプロダクトバックログアイテムを議論できるよう準備します。
  • アドバイスのための招待: 追加の洞察のために外部のアドバイザーを招待することがあります。
  • スプリントゴールの定義: スプリントが利害関係者にとってなぜ価値があるのかを共同で定義します。
  • 作業の選択: 開発者はスプリントのためのプロダクトバックログアイテムを選択し、それらを明確かつ自信を持って洗練します。
  • 作業計画: 開発者は選択した作業を達成するための計画を立て、完成の定義を守ります。
  • スプリントバックログの作成: スプリントゴール、選択されたアイテム、およびそれらの配信計画をスプリントバックログとしてまとめます。
  • タイムボックスイベント: 1か月のスプリントの場合は最大8時間、それ以下の場合は通常短くなります。

3.3 What is a Daily Scrum?

What is a Daily Scrum?

  • Purpose: Inspect progress toward the Sprint Goal and adapt the Sprint Backlog as necessary.
  • Duration: A 15-minute event for the Developers.
  • Consistency: Held at the same time and place every working day of the Sprint.
  • Participants: Developers, with the Product Owner and Scrum Master as Developers if they work on Sprint Backlog items.
  • Structure and Techniques: Selected by Developers to focus on progress and plan the next day of work.
  • Benefits: Improves communications, identifies impediments, promotes quick decision-making, and eliminates the need for other meetings.
  • Continuous Adjustment: Allows for ongoing discussions and re-planning throughout the Sprint.
  • Role of the Scrum Master: Ensures the meeting takes place and teaches how to keep it within the 15-minute time-box.

デイリースクラムとは何か?

  • 目的: スプリントゴールに向けた進捗を検査し、必要に応じてスプリントバックログを適応させる。
  • 期間: 開発者のための15分のイベント。
  • 一貫性: スプリントの毎営業日に同じ時間と場所で開催される。
  • 参加者: 開発者、スプリントバックログのアイテムに取り組む場合はプロダクトオーナーとスクラムマスターも開発者として参加。
  • 構造と技術: 開発者が進捗に焦点を当て、次の日の作業計画を立てるために選択する。
  • 利点: コミュニケーションを改善し、障害を特定し、迅速な意思決定を促進し、他の会議の必要性をなくす。
  • 継続的な調整: スプリントを通じて継続的な議論と再計画を可能にする。
  • スクラムマスターの役割: 会議が行われるようにし、15分のタイムボックス内で保持する方法を教える。

3.4 What is a Sprint Review?

What is a Sprint Review?

  • Purpose: To inspect the outcome of the Sprint and determine future adaptations.
  • Presentation: The Scrum Team presents their work to stakeholders and discusses progress toward the Product Goal.
  • Collaboration: Team and stakeholders review accomplishments and environmental changes to decide next steps.
  • Product Backlog Adjustment: May be updated to reflect new opportunities.
  • Working Session: Not limited to a presentation; involves active collaboration.
  • Timing: Second to last event of the Sprint, timeboxed to a maximum of four hours for a one-month Sprint.
  • Attendees: Scrum Team and key stakeholders invited by the Product Owner.
  • Discussion: Includes what was done, challenges faced, and problem-solving.
  • Demonstration: Developers show completed work and answer questions.
  • Planning Input: Provides valuable input for subsequent Sprint Planning.
  • Marketplace Review: Discussion on how changes in the marketplace or potential use of the product might influence next steps.
  • Outcome: A revised Product Backlog for the next Sprint and adjustments based on new opportunities.

スプリントレビューとは何か?

  • 目的: スプリントの結果を検査し、将来の適応を決定する。
  • プレゼンテーション: スクラムチームが作業結果を利害関係者に提示し、プロダクトゴールに向けた進捗を議論する。
  • 協働: チームと利害関係者が成果と環境の変化をレビューし、次のステップを決定する。
  • プロダクトバックログの調整: 新しい機会を反映するように更新されることがある。
  • 作業セッション: プレゼンテーションに限定されず、積極的な協働を含む。
  • タイミング: スプリントの最後から二番目のイベントで、1か月のスプリントに対して最大4時間まで。
  • 出席者: プロダクトオーナーによって招待されたスクラムチームと主要な利害関係者。
  • 議論: 完了した作業、直面した課題、問題解決について議論する。
  • デモンストレーション: 開発者が完了した作業を示し、質問に答える。
  • 計画への入力: 次のスプリント計画に貴重な入力を提供する。
  • 市場レビュー: 製品の市場や潜在的な使用法の変化が次のステップにどう影響するかを議論する。
  • 結果: 次のスプリントのための見直されたプロダクトバックログと、新しい機会に基づく調整。

3.5 What is a Sprint Retrospective?

What is a Sprint Retrospective?

  • Purpose: To plan ways to increase quality and effectiveness.
  • Inspection: Evaluates the last Sprint's individuals, interactions, processes, tools, and Definition of Done.
  • Discussion: Covers what went well, encountered problems, and solutions.
  • Improvement Identification: Identifies helpful changes to improve effectiveness.
  • Impactful Improvements: Addressed as soon as possible, potentially added to the next Sprint Backlog.
  • Concluding Event: Concludes the Sprint, timeboxed to a maximum of three hours for a one-month Sprint.
  • Key Discussions: What went well, what could be improved, and commitments to improvement in the next Sprint.
  • Scrum Master's Role: Encourages process and practice improvements for the next Sprint.
  • Outcome: Identification of improvements to implement in the next Sprint, focusing on inspection and adaptation.

スプリントレトロスペクティブとは何か?

  • 目的: 品質と効果を高める方法を計画する。
  • 検査: 前スプリントの個人、相互作用、プロセス、ツール、および完了の定義を評価する。
  • 議論: うまくいったこと、遭遇した問題、解決策についての話し合い。
  • 改善の特定: 効果を高めるための有益な変更を特定する。
  • 影響の大きな改善: 可能な限り早急に対処され、次のスプリントバックログに追加されることもある。
  • 終結イベント: スプリントを終了し、1か月のスプリントに対して最大3時間までという時間枠で行われる。
  • 主な議論: うまくいったこと、改善できること、次のスプリントでの改善へのコミットメント。
  • スクラムマスターの役割: 次のスプリントのためのプロセスと実践の改善を促す。
  • 成果: 次のスプリントで実装する改善点の特定、検査と適応に焦点を当てる。

4 The Scrum Artifacts

The Scrum Artifacts

  • Transparency and Inspection: Artifacts offer transparency and allow for inspection and adaptation.
  • Representation: Represent work or value, designed to maximize key information transparency.
  • Commitments:
    • Product Backlog: Committed to the Product Goal.
    • Sprint Backlog: Committed to the Sprint Goal.
    • Increment: Committed to the Definition of Done.
  • Purpose: Enhance transparency, focus, and measure progress.
  • Empiricism and Values: Commitments reinforce empiricism and Scrum values among the team and stakeholders.

スクラムの成果物

  • 透明性と検査: 成果物は透明性を提供し、検査と適応を可能にする。
  • 表現: 作業または価値を表し、重要な情報の透明性を最大化するように設計されている。
  • コミットメント:
    • プロダクトバックログ: プロダクトゴールに対するコミットメント。
    • スプリントバックログ: スプリントゴールに対するコミットメント。
    • インクリメント: 完成の定義に対するコミットメント。
  • 目的: 透明性と焦点を高め、進捗を測定する。
  • 経験主義と価値観: コミットメントはチームと利害関係者の間で経験主義とスクラムの価値観を強化する。

4.1 What is a Product Backlog?

What is a Product Backlog?

  • Emergent List: An ordered list of what is needed to improve the product.
  • Single Source of Work: The only source of work for the Scrum Team.
  • Readiness for Sprint: Items ready for Sprint Planning after refining activities.
  • Refinement Activity: Ongoing activity to break down items into smaller, more precise items.
  • Developer Sizing: Developers are responsible for sizing, with input from the Product Owner.
  • Collaboration Across Teams: Multiple Scrum Teams may work on the same product with one Product Backlog.
  • Commitment to Product Goal: Describes a future state of the product as a target for planning.

プロダクトバックログとは何か?

  • 発展的リスト: 製品の改善に必要な項目の順序付けられたリスト。
  • 作業の唯一の源泉: スクラムチームによる作業の唯一の源泉。
  • スプリントの準備: 精緻化活動の後、スプリントプランニングで選択される準備ができたアイテム。
  • 精緻化活動: 項目をより小さく、より正確な項目に分解し、さらに定義する継続的な活動。
  • 開発者によるサイジング: 開発者がサイジングを担当し、プロダクトオーナーからの入力を受ける。
  • チーム間の協力: 複数のスクラムチームが同じ製品に取り組む場合、一つのプロダクトバックログを使用する。
  • プロダクトゴールへのコミットメント: 計画に対する目標としての製品の将来の状態を記述する。

4.2 What is a Product Goal?

What is a Product Goal?

  • Product Goal Commitment: Associated with the Product Backlog as its commitment.
  • Context Provider: Gives context to the Product Backlog, describing the future state of the product.
  • Long-term Objective: Serves as the long-term target for the Scrum Team.
  • Directional Statement: Offers direction and purpose for the Scrum Team and stakeholders.
  • Visibility: Made visible through the Product Backlog, with the Product Owner accountable for its creation and communication.
  • Evolving Nature: Evolves as the Scrum Team learns and receives feedback.
  • Uniqueness: Only one Product Goal for the Product Backlog at a time, clear and concise.
  • Incremental Progress: Moves toward the Product Goal through each Sprint Goal.
  • Sprint Review Role: Inspected during Sprint Review to evaluate progress and influence future Sprint Planning.

プロダクトゴールとは何か?

  • プロダクトゴールのコミットメント: プロダクトバックログに関連付けられたコミットメント。
  • コンテキストの提供者: プロダクトバックログにコンテキストを提供し、製品の将来の状態を説明する。
  • 長期的な目標: スクラムチームの長期的な目標として機能する。
  • 方向性の声明: スクラムチームと利害関係者に方向性と目的を提供する。
  • 可視性: プロダクトバックログを通じて可視化され、プロダクトオーナーがその作成とコミュニケーションに責任を持つ。
  • 進化する性質: スクラムチームが学習しフィードバックを受け取るにつれて進化する。
  • ユニークさ: 一度に一つのプロダクトゴールのみで、明確かつ簡潔である。
  • 段階的な進捗: 各スプリントゴールを通じてプロダクトゴールに向かって進む。
  • スプリントレビューの役割: スプリントレビュー中にインクリメントとプロダクトゴールに向けた進捗が検査され、将来のスプリントプランニングに影響を与える。

4.3 What is a Sprint Backlog?

What is a Sprint Backlog?

  • Composition: Includes the Sprint Goal, selected Product Backlog items, and an actionable plan for the Increment.
  • Purpose: A plan by and for the Developers to achieve the Sprint Goal.
  • Visibility and Update: Highly visible, updated throughout the Sprint as learning progresses.
  • Detail Level: Detailed enough for progress inspection in the Daily Scrum.
  • Commitment: Sprint Goal as the single objective, providing focus and coherence.

スプリントバックログとは何か?

  • 構成: スプリントゴール、選択されたプロダクトバックログアイテム、インクリメントのための実行可能な計画を含む。
  • 目的: スプリントゴールを達成するための開発者による計画。
  • 可視性と更新: 学習が進むにつれてスプリント中に更新される高い可視性を持つ。
  • 詳細レベル: デイリースクラムでの進捗検査に十分な詳細を持つ。
  • コミットメント: 単一の目的としてのスプリントゴールで、焦点と一体感を提供する。

Increment

  • Increment: A concrete stepping stone toward the Product Goal. Each Increment is additive to all prior Increments and thoroughly verified, ensuring that all Increments work together. In order to provide value, the Increment must be usable.

  • Multiple Increments: Within a Sprint, multiple Increments may be created. The sum of the Increments is presented at the Sprint Review, supporting empiricism. However, an Increment may be delivered to stakeholders prior to the end of the Sprint. The Sprint Review should not be considered a gate to releasing value.

  • Definition of Done: Work cannot be considered part of an Increment unless it meets the Definition of Done.

Increment (インクリメント)

  • Increment: プロダクトゴールに向かう具体的なステップ。各インクリメントは、以前のすべてのインクリメントに加算され、徹底的に検証され、全てのインクリメントが一緒に機能することを保証する。価値を提供するためには、インクリメントは使用可能でなければならない。
  • 複数のインクリメント: スプリント内で複数のインクリメントが作成されることがある。インクリメントの合計はスプリントレビューで提示され、経験主義をサポートする。しかし、インクリメントはスプリントの終わり前に利害関係者に提供されることがある。スプリントレビューは価値をリリースするゲートとして考えるべきではない。
  • 完了の定義: 完了の定義を満たさない限り、作業はインクリメントの一部とは見なされない。

4.4 What is a Sprint Goal?

What is a Sprint Goal?

  • Sprint Goal Commitment: Associated commitment with the Sprint Backlog in the Scrum Guide.
  • Single Objective: The single objective for the Sprint, providing flexibility and focus.
  • Cohesiveness and Focus: Encourages the Scrum Team to work together.
  • Creation: Created during Sprint Planning and added to the Sprint Backlog.
  • Adaptability: If work evolves, scope may be negotiated without affecting the Sprint Goal.
  • Immutability: The Sprint Goal does not change during the Sprint, except in cases where it's invalidated.
  • Characteristics: Should be clear, attainable, and aligned with incremental value delivery.
  • Visibility and Inspection: Must be visible and regularly inspected during the Daily Scrum.

スプリントゴールとは何か?

  • スプリントゴールのコミットメント: スクラムガイドにおけるスプリントバックログに関連付けられたコミットメント。
  • 単一の目的: スプリントのための単一の目的で、柔軟性と焦点を提供する。
  • 一体感と焦点: スクラムチームが一緒に働くことを奨励する。
  • 作成: スプリントプランニング中にスクラムチームによって作成され、スプリントバックログに追加される。
  • 適応性: 作業が進化する場合、スプリントゴールに影響を与えずにスコープを交渉することができる。
  • 不変性: スプリントゴールはスプリント中に変更されないが、無効になる場合がある。
  • 特性: 明確で達成可能であり、インクリメンタルな価値提供に合わせて作成されるべきである。
  • 可視性と検査: デイリースクラムでの進捗の検査を通じて、常に可視化され、焦点を維持する必要がある。

4.5 What is an Increment?

What is an Increment?

  • Definition: A concrete stepping stone toward the Product Goal.
  • Additive and Verified: Each Increment builds upon previous ones and is thoroughly verified.
  • Usability: Must be usable to provide value.
  • Multiple Increments: Can be created within a Sprint.
  • Presentation: Sum of Increments is presented at the Sprint Review, supporting empiricism.
  • Delivery: An Increment may be delivered before the Sprint ends.
  • No Gatekeeping: Sprint Review is not a gate to releasing value.
  • Definition of Done: Work is part of an Increment only if it meets the Definition of Done.

インクリメントとは何か?

  • 定義: プロダクトゴールに向かう具体的なステップ。
  • 加算性と検証: 各インクリメントは以前のものに加えられ、徹底的に検証される。
  • 使用可能性: 価値を提供するためには使用可能でなければならない。
  • 複数のインクリメント: スプリント内で複数作成可能。
  • 提示: インクリメントの合計はスプリントレビューで提示され、経験主義を支持する。
  • 納品: スプリント終了前に利害関係者にインクリメントを納品できる。
  • ゲートキーピングなし: スプリントレビューは価値のリリースのゲートとして考えられるべきではない。
  • 完了の定義: 作業は完了の定義を満たした場合にのみインクリメントの一部とみなされる。

4.6 What is a Definition of Done?

What is a Definition of Done?

  • Definition: The commitment by the Developers for the Increment, outlining the required characteristics and standards for release.
  • Purpose: Ensures transparency and a shared understanding of completion standards.
  • Requirement: If a Product Backlog Item does not meet the Definition of Done, it cannot be released.
  • Organizational Standards: May include standards of the organization, with teams elaborating on additional needed standards.
  • Creation Process: Collaboratively defined by the team, possibly incorporating brainstorming activities.

完了の定義とは何か?

  • 定義: インクリメントに対する開発者のコミットメントであり、リリースに必要な特性と基準を概説しています。
  • 目的: 透明性を確保し、完了基準に対する共有理解を提供する。
  • 要件: プロダクトバックログアイテムが完了の定義を満たさない場合、まだリリースできない。
  • 組織の基準: 組織の基準を含む場合があり、チームは製品に必要な追加の基準を詳述する。
  • 作成プロセス: チームによって共同で定義され、ブレインストーミング活動を取り入れることもある。

How to Create a Definition of Done

  • Creating Transparency: Provides everyone with a shared understanding of the standards required for work as part of the Increment. This can involve the team working collaboratively to document all necessary conditions or employing brainstorming techniques to ensure comprehensive coverage.
  • Examples: Below are some examples of what might be included in a Definition of Done:
    • For a Marketing Case Study:
      • Meets featured client branding guidelines.
      • Written in AP style.
      • Reviewed by the featured client and feedback received.
      • Feedback implemented.
      • Final Draft Approved by Client.
    • For a Health-Focused Software Application:
      • All testing completed.
      • No known defects.
      • Code review completed and passed.
      • Meets HIPAA Compliance standards.
      • Meets general security requirements.
  • Once all items in the Definition of Done are checked off and complete, the Increment is considered Done. Scrum is used for complex work, so the Definition of Done may include many complex characteristics to make it stringent.

完了の定義の作成方法

  • 透明性の創出: インクリメントの一部として要求される作業の基準について、全員に共有理解を提供する。
  • : 完了の定義に含まれる項目の例を以下に示す。
    • マーケティングケーススタディの書き方に関する完了の定義の例:
      • クライアントのブランドガイドラインを満たす
      • APスタイルで書かれている
      • 特集されたクライアントによってレビューされ、フィードバックが受け取られている
      • フィードバックが実装されている
      • クライアントによって最終草稿が承認されている
    • 健康に焦点を当てたソフトウェアアプリケーションの完了の定義の例:
      • すべてのテストが完了している
      • 既知の欠陥がない
      • コードレビューが完了し、合格している
      • HIPAAコンプライアンス基準を満たしている
      • 一般的なセキュリティ要件を満たしている
  • 完了の定義のすべての項目がチェックオフされ、完了している場合、このインクリメントは完了と見なされる。もちろん、スクラムは複雑な作業に使用され、完了の定義に多くの複雑な特性が追加されることがあります。

materials

  • Scrum Guide

Scrum Guide | Scrum Guides

  • Scrum Guide in Japanese

2020-Scrum-Guide-Japanese.pdf

The Art of Agile Development 2nd Edition 概要まとめ

The Art of Agile Development, 2nd Edition [Book]

overview

Title: The Art of Agile Development, 2nd Edition

  • Clarification of Agile: Aims to clarify misunderstandings about Agile in software development.
  • Author's Expertise: Written by James Shore, with over 20 years of Agile experience.
  • Integration of Methodologies: Combines ideas from Extreme Programming, Scrum, Lean, DevOps, etc.
  • Practical Advice: Offers concrete advice on adopting Agile practices, planning, development, delivery, and management.
  • Improvement of Agility: Helps improve software development team's agility with clear guidance.
  • Decision Making: Guides on when to make trade-offs.
  • Resource for Implementation: Useful for those looking to implement Agile in teams or organizations.
  • Evaluation of Agile: Assists in evaluating if Agile is suitable for specific projects.

  • アジャイルの明確化: ソフトウェア開発におけるアジャイルに関する誤解を明らかにすることを目指す。

  • 著者の専門知識: 20年以上のアジャイル経験を持つジェームズ・ショアによって書かれた。
  • 方法論の統合: エクストリーム・プログラミングスクラム、リーン、デブオプスなどのアイデアを組み合わせる。
  • 実用的なアドバイス: アジャイル実践、計画、開発、納品、管理を採用するための具体的なアドバイスを提供する。
  • アジリティの向上: 明確な指導でソフトウェア開発チームのアジリティを向上させる助けとなる。
  • 意思決定: トレードオフをいつ行うかについて指導する。
  • 実装のためのリソース: チームや組織内でアジャイルを実装しようとする人々に役立つ。
  • アジャイルの評価: 特定のプロジェクトにアジャイルが適しているかどうかを評価するのに役立つ。

table of contents

  • Part I: Improving Agility
    • What is Agile?
    • How to Be Agile
    • Choose Your Agility
    • Invest in Agility
    • Invest in Change
    • Scaling Agility
  • Part II: Focusing on Value
    • Teamwork
      • Whole Team
      • Team Room
      • Safety
      • Purpose
      • Context
      • Alignment
      • Energized Work
    • Planning
      • Stories
      • Adaptive Planning
      • Visual Planning
      • The Planning Game
      • Real Customer Involvement
      • Incremental Requirements
    • Ownership
      • Task Planning
      • Capacity
      • Slack
      • Stand-Up Meetings
      • Informative Workspace
      • Customer Examples
      • “Done Done”
    • Accountability
      • Stakeholder Trust
      • Stakeholder Demos
      • Forecasting
      • Roadmaps
      • Management
    • Improvement
      • Retrospectives
      • Team Dynamics
      • Impediment Removal
  • Part III: Delivering Reliably
    • Collaboration
      • Collective Code Ownership
      • Pair Programming
      • Mob Programming
      • Ubiquitous Language
    • Development
      • Zero Friction
      • Continuous Integration
      • Test-Driven Development
      • Fast, Reliable Tests
      • Refactoring
      • Spike Solutions
    • Design
      • Incremental Design
      • Simple Design
      • Reflective Design
    • DevOps
      • Build for Operation
      • Feature Flags
      • Continuous Deployment
      • Evolutionary System Architecture
    • Quality
      • No Bugs
      • Blind Spot Discovery
      • Incident Analysis
  • Part IV: Optimizing Outcomes
    • Autonomy
    • Discovery
    • Into the Future

others

著者サイト

James Shore: The Art of Agile Development, Second Edition

Develop Generative AI solutions with Azure OpenAI Service まとめ

Develop Generative AI solutions with Azure OpenAI Service - Training | Microsoft Learn

overview

Title: Develop Generative AI solutions with Azure OpenAI Service - Training

  • Duration: 5 hours and 34 minutes
  • Modules: 7
  • Content: Access to OpenAI's large language models (ChatGPT, GPT, Codex, Embeddings) via Azure OpenAI Service.
  • Applications: Supports NLP tasks (understanding, conversing, content generation).
  • Access: Through REST APIs, SDKs, and Azure OpenAI Studio.
  • Prerequisites:
    • Familiarity with Azure and Azure portal.
    • Programming experience in C# or Python.
  • Recommendation: Complete introductory courses in C# or Python for beginners.
  • Additional: Includes a section on redeeming achievement codes.

タイトル: Azure OpenAI Serviceを使用したGenerative AIソリューションの開発 - トレーニン

  • 期間: 5時間34分
  • モジュール: 7
  • 内容: Azure OpenAI Serviceを通じてOpenAIの大規模言語モデル(ChatGPT、GPT、Codex、Embeddings)へのアクセス。
  • 応用: NLPタスク(理解、会話、コンテンツ生成)をサポート。
  • アクセス方法: REST APISDK、Azure OpenAI Studioを通じて。
  • 前提条件:
    • AzureおよびAzureポータルに精通していること。
    • C#またはPythonのプログラミング経験があること。
  • 推奨事項: 初心者はC#またはPythonの入門コースを完了すること。
  • 追加情報: 達成コードの引き換えセクションを含む。

learning path

Get started with Azure OpenAI Service - Training | Microsoft Learn

  • Title: Get started with Azure OpenAI Service - Training
  • Summary: This module trains engineers to use Azure OpenAI Service for building solutions. It includes 10 units over 43 minutes, aiming at an intermediate level audience.
  • Learning Objectives:
    • Create an Azure OpenAI Service resource.
    • Understand the types of Azure OpenAI base models.
    • Deploy a base model using Azure OpenAI Studio, console, or REST API.
    • Generate completions to prompts.
    • Manage model parameters.
  • Prerequisites:

    • Familiarity with Azure and the Azure portal.
    • Understanding of generative AI.
    • Suggestion to learn from "Introduction to Azure OpenAI Service".
  • タイトル: Azure OpenAI Serviceの基本 - トレーニン

  • 要約: このモジュールは、Azure OpenAI Serviceを使用してソリューションを構築するためのエンジニアを訓練します。43分間で10のユニットを含み、中級レベルの聴衆を対象としています。
  • 学習目標:
    • Azure OpenAI Serviceリソースを作成する。
    • Azure OpenAIの基本モデルの種類を理解する。
    • Azure OpenAI Studio、コンソール、またはREST APIを使用して基本モデルをデプロイする。
    • プロンプトへの完成を生成する。
    • モデルパラメータを管理する。
  • 前提条件:
    • AzureおよびAzureポータルに精通していること。
    • 生成AIに関する基本的な理解。
    • 「Azure OpenAI Serviceの紹介」から学ぶことを推奨。

Build natural language solutions with Azure OpenAI Service - Training | Microsoft Learn

  • Title: Build natural language solutions with Azure OpenAI Service - Training
  • Summary: This 57-minute intermediate course is designed for AI engineers, developers, solution architects, and students. It focuses on integrating Azure OpenAI Service into applications.
  • Learning Objectives:
    • Integrate Azure OpenAI into your application.
    • Differentiate between different endpoints available to your application.
    • Generate completions to prompts using the REST API and language-specific SDKs.
  • Prerequisites:

    • Familiarity with Azure.
    • Understanding of generative AI.
    • Experience programming with C# or Python.
    • Recommendation for beginners: complete introductory courses in C# or Python.
  • タイトル: Azure OpenAI Serviceを使用した自然言語ソリューションの構築 - トレーニン

  • 要約: この57分の中級コースは、AIエンジニア、開発者、ソリューションアーキテクト、およびアプリケーションにAzure OpenAI Serviceを統合に興味がある学生を対象としています。
  • 学習目標:
    • 統合: アプリケーションにAzure OpenAIを統合する。
    • 区別: アプリケーションで利用可能なさまざまなエンドポイントを区別する。
    • 生成: REST APIと言語固有のSDKを使用して、プロンプトへの完了を生成する。
  • 前提条件:
    • 慣れ: Azureに慣れていること。
    • 理解: 生成AIの理解があること。
    • 経験: C#またはPythonでのプログラミング経験があること。
    • 推奨: プログラミング経験がない場合は、C#またはPythonの入門コースを最初に完了することが推奨されます。

Apply prompt engineering with Azure OpenAI Service - Training | Microsoft Learn

Title: Apply prompt engineering with Azure OpenAI Service - Training

Summarize:

  • Understand prompt engineering: Learn the technique of prompt engineering within the Azure OpenAI framework to enhance natural language processing model performance.
  • Design effective prompts: Gain skills in crafting and refining prompts that yield accurate and relevant responses.
  • Improve model performance: Discover how to incorporate clear instructions, desired output composition, and contextual content to boost response quality.

Translate in Japanese:

タイトル: Azure OpenAIサービスでのプロンプトエンジニアリングの適用 - トレーニン

要約:

  • プロンプトエンジニアリングを理解する: Azure OpenAIフレームワーク内でのプロンプトエンジニアリングの技術を学び、自然言語処理モデルのパフォーマンスを向上させます。
  • 効果的なプロンプトを設計する: 正確で関連性の高い反応を引き出すプロンプトの作成と改善のスキルを身につけます。
  • モデルのパフォーマンスを向上させる: 明確な指示、望ましい出力構成、および文脈に即した内容を取り入れて、反応の質を大幅に向上させる方法を発見します。

Generate code with Azure OpenAI Service - Training | Microsoft Learn

Title: Generate code with Azure OpenAI Service - Training

  • Target Audience: Intermediate AI Engineers, Developers, Solution Architects, and Students.
  • Learning Objectives:
    • Utilize natural language prompts to write code.
    • Build unit tests and decipher complex code using AI models.
    • Generate comments and documentation for existing code.
  • Module Details: 50 minutes, 800 XP, 7 units.
  • Prerequisites:
    • Familiarity with Azure, generative AI.
    • Programming experience in C# or Python.
  • Recommendations:
    • Complete an introductory course on Azure OpenAI Service.
    • For beginners, start with C# or Python programming basics.
  • Learning Path Inclusion: Part of developing generative AI solutions with Azure OpenAI Service, including practical exercises and knowledge checks.

  • 対象者: 中級AIエンジニア、開発者、ソリューションアーキテクト、学生。

  • 学習目標:
    • 自然言語プロンプトを利用して コードを書く。
    • AIモデルを使用してユニットテストを構築し、複雑なコードを解読する
    • 既存のコードにコメントとドキュメントを生成する
  • モジュール詳細: 50分、800 XP、7ユニット。
  • 前提条件:
    • Azure、生成AIに関する基本的な理解。
    • C#またはPythonによるプログラミング経験。
  • 推奨事項:
    • Azure OpenAIサービスの導入コースを完了する。
    • 初心者は、C#またはPythonのプログラミング基礎から始める。
  • 学習パスの含まれる内容: Azure OpenAIサービスを使用した生成AIソリューションの開発に関する、実践的な演習と知識確認を含む。

Generate images with Azure OpenAI Service - Training | Microsoft Learn

  • Title: Azure OpenAI Service Training on Image Generation with DALL-E
  • Summary:

    • Describe DALL-E's Capabilities: Understand how DALL-E can generate original images from text prompts within the Azure OpenAI Service.
    • Use DALL-E Playground: Learn to use the DALL-E playground in Azure OpenAI Studio for practical experience.
    • Integrate with Apps: Apply DALL-E image generation in applications using the Azure OpenAI REST interface.
    • Complete Preliminary Module: It's advised to finish the "Get started with Azure OpenAI Service" module for a fundamental understanding before this advanced DALL-E training.
  • タイトル: Azure OpenAIサービスにおけるDALL-Eを用いた画像生成トレーニン

  • 要約:
    • DALL-Eの機能を説明する: テキストプロンプトからオリジナル画像を生成するDALL-Eの能力をAzure OpenAIサービス内で理解する。
    • DALL-Eプレイグラウンドを使用する: 実践的な経験のためにAzure OpenAIスタジオ内のDALL-Eプレイグラウンドの使用方法を学ぶ。
    • アプリに統合する: アプリケーションでDALL-Eの画像生成機能をAzure OpenAI RESTインターフェースを使用して適用する。
    • 予備モジュールを完了する: この高度なDALL-Eトレーニングを進める前に、サービスの基本を理解するために「Azure OpenAIサービスのはじめ方」モジュールを終了することが勧められる。

Use your own data with Azure OpenAI Service - Training | Microsoft Learn

Title: Use your own data with Azure OpenAI Service - Training

Summary: This module is aimed at developers, AI engineers, solution architects, and students, focusing on developing generative AI solutions with Azure OpenAI Service. It spans approximately 33 minutes and comprises 7 units at an intermediate level. The emphasis is on teaching how to integrate personal data with Azure OpenAI Service to enhance AI chat models with data-driven responses.

  • Learning Objective 1: Describe the capabilities of Azure OpenAI Service with personal data.
  • Learning Objective 2: Configure Azure OpenAI to utilize personal data.
  • Learning Objective 3: Use the Azure OpenAI API for data-driven response generation.

Prerequisites: Knowledge of Azure, the Azure portal, and generative AI is required. Completion of prior modules in the "Develop AI solutions with Azure OpenAI" learning path and an introduction to Azure OpenAI Service is recommended for a solid foundation.

タイトル: Azure OpenAI Serviceを使用して自分のデータを活用する - トレーニン

要約: このモジュールは、開発者、AIエンジニア、ソリューションアーキテクト、および学生を対象としており、Azure OpenAI Serviceを使用した生成AIソリューションの開発に焦点を当てています。約33分で、中級レベルの7ユニットから構成されています。個人データをAzure OpenAI Serviceと統合し、データ駆動型の応答を強化する方法を教えることが重点です。

  • 学習目標1: 個人データを使用した場合のAzure OpenAI Serviceの能力を説明する。
  • 学習目標2: 個人データを活用するためにAzure OpenAIを設定する。
  • 学習目標3: データ駆動型の応答生成のためにAzure OpenAI APIを使用する。

前提条件: Azure、Azureポータル、および生成AIに関する知識が必要です。"Azure OpenAIを使用したAIソリューションの開発"学習パスの以前のモジュールの完了、およびより確かな基盤のためのAzure OpenAI Serviceへの導入が推奨されます。

Fundamentals of Responsible Generative AI - Training | Microsoft Learn

Title: Fundamentals of Responsible Generative AI - Training

Summarize: This module aims to equip participants with the knowledge to develop generative AI solutions responsibly. It covers a range of topics to ensure the minimization of harmful content generation.

  • Describe the development process: Learn about the steps involved in creating responsible generative AI solutions.
  • Identify and prioritize potential harms: Understand the risks and prioritize them based on their impact.
  • Measure the extent of harms: Assess how much harm is present in the solution.
  • Implement mitigation strategies: Apply methods to reduce the identified harms.
  • Prepare for responsible deployment: Get ready for the safe and ethical operation of the solution.

Participants should have a basic understanding of the Azure OpenAI service, and completing the "Introduction to Azure OpenAI Service" module is recommended before starting this one.

  • 開発プロセスを記述する: 責任ある生成AIソリューションを作成するためのステップについて学ぶ。
  • 潜在的な害を特定し、優先順位をつける: リスクを理解し、その影響に基づいて優先順位をつける。
  • 害の範囲を測定する: ソリューション内の害の程度を評価する。
  • 緩和戦略を実装する: 識別された害を減らす方法を適用する。
  • 責任ある展開の準備をする: ソリューションの安全で倫理的な運用に向けて準備をする。

参加者はAzure OpenAIサービスの基本的な理解があることが期待され、このモジュールを始める前に「Azure OpenAIサービスへの導入」モジュールを完了することが推奨されます。

course

Course AI-050T00---A: Develop Generative AI Solutions with Azure OpenAI Service - Training | Microsoft Learn

Title: AI-050T00---A: Develop Generative AI Solutions with Azure OpenAI Service

  • Overview: Introduces software developers and data scientists to generative AI using Azure OpenAI Service.
  • Key Features: Provides access to large language models like GPT for NLP solutions.
  • Content Updates: Regular updates to reflect the latest service version.
  • Skills Taught: Provisioning the Azure OpenAI service, deploying models, and using them in applications.
  • Audience: Suitable for those with some programming experience but open to all interested in generative AI.
  • Learning Modes: Offers both instructor-led and self-paced study options.

タイトル: AI-050T00---A: Azure OpenAIサービスを使用して生成AIソリューションを開発する

  • 概要: ソフトウェア開発者とデータサイエンティストをAzure OpenAIサービスを使用した生成AIの急速に進化する分野に紹介します。
  • 主な特徴: GPTのような大規模言語モデルへのアクセスを提供し、NLPソリューションに使用します。
  • コンテンツの更新: サービスの最新バージョンを反映するために定期的に更新されます。
  • 教授されるスキル: Azure OpenAIサービスのプロビジョニング、モデルのデプロイ、およびアプリケーションでの使用方法。
  • 対象者: プログラミング経験がある方に推奨されますが、生成AIソリューションを使用する方法を学びたいすべての人に開かれています。
  • 学習モード: 講師によるトレーニングと自己学習のオプションを提供します。

assessment

Develop generative AI solutions with Azure OpenAI Service - Applied Skills | Microsoft Learn

  • Title: Develop Generative AI Solutions with Azure OpenAI Service - Applied Skills
  • Summary: The Microsoft Applied Skills program is aimed at those seeking to develop and validate their skills in creating generative AI solutions using Azure OpenAI Service, offering pathways for career advancement.
  • Tasks:
    • Deploy Azure OpenAI resources and models
    • Generate natural language responses using Azure OpenAI
    • Apply prompt engineering techniques with Azure OpenAI
    • Improve code using Azure OpenAI
    • Generate images with DALL-E in Azure OpenAI
  • Learning Path: The program includes a 5 hour and 34 minute course with 7 modules, followed by a 2-hour assessment using an interactive lab.
  • Assessment: The lab, which records for quality assurance, has a 72-hour wait time for re-launch.
  • Support: Accommodations for diverse learners are available, and the program offers guidance on choosing between Microsoft Applied Skills and Certifications, with support forums for assistance.

  • タイトル: Azure OpenAI Serviceを使用した生成AIソリューションの開発 - 応用スキル

  • 要約: Microsoft 応用スキルプログラムは、Azure OpenAI Serviceを使用して生成AIソリューションを開発し、そのスキルを検証したい人々を対象としており、キャリアアップの道を提供します。
  • タスク:
    • Azure OpenAI リソースとモデルをデプロイする
    • Azure OpenAIを使用して自然言語応答を生成する
    • Azure OpenAIでプロンプトエンジニアリング技術を適用する
    • Azure OpenAIを使用してコードを改善する
    • Azure OpenAI内でDALL-Eを使用して画像を生成する
  • 学習パス: このプログラムは、7つのモジュールで構成される5時間34分のコースと、インタラクティブラボを使用した2時間の評価を含みます。
  • 評価: 品質保証のために記録されるラボは、再起動まで72時間の待機時間があります。
  • サポート: 多様な学習者をサポートするための宿泊施設が利用可能であり、プログラムはMicrosoft応用スキルと認定の選択についてのガイダンスを提供し、支援のためのフォーラムがあります。

(更新中)Semantic Kernel まとめ

overview

microsoft/semantic-kernel: Integrate cutting-edge LLM technology quickly and easily into your apps

Title: Semantic Kernel SDK Overview

  • Integration with LLMs: Semantic Kernel is an SDK for integrating Large Language Models like OpenAI, Azure OpenAI, and Hugging Face into C#, Python, and Java.
  • Plugin Creation and Orchestration: Enables easy creation and chaining of plugins, with AI-driven automatic orchestration.
  • Execution of User-Specific Plans: Generates and executes plans for achieving user-specific goals.
  • Support for Major Programming Languages: Offers support for C#, Python, and Java; requires an API key from OpenAI or Azure OpenAI for setup.
  • Learning Resources: Provides C# and Python Jupyter notebooks for learning and experimentation.
  • Visual Studio Code Extension: Includes an extension for easier design and testing of semantic functions.
  • Community Involvement: Encourages contributions, bug reports, and suggestions, being open-source and licensed under the MIT license.

タイトル: Semantic Kernel SDK 概要

  • LLMとの統合: OpenAI、Azure OpenAI、Hugging Faceのような大規模言語モデルC#PythonJavaに統合するためのSDKです。
  • プラグインの作成と調整: プラグインの簡単な作成と連鎖を可能にし、AIによる自動調整を特長としています。
  • ユーザー特有の計画の実行: ユーザー特有の目標を達成するための計画を生成し、実行します。
  • 主要プログラミング言語のサポート: C#PythonJavaをサポートしており、セットアップにはOpenAIまたはAzure OpenAIからのAPIキーが必要です。
  • 学習リソース: 学習と実験のためのC#およびPython Jupyterノートブックを提供します。
  • Visual Studio Code拡張機能: セマンティック機能の設計とテストを容易にする拡張機能が含まれています。
  • コミュニティへの参加: 貢献、バグ報告、提案を奨励しており、MITライセンスの下でオープンソースとして提供されています。

Create AI agents with Semantic Kernel | Microsoft Learn

  • Semantic Kernel: An open-source SDK for creating AI agents that interact with existing codebases, integrating AI models from OpenAI, Azure OpenAI, Hugging Face, etc.
  • Core of Microsoft's Copilot System: Serves as an AI orchestration layer, enabling innovative user experiences by combining AI models and plugins.
  • Beyond Simple Generation: Facilitates the execution of actionable tasks by leveraging AI model responses to call existing code, demonstrated by a lightbulb control agent tutorial.
  • Ease of Integration: Allows the addition of existing code to AI agents through plugins and flexible integration with various AI services via connectors.
  • Encouragement for Developers: Highlights the capacity to enhance applications with AI functionalities, urging developers to utilize Semantic Kernel for advanced app capabilities and offering resources for learning and support.

  • セマンティックカーネル: 既存のコードベースと対話するAIエージェントを作成するためのオープンソースSDK。OpenAI、Azure OpenAI、Hugging FaceなどのAIモデルと統合。

  • マイクロソフトのコパイロットシステムの核心: AIオーケストレーション層として機能し、AIモデルとプラグインを組み合わせて革新的なユーザーエクスペリエンスを実現。
  • 単純な生成を超えて: AIモデルの応答を利用して実行可能なタスクを実行するためのフレームワークを提供。電球制御エージェントのチュートリアルを通じて示される。
  • 統合の容易さ: プラグインを通じて既存のコードをAIエージェントに追加し、コネクタを介して様々なAIサービスと柔軟に統合できる。
  • 開発者への奨励: AI機能によってアプリケーションを強化する能力を強調し、セマンティックカーネルの使用を促す。学習とサポートのためのリソースも提供。

How Business Thinkers Can Start Building AI Plugins With Semantic Kernel - DeepLearning.AI

keywords

Kernel

  • Semantic Kernel was inspired by the UNIX kernel - specifically in how it was written to be small, mighty, and fully extensible. We've gotten nice compliments for its technical architecture, and that's going to be more obvious to you as a .NET/C# dev.
  • Semantic KernelはUNIXカーネルに触発されました - 特に、それが小さく、強力で、完全に拡張可能に書かれていた方法においてです。我々はその技術的アーキテクチャについて素敵な賛辞を受けています、そしてそれは.NET/C#開発者であるあなたにとってより明白になるでしょう。

Semantic

  • The founding team of Semantic Kernel encountered GPT-4 in the summer of 2022. With a focus on making it easier for app devs to work with LLMs, vector databases, and prompt templates, the word "semantic" helped to signal a shift from traditional native coding.
  • Semantic Kernelの創設チームは、2022年の夏にGPT-4に出会いました。アプリ開発者がLLM、ベクトルデータベース、およびプロンプトテンプレートを使いやすくすることに焦点を当てて、「セマンティック」という言葉は伝統的なネイティブコーディングからのシフトを示すのに役立ちました。

Semantic Function

What's a Semantic Function?

  • Semantic functions are encapsulations of repeatable LLM prompts orchestrated by the kernel.
  • Functions serve as the building blocks for working productively with LLMs.
  • Non-programmers are encouraged to discover how to use them for their benefit.

セマンティック関数とは何ですか?

  • セマンティック関数 は、カーネルによって調整される反復可能なLLMプロンプトのカプセル化です。
  • 機能は、LLMを効率的に使用するための基礎ブロックとして機能します。
  • プログラマーは、それらを自分の利益のために使用する方法を発見することが奨励されています。

code

TODO

update

Category: Semantic Kernel from Semantic Kernel

Microsoft Applied Skills まとめ

Announcing Microsoft Applied Skills, the new credentials to verify in-demand technical skills - Microsoft Community Hub

  • Title: Microsoft Introduces Microsoft Applied Skills
  • Summary: Microsoft Applied Skills is a new program providing verifiable credentials for specific technical skills crucial for executing key projects aligned with business goals. Announced by Laura Longcore, it targets growing needs in AI and cloud computing, supporting a skills-based recruitment strategy. The program covers areas like Azure services, development, and security, with more credentials to be revealed at Microsoft Ignite. Credentials are earned through optional training and an assessment, enhancing professional visibility on LinkedIn. This initiative aims to fill the skills gap and complements existing Microsoft certification programs, offered initially in English for free.

  • タイトル: Microsoft Applied SkillsをMicrosoftが紹介

  • 要約: Microsoft Applied Skillsは、ビジネス目標に沿った重要プロジェクトの実行に不可欠な特定の技術スキルを検証するための認証プログラムです。Laura Longcoreによって発表され、AIとクラウドコンピューティングの需要の増加に対応します。このプログラムは、スキルベースの採用戦略をサポートし、Azureサービス、開発、セキュリティなどの分野をカバーしています。Microsoft Igniteでさらに多くの認証が公開される予定です。認証は、オプショナルなトレーニングと評価を通じて獲得され、LinkedInでの職業的な可視性を高めます。このイニシアチブは、スキルギャップを埋め、既存のMicrosoft認定プログラムを補完することを目指しており、最初は英語で無料で提供されます。

Microsoft Applied Skills process overview | Microsoft Learn

Title: Microsoft Applied Skills Process Overview

  • Significance of Credentials: These globally recognized credentials demonstrate proficiency in specific, scenario-based skills, enhancing impact on projects, organizations, and careers.
  • Starting the Process: Introduction to Microsoft's credentials, including how to filter, search, and explore the details of each Applied Skills credential.
  • Preparation: Reviewing credential details to understand assessed skills and accessing free learning resources on Microsoft Learn and instructor-led training.
  • Results and Credentials: Most results are delivered within minutes, but may take up to 24 hours to appear in the Learn profile. Information on scoring and score reports is provided.
  • Celebrating Success: Encourages sharing achievements on professional networks, with credentials verified by Microsoft, enhancing trust in the authenticity and accuracy of one's skills.
  • Value of Microsoft Learn: Highlights resources like articles, learning paths, Q&As, code samples, assessments, and programming content to support the AI learning journey.

タイトル: Microsoft Applied Skills プロセス概要

  • 資格の重要性: これらの世界的に認知された資格は、特定のシナリオに基づくスキルの習得を証明し、プロジェクト、組織、そしてキャリアにおける影響力を高めます。
  • プロセスの開始: Microsoftの資格についての紹介、望ましい資格のフィルタリング、検索、各Applied Skills資格の詳細の探索を含みます。
  • 準備: 資格の詳細をレビューして評価されるスキルを理解し、Microsoft Learnの無料学習リソースと講師によるトレーニングにアクセスします。
  • 結果と資格: ほとんどの結果は数分以内に提供されますが、Learnプロファイルの資格タブに表示されるまでに最大24時間かかる場合があります。スコアリングとスコアレポートへのアクセスに関する詳細情報が提供されます。
  • 成功のお祝い: 専門家ネットワーク、メールの署名、または履歴書に達成を共有することを奨励します。これらの資格はMicrosoftによって検証され、個人のスキルへの信頼を高め、その真正性と正確性に対する信頼を強化します。
  • Microsoft Learnの価値: AI学習の旅を支援するための、詳細な記事、パーソナライズされた学習パス、技術的なQ&A、コードサンプル、インタラクティブな評価、そしてMicrosoftの専門家による広範なプログラミングコンテンツなどのリソースを強調します。

Applied Skills frequently asked questions | Microsoft Learn

  • Title: Microsoft's Professional Development and Credentialing Approach
  • Main Content: The document is part of Microsoft Learn, a comprehensive platform offering various resources to support the learning journeys of developers and technology professionals.
  • Applied Skills FAQs:

    • Difference Between Certifications and Applied Skills Credentials: Certifications are role-based, covering a broad range of skills for critical job roles. Applied Skills credentials are scenario-based, focusing on specific skills for solving business problems.
    • Choosing Between the Two: Certifications are ideal for demonstrating comprehensive job-related skills, while Applied Skills credentials are for validating expertise in specific scenarios.
    • Preparation for Certification Exams: Applied Skills credentials offer lab experience that can aid in preparing for Certification exams, despite not covering all assessed skills.
    • For Those with Role-based Certification: An Applied Skills credential is useful for showcasing skills not evaluated by a Certification, especially for particular projects.
    • Starting Your Microsoft Credentialing Journey: Beginners should opt for a fundamentals Certification, while those with some experience can choose between an Applied Skills credential and a role-based Certification based on their needs.
  • タイトル: マイクロソフトのプロフェッショナル開発と認定アプローチ

  • メインコンテンツ: この文書は、開発者と技術専門家の学習の旅をサポートするための様々なリソースを提供する包括的なプラットフォームであるMicrosoft Learnの一部です。
  • 応用スキルFAQ:
    • 認定資格と応用スキル資格の違い: 認定資格は役割ベースで、重要な職業のための幅広いスキルをカバーします。応用スキル資格はシナリオベースで、ビジネス問題を解決するための特定のスキルに焦点を当てています。
    • 二つの選択肢: 認定資格は、幅広い職業関連スキルを示すために推奨されますが、応用スキル資格は特定のシナリオでの専門知識を検証するために適しています。
    • 認定試験の準備: 応用スキル資格は、試験で評価されるすべてのスキルをカバーしていなくても、認定試験の準備に役立つ実験室体験を提供します。
    • 役割ベースの認定を持つ人へ: 認定によって評価されない追加のスキルや隣接スキルを特にプロジェクトに向けて示したい場合、応用スキル資格が有用です。
    • マイクロソフトの認定旅行を始める: 初心者は、基礎知識を構築するために基本認定から始めるべきです。ある程度の経験がある場合、特定のシナリオのスキルを検証するための応用スキル資格か、役割ベースの認定を選択することができます。

Browse Credentials | Microsoft Learn

  • 2024.02現在、19個のApplied Skillsが受験可能

Exam AZ-900: Microsoft Azure Fundamentals 対策まとめ

基本

MS Learnにて基本を学習

Course AZ-900T00--A: Microsoft Azure Fundamentals - Training | Microsoft Learn

Microsoft Azure Fundamentals: Describe cloud concepts - Training | Microsoft Learn

要点

Azure-in-bullet-points/AZ-900 Microsoft Azure Fundamentals at master · undergroundwires/Azure-in-bullet-points

az-900-cheatsheet.pdf

Microsoft Exam AZ-900 Cheat Sheet - TestPrep Training Blog

Cheat Sheet for AZ-900 Exam. Cleat Sheet for AZ-900 Exam is a… | by Enes Gür | Level Up Coding

模試

Microsoft AZ-900 Certification with Actual Free Questions | ExamTopics

AZ-900 Mock Exam

AZ 900 Exam Questions & Dumps With Answers Free PDF Download

AZ-900 by Microsoft Actual Free Exam Q&As - ITExams.com

AZ-900: Microsoft Azure Fundamentals Exam Question Examples

受験

  • 自宅での受験も可能だが、確実に通信速度や端末動作保証を確保できない場合は、会場受験が安全(過去に自宅端末・回線不調でトラブル体験あり)

  • テスト会場で予約して受験

Microsoft :: ピアソンVUE

合格後バッジ

Microsoft Badges - Credly

Learn Generative AI from DeepLearning.AI Short Courses 概要まとめ

Short Courses | Learn Generative AI from DeepLearning.AI

  • Andrew Ng氏率いるDeepLearning.AIにて、Gen AIショートコースが多数リリースされており、その概要を紹介

  • 2024/02現在22コース

ChatGPT Prompt Engineering for Developers

  • Title: ChatGPT Prompt Engineering for Developers
  • Summary:

    • Collaboration: Developed in collaboration with OpenAI, aimed at teaching developers to utilize large language models (LLMs) for application development.
    • Content: Covers using OpenAI API for tasks like text summarization, sentiment inference, text transformation, and email automation. Taught by Isa Fulford and Andrew Ng.
    • Learning Outcomes: Participants will learn prompt writing principles, prompt engineering techniques, and build a custom chatbot with hands-on practice in a Jupyter notebook environment.
    • Audience: Suitable for beginners with basic Python knowledge to advanced machine learning engineers.
    • Access: Offered for free during the DeepLearning.AI learning platform beta, reflecting the latest best practices for prompt use with LLMs.
    • Opportunity: Highlights the potential for AI engineers to create powerful applications quickly with generative AI.
  • タイトル: ChatGPTプロンプトエンジニアリング for Developers

  • 要約:
    • 共同開発: OpenAIとの共同開発で、開発者がアプリケーション開発において大規模言語モデル(LLM)を効果的に活用する方法を教えることを目的としています。
    • コンテンツ: テキストの要約、感情やトピックの推測、テキスト変換(翻訳や文法訂正を含む)、自動メール作成などのタスクにOpenAI APIを使用する方法をカバーしています。Isa FulfordとAndrew Ngが教えます。
    • 学習成果: 効果的なプロンプトの書き方の原則、良いプロンプトの体系的なエンジニアリング方法を学び、コース中に提供されるJupyterノートブック環境での実践的な練習を通じてカスタムチャットボットを構築する機会を得られます。
    • 対象者: Pythonの基本的な知識を持つ初心者から、プロンプトエンジニアリングの最先端に関心を持つ上級機械学習エンジニアまで幅広く設計されています。
    • アクセス: DeepLearning.AIの学習プラットフォームベータ版の期間中は無料で提供され、LLMの最新のベストプラクティスを反映しています。
    • 機会: AIエンジニアが生成AIを用いて迅速に強力なアプリケーションを構築する機会を強調し、これらの技術によって可能になる革命的な能力を強調しています。

LangChain for LLM Application Development

  • Title: "LangChain for LLM Application Development"
  • Summary: A collaborative short course by LangChain, led by Harrison Chase and Andrew Ng, designed to enhance the application and functionality of language models using LangChain.
  • Key Learnings:
    • Models, Prompts, and Parsers: Effective interaction with LLMs.
    • Memories for LLMs: Storing conversations and managing context.
    • Chains: Creating sequences of operations.
    • Question Answering over Documents: Applying LLMs to proprietary data.
    • Agents: Exploring LLMs as reasoning agents.
  • Outcome: Participants will develop a foundational model for application exploration.
  • Target Audience: Beginner-friendly, beneficial for those with basic Python skills.
  • Access: Free for a limited time during the DeepLearning.AI learning platform beta.
  • Opportunity: Learn to leverage language models for creating applications quickly.

  • タイトル: "LangChain for LLM Application Development"

  • 概要: LangChainとのコラボレーションによる短期コースで、Harrison ChaseとAndrew Ngが共同で指導します。このコースは、LangChainフレームワークを使用して言語モデルの応用と機能を拡張するために必要なスキルを参加者に装備させることを目的としています。
  • 主な学習内容:
    • モデル、プロンプト、パーサー: LLMとの効果的なやり取り。
    • LLMのためのメモリ: 会話の保存とコンテキストの管理。
    • チェーン: 操作のシーケンスの作成。
    • 文書に対する質問応答: 専有データにLLMを適用する。
    • エージェント: LLMを推論エージェントとして探求する。
  • 成果: アプリケーション探索のための基礎モデルの開発。
  • 対象者: 初心者に優しい、基本的なPythonスキルを持つ人に特に有益。
  • アクセス: DeepLearning.AIの学習プラットフォームベータ版中は限定時間無料でアクセス可能。
  • 機会: 強力な言語モデルを活用して迅速にアプリケーションを作成する方法を学ぶ。

How Diffusion Models Work

  • Title: How Diffusion Models Work
    This course offers an in-depth look at diffusion models, key in generative AI, taught by Sharon Zhou. It blends theory and practical skills for creating diffusion models.
  • Learn to build, train, and optimize diffusion models from scratch.
    Explore the diffusion process and neural network construction for noise prediction.
  • Gain hands-on experience with sampling, training, and labs.
    Utilize built-in Jupyter notebooks for practical exercises.
  • Suited for those with Python, Tensorflow, or Pytorch knowledge.
    Free access during the DeepLearning.AI beta phase.

  • タイトル: 拡散モデルの仕組み
    このコースは、ジェネレーティブAIの鍵である拡散モデルについて、Sharon Zhouによって教えられる深い洞察を提供します。理論と実践スキルを組み合わせて、ゼロから拡散モデルを作成します。

  • ゼロから拡散モデルを構築、トレーニング、最適化する方法を学ぶ。
    拡散プロセスとノイズ予測のためのニューラルネットワーク構築を探求する。
  • サンプリング、トレーニング、およびラボでの実践経験を得る。
    実践的な演習のための組み込みJupyterノートブックを利用する。
  • Python、Tensorflow、またはPytorchの知識を持つ人に適している。
    DeepLearning.AIのベータフェーズ中は無料アクセスが提供される。

Building Systems with the ChatGPT API

Title: Building Systems with the ChatGPT API

Summary:

  • Course Overview: A collaborative course designed to teach efficient, multi-step system creation using large language models (LLMs).
  • Key Skills Taught: Automating workflows with chain calls, integrating Python code with LLM completions and prompts, and developing a customer service chatbot.
  • Practical Applications: Focuses on classifying user queries, evaluating for safety, and processing tasks for multi-step reasoning.
  • Instructors: Taught by Isa Fulford (OpenAI) and Andrew Ng (DeepLearning.AI & Coursera).
  • Prerequisites: No prior completion of "ChatGPT Prompt Engineering for Developers" required, though the course builds on its teachings.
  • Course Features: Hands-on examples, built-in Jupyter notebooks for real-time experimentation.
  • Target Audience: Suitable for beginners with basic Python skills and intermediate or advanced machine learning engineers.
  • Collaboration and Accessibility: Offered in collaboration with OpenAI, reflects responsible LLM performance optimization practices, temporarily free access during the DeepLearning.AI platform beta phase.

タイトル: ChatGPT APIを使用したシステム構築

要約:

  • コース概要: 大規模言語モデル(LLM)を使用して、効率的な多段階システムを作成する方法を教える共同コース。
  • 教えられる主要スキル: チェーンコールを使用したワークフローの自動化、LLMの完成とプロンプトとのPythonコードの統合、コースの技術を使用したカスタマーサービスチャットボットの開発。
  • 実践的な応用: ユーザークエリの分類、安全性の評価、複数ステップの推論のためのタスク処理に焦点を当てる。
  • 講師: Isa Fulford(OpenAI)とAndrew Ng(DeepLearning.AI&Coursera)による指導。
  • 前提条件: 「ChatGPT Prompt Engineering for Developers」の事前完了は必要ありませんが、その教訓に基づいています。
  • コースの特徴: 実践的な例、リアルタイムの実験のための組み込みJupyterノートブック。
  • 対象者: 基本的なPythonスキルを持つ初心者や、プロンプトエンジニアリングスキルを向上させたい中級者または上級者の機械学習エンジニアに適しています。
  • 共同開催およびアクセス性: OpenAIとの共同提供で、LLMのパフォーマンスを責任を持って最適化する最新のベストプラクティスを反映しています。DeepLearning.AIプラットフォームのベータフェーズ中は一時的に無料アクセスが提供され、開発者が生成AIツールを活用できるようにすることを目指しています。

LangChain: Chat with Your Data

  • Title: "LangChain Course Overview: Mastering Data Interaction"

  • Document Loading: Introduction to data loading fundamentals and exploration of over 80 unique loaders for accessing a wide range of data sources, including audio and video.

  • Document Splitting: Guidance on effective data splitting practices.
  • Vector Stores and Embeddings: Insights into embeddings and the integration of vector stores within LangChain for efficient data handling.
  • Retrieval: Advanced strategies for data access and indexing in the vector store to fetch highly relevant information.
  • Question Answering: Development of a straightforward question-answering system.
  • Chat: Techniques for tracking and leveraging relevant information from conversations and data sources to build a personalized chatbot using LangChain.

  • タイトル: "LangChain コース概要: データインタラクションの習得"

  • ドキュメントの読み込み: データ読み込みの基礎と、オーディオやビデオを含む様々なデータソースへのアクセスのための80以上のユニークなローダーの探索についての紹介。

  • ドキュメントの分割: 効果的なデータ分割実践に関するガイダンス。
  • ベクターストアとエンベディング: エンベディングとLangChain内のベクターストアの統合に関する洞察で、効率的なデータ取り扱いを実現。
  • 検索: ベクターストアでのデータアクセスと索引付けの高度な戦略により、非常に関連性の高い情報を取得。
  • 質問応答: 直接的な質問応答システムの開発。
  • チャット: 会話やデータソースから関連情報を追跡し、利用してLangChainを使用したパーソナライズされたチャットボットを構築する技術。

Finetuning Large Language Models

  • Title: Finetuning Large Language Models
  • Summary: This short course, created in collaboration with Lamini, teaches the fundamentals of finetuning large language models. It explains the differences between finetuning and prompt engineering and offers guidance on when to use each technique.
  • Instructor: Sharon Zhou, Co-Founder and CEO of Lamini, provides expertise in finetuning, alongside her experience in GANs and Diffusion Models.
  • Key Learnings:
    • Understand when and how to apply finetuning to LLMs
    • Prepare data for finetuning
    • Train and evaluate an LLM with your data
  • Target Audience: The course is ideal for those familiar with Python and deep learning frameworks like PyTorch, looking to learn finetuning techniques and applications.
  • Access: Free access during the DeepLearning.AI learning platform beta phase.
  • Additional Offerings: Updates on Generative AI, including AI news, courses, events, and insights from DeepLearning.AI.

  • タイトル: 大規模言語モデルのファインチューニング
  • 要約: この短期コースは、Laminiとの協力により提供され、大規模言語モデルのファインチューニングの基礎を教えます。ファインチューニングとプロンプトエンジニアリングの違いを説明し、各技術をいつ使用するかについてのガイダンスを提供します。
  • 講師: Sharon Zhou(Laminiの共同創設者兼CEO)は、ファインチューニングにおける専門知識を提供し、GANと拡散モデルのコースでの経験を持ちます。
  • 学びのポイント:
    • LLMにファインチューニングを適用するタイミングと方法を理解する
    • ファインチューニングのためのデータを準備する
    • あなたのデータでLLMを訓練し評価する
  • 対象者: PythonとPyTorchのような深層学習フレームワークを理解している方で、ファインチューニングの技術と応用を学びたい方に最適です。
  • アクセス: DeepLearning.AI学習プラットフォームのベータフェーズ中は無料でアクセス可能。
  • 追加オファリング: 生成AIに関する更新情報、AIニュース、コース、イベント、DeepLearning.AIからの洞察を提供します。

Large Language Models with Semantic Search

  • Title: Large Language Models with Semantic Search
  • Summary:
    • Collaboration: A course developed with Jay Alammar and Luis Serrano to improve keyword search capabilities.
    • Audience: Aimed at individuals with basic Python knowledge interested in LLMs and semantic search.
    • Objective: To enhance keyword search using LLMs for a better search experience on content-rich websites.
    • Key Learnings:
      • Understand and implement basic keyword search.
      • Enhance searches with rerank methods for improved relevance.
      • Employ dense retrieval techniques using embeddings to enhance search result quality by understanding text's semantic meaning.
    • Practical Experience: Hands-on practice with large datasets, tackling search accuracy and consistency challenges, and integrating LLM-powered search into projects.
    • Accessibility: Free access during the DeepLearning.AI learning platform beta phase.
    • Benefits: Ideal for those seeking to grasp LLM technical foundations and apply semantic search effectively.

  • タイトル: 大規模言語モデルとセマンティック検索
  • 要約:
    • 共同作業: キーワード検索能力を向上させるために、Jay AlammarとLuis Serranoとの共同開発コース。
    • 対象者: LLMとセマンティック検索に興味がある基本的なPython知識を持つ個人向け。
    • 目的: LLMを使用してキーワード検索を強化し、コンテンツ豊富なウェブサイトでの検索体験を改善する。
    • 主な学習内容:
      • 基本的なキーワード検索を理解し、実装する。
      • 改善された関連性のために、検索を再ランキング方法で強化する。
      • テキストのセマンティックな意味を理解することで検索結果の品質を大幅に向上させるために、埋め込みを使用して密集した検索技術を使用する。
    • 実践経験: 大規模なデータセットを扱う実践的な経験、検索の正確性と一貫性の課題に対処し、プロジェクトにLLM駆動型検索を統合する。
    • アクセス可能性: DeepLearning.AI学習プラットフォームベータ版中は無料アクセス。
    • メリット: LLMの技術的基礎を理解し、効果的にセマンティック検索技術を適用したい人に最適。

Building Generative AI Applications with Gradio

  • Title: Building Generative AI Applications with Gradio
  • Summary: A collaborative short course by Apolinário Passos from Hugging Face, teaching rapid development of machine learning applications.
  • Learn how to:
    • Create user-friendly apps for image generation, image captioning, and text summarization accessible to non-coders.
    • Develop a chat interface with Falcon, the leading open-source LLM.
  • Course Features:

    • Interactive applications that can be shared on Hugging Face Spaces.
    • Target Audience: Individuals with basic Python skills.
    • Free access for a limited time during the DeepLearning.AI platform beta.
    • Promotes continuous learning in Generative AI with updates on news, courses, and events.
  • タイトル: Gradioを使った生成AIアプリケーションの構築

  • 要約: Hugging Faceのアポリナリオ・パッソスによる協力短期コースで、機械学習アプリケーションの迅速な開発を教えます。
  • 学べること:
    • ユーザーフレンドリーなアプリの作成 非コーダーでもアクセス可能な画像生成、画像キャプション作成、テキスト要約のための。
    • チャットインターフェースの開発 先頭を走るオープンソースLLMであるFalconと。
  • コースの特徴:
    • Hugging Face Spacesで共有可能なインタラクティブアプリケーション。
    • 対象者: 基本的なPythonスキルを持つ個人。
    • DeepLearning.AIプラットフォームベータ中は限定時間無料アクセス。
    • 生成AIにおける継続的な学習を促進 ニュース、コース、イベントの更新情報付き。

Evaluating and Debugging Generative AI Models Using Weights and Biases

Title: "Evaluating and Debugging Generative AI Models Using Weights and Biases"

Summary:

  • Learn to evaluate and debug LLMs and generative image models: Gain skills in using platform-independent tools for instrumenting training notebooks, including tracking, versioning, and logging.
  • Implement monitoring and tracing of LLMs: Focus on monitoring and tracing large language models over time during complex interactions.
  • Master Machine Learning Operations tools: Manage large datasets, diverse data sources, model development, and parameter tuning.
  • Use Weights & Biases for collaboration: Utilize the platform for experiment tracking, data versioning, and team collaboration.
  • Instrument a Jupyter notebook: Guide on managing hyperparameter configuration, logging run metrics, and collecting artifacts.
  • Trace prompts and responses over time: Learn techniques to trace interactions with LLMs over time.
  • Target audience: Ideal for those with a basic understanding of Python and frameworks like PyTorch, looking to enhance productivity in AI projects.
  • Instructor: Carey Phelps, founding product manager at Weights & Biases.
  • Course access: Free for a limited time during the DeepLearning.AI learning platform beta.

タイトル: "Weights & Biasesを使用した生成AIモデルの評価とデバッグ"

要約:

  • LLMおよび生成画像モデルの評価とデバッグを学ぶ:レーニングノートブックを装備するためのプラットフォーム独立型ツールの使用スキルを習得します。トラッキング、バージョニング、ログ記録を含む。
  • LLMのモニタリングとトレーシングを実装する: 複雑な相互作用の中で時間をかけて大規模言語モデルをモニタリングし、トレースすることに焦点を当てます。
  • 機械学習オペレーションツールをマスターする: 大規模なデータセット、多様なデータソース、モデル開発、およびパラメータチューニングを管理します。
  • コラボレーションのためのWeights & Biasesを使用する: 実験追跡、データバージョニング、およびチームコラボレーションのためのプラットフォームを利用します。
  • Jupyterノートブックを装備する: ハイパーパラメータ設定の管理、実行メトリックのログ記録、およびアーティファクトの収集に関するガイド。
  • 時間をかけてプロンプトと応答をトレースする: 時間をかけてLLMとの相互作用をトレースする技術を学びます。
  • 対象者: PythonおよびPyTorchのようなフレームワークの基本的な理解を持つ人々を対象とし、AIプロジェクトにおける生産性を向上させ、重要な結果への旅を加速させることを約束します。
  • 講師: Weights & Biasesの創設プロダクトマネージャー、Carey Phelps。
  • コースアクセス: DeepLearning.AI学習プラットフォームベータ版中は限定時間無料でアクセスできます。

Building Applications with Vector Databases

Title: Building Applications with Vector Databases

  • Hybrid Search Apps: Create applications that perform searches using both text and images for improved results.
  • Facial Similarity Apps: Develop apps to measure and rank facial similarity between different individuals.
  • Semantic Search Tools: Build tools that focus on the meaning of content for more efficient text-based searches.
  • Content Augmentation for LLMs: Enhance LLM applications by incorporating content from external datasets like Wikipedia.
  • Recommender Systems: Develop systems that combine semantic search with content augmentation to recommend topics.
  • Anomaly Detection Apps: Learn to identify unusual patterns in network communications.

Vector databases use embeddings to understand data, measure similarity, and navigate large datasets. This course, led by Tim Tully and offered in collaboration with Pinecone, is designed for beginners in Python, machine learning, and LLMs, and is temporarily free during the DeepLearning.AI platform beta.

  • ハイブリッド検索アプリ: テキストと画像の両方を使用した検索を行うアプリケーションを作成します。
  • 顔の類似性アプリ: 異なる個人間の顔の類似性を測定し、ランク付けするアプリを開発します。
  • セマンティック検索ツール: コンテンツの意味に焦点を当て、より効率的なテキストベースの検索を行うツールを構築します。
  • LLMのためのコンテンツ拡張: ウィキペディアなどの外部データセットからのコンテンツを取り入れて、LLMアプリケーションを強化します。
  • 推薦システム: セマンティック検索とコンテンツ拡張を組み合わせて、トピックを推薦するシステムを開発します。
  • 異常検出アプリ: ネットワーク通信での異常なパターンを識別する方法を学びます。

ベクターデータベースは、データを理解し、類似性を測定し、大規模なデータセットをナビゲートするためにエンベディングを使用します。このコースは、Python機械学習、およびLLMの基礎知識を持つ個人を対象としており、Tim Tullyが指導し、Pineconeとの協力のもと提供されます。DeepLearning.AIプラットフォームのベータ期間中は無料で、生成AIとベクターデータベースアプリケーションの知識を拡張する絶好の機会を提供します。

Automated Testing for LLMOps

  • Title: "Automated Testing for LLMOps"
  • Summary:

    • Teaches automated testing for LLM applications.
    • Highlights differences between traditional and LLM-based testing.
    • Focuses on rules-based and model-graded evaluations using CI tools.
    • Emphasizes continuous integration in LLMOps to minimize development time and costs.
    • Covers creating LLM evaluations, building and orchestrating CI workflows.
    • Targeted at those with basic Python knowledge and LLM application building experience.
    • Led by Rob Zuber, CTO at CircleCI.
    • Offered for free during the DeepLearning.AI platform beta phase.
  • タイトル: "LLMOpsのための自動テスト"

  • 要約:
    • LLMアプリケーションのための自動テストを教えます。
    • 伝統的なテストとLLMベースのテストの違いを強調します。
    • CIツールを使用したルールベースとモデルグレードの評価に焦点を当てます。
    • 開発時間とコストを最小限に抑えるためにLLMOpsにおける継続的統合の重要性を強調します。
    • LLM評価の作成、CIワークフローの構築と調整をカバーします。
    • Pythonの基本知識とLLMアプリケーション構築経験がある人を対象とします。
    • CircleCIのCTO、ロブ・ズーバーが指導します。
    • DeepLearning.AIプラットフォームのベータフェーズ中に無料で提供されます。

LLMOps

Title: LLMOps

Summary:
- Key Learnings: Preprocess training data, adapt a tuning pipeline for custom LLMs, version data and models, configure and execute tuning pipelines, and analyze safety scores. - Tools: Practice with BigQuery, Kubeflow Pipelines, and Google Cloud. - Audience: Suitable for anyone interested in LLM tuning and LLMOps pipeline development. - Instructor: Erwin Huizenga, Machine Learning Technical Lead at Google. - Offer: Free access during the DeepLearning.AI beta phase.

タイトル: LLMOps

要約:
- 主要な学び:レーニングデータの前処理、カスタムLLMのためのチューニングパイプラインの適応、データとモデルのバージョニング、チューニングパイプラインの設定と実行、安全性スコアの分析。 - ツール: BigQuery、Kubeflow Pipelines、Google Cloudを使用する実践。 - 対象者: LLMのチューニングとLLMOpsパイプラインの開発に興味がある人。 - 講師: Googleのマシンラーニングテクニカルリード、エルウィン・ハイゼンガ。 - オファー: DeepLearning.AIのベータフェーズ中は無料アクセス。

Build LLM Apps with LangChain.js

  • Title: "Build LLM Apps with LangChain.js"
  • Summary:

    • Learn the Fundamentals: Understand how to use the LangChain JavaScript library to orchestrate and combine different modules.
    • Data Loading and Preparation: Learn how to effectively load and prepare data to provide context for LLM generations.
    • Techniques for Data Retrieval and Presentation: Explore methods for retrieving and presenting data in a conversational retrieval chain.
    • Create Context-Aware Applications: Become familiar with LangChain.js to build powerful, context-aware applications using JavaScript.
    • Understand Key Concepts: Grasp LangChain's abstractions, the basics of retrieval augmented generation (RAG), and the structure for conversational retrieval systems.
    • Target Audience: Aimed at those with intermediate JavaScript skills interested in machine learning applications.
    • Instructor: Led by Jacob Lee, LangChain.js Lead Maintainer and Founding Software Engineer.
    • Free Access: Course access is free for a limited time during the DeepLearning.AI learning platform beta.
    • Further Learning: Participants are encouraged to engage with Generative AI through updates on AI news, courses, events, and insights from DeepLearning.AI.
  • タイトル: "LangChain.jsでLLMアプリを構築する"

  • 概要:
    • 基礎を学ぶ: LangChain JavaScriptライブラリを使用して異なるモジュールを調整し組み合わせる方法を理解する。
    • データのロードと準備: LLM生成に必要なコンテキストを提供するために、データを効果的にロードし準備する方法を学ぶ。
    • データ取得と表示の技術: 会話型検索チェーン内でデータを取得し表示する方法を探る。
    • コンテキスト認識アプリケーションを作成: JavaScriptを使用して強力なコンテキスト認識アプリケーションを構築するためにLangChain.jsに慣れる。
    • 重要な概念を理解: LangChainの抽象化、検索拡張生成(RAG)の基礎、およびチャットボット開発のための会話型検索システムの構造を把握する。
    • 対象者: 機械学習アプリケーションに興味がある中級JavaScriptスキルを持つ人々を対象としている。
    • 講師: LangChain.jsのリードメンテナー兼創設ソフトウェアエンジニア、Jacob Leeによって主導される。
    • 無料アクセス: DeepLearning.AI学習プラットフォームベータ版中は、限定時間でコースアクセスが無料になる。
    • さらなる学習: 参加者は、AIニュース、コース、イベント、およびDeepLearning.AIからの洞察を通じて、Generative AIの学習機会に参加することを奨励されている。

Advanced Retrieval for AI with Chroma

Title: "Advanced Retrieval for AI with Chroma"

Summary: This course offers advanced techniques for improving the relevance of search results using a large language model (LLM) for information retrieval. It is ideal for those facing issues with ineffective queries. Participants will learn to identify poor queries, enhance query formulation using LLMs, and refine search outcomes through user feedback on embeddings.

  • Query Expansion: Enhance queries with related concepts and leverage LLMs for suggesting answers.
  • Cross-encoder Reranking: Prioritize the most relevant search results through reranking.
  • Training and Utilizing Embedding Adapters: Modify embeddings with an adapter layer to focus on application-specific elements.

Designed for those with intermediate Python skills interested in advanced data retrieval methods from vector databases. Led by Anton Troynikov, a co-founder of Chroma, the course is free during the DeepLearning.AI learning platform beta. Participants are also encouraged to follow updates on Generative AI from DeepLearning.AI.

タイトル: 「ChromaによるAIのための高度な検索」

要約: このコースは、情報検索用の大規模言語モデル(LLM)を使用して検索結果の関連性を向上させるための高度な技術を提供します。効果的でないクエリに問題を抱えている人に最適です。参加者は、劣悪なクエリを識別し、LLMを使用してクエリの形式を強化し、エンベディングに対するユーザーフィードバックを通じて検索結果を洗練させる方法を学びます。

  • クエリ拡張: 関連する概念を使用してクエリを強化し、LLMを利用して回答を提案します。
  • クロスエンコーダ再ランキング: 再ランキングを通じて最も関連性の高い検索結果を優先します。
  • エンベディングアダプターのトレーニングと利用: アプリケーション固有の要素に焦点を当てるために、エンベディングを変更するアダプターレイヤーを実装します。

ベクターデータベースからのデータ検索方法を学びたい中級レベルのPythonスキルを持つ人向けに設計されています。講師はChromaの共同創設者であるAnton Troynikovです。このコースはDeepLearning.AIの学習プラットフォームベータフェーズの間、無料で提供されます。参加者は、DeepLearning.AIからのGenerative AIに関する更新情報、コース、イベントをフォローすることも奨励されています。

Reinforcement Learning from Human Feedback

  • Title: Reinforcement Learning from Human Feedback (RLHF)
  • Summary: A guide for aligning Large Language Models with human values using RLHF. It includes fine-tuning the Llama 2 model with Google Cloud tools, exploring essential datasets, and evaluating model performance.
  • Key Points:

    • Explore Datasets: Learn about "preference" and "prompt" datasets for RLHF.
    • Fine-Tuning: Use Google Cloud Pipeline Components Library for fine-tuning Llama 2.
    • Evaluate Performance: Compare tuned and base models using loss curves and SxS method.
    • Target Audience: Individuals with intermediate Python skills interested in RLHF.
    • Instructor: Nikita Namjoshi, Developer Advocate for Generative AI at Google Cloud.
    • Course Access: Free during the DeepLearning.AI learning platform beta.
    • Continued Learning: Encourages further exploration in Generative AI.
  • タイトル: ヒューマンフィードバックからの強化学習 (RLHF)

  • 要約: RLHFを使用してヒューマンバリューに大規模言語モデルを合わせるためのガイド。Google Cloudツールを使用したLlama 2モデルのファインチューニング、重要なデータセットの探索、およびモデルパフォーマンスの評価が含まれます。
  • キーポイント:
    • データセットを探る: RLHFのための「好み」と「プロンプト」データセットについて学ぶ。
    • ファインチューニング: Google Cloud Pipeline Components Libraryを使用してLlama 2をファインチューニングする。
    • パフォーマンスを評価する: 損失曲線とSxSメソッドを使用して、チューニングされたモデルとベースモデルを比較する。
    • 対象者: RLHFに興味のある中級Pythonスキルを持つ個人。
    • 講師: Nikita Namjoshi、Google CloudのGenerative AIの開発者アドボケート。
    • コースアクセス: DeepLearning.AI学習プラットフォームのベータ中は無料。
    • 継続的な学習: Generative AIでさらに学びを深めることを奨励する。

Building and Evaluating Advanced RAG Applications

  • Title: Building and Evaluating Advanced RAG Applications
  • Summary: This course teaches advanced techniques to improve Retrieval Augmented Generation (RAG) applications with large language models, focusing on innovative retrieval methods, evaluation best practices, and the RAG triad for relevance and truthfulness. It's designed for individuals with basic Python knowledge, led by experts Jerry Liu and Anupam Datta, and is currently free during the DeepLearning.AI beta.
  • Key Points:

    • Advanced Retrieval Methods: Learn sentence-window and auto-merging retrieval.
    • Evaluation Best Practices: Focus on iterative improvement and experiment tracking.
    • RAG Triad: Understand Context Relevance, Groundedness, and Answer Relevance.
    • Target Audience: Those with basic Python looking to apply the latest RAG methods.
    • Expert Instructors: Jerry Liu and Anupam Datta.
    • Free Access: Available for free during the DeepLearning.AI beta phase.
    • Continued Learning: Encourages ongoing education in generative AI.
  • タイトル: 高度なRAGアプリケーションの構築と評価

  • 要約: このコースは、大規模言語モデルを使用した検索拡張生成(RAG)アプリケーションの性能を向上させるための高度な技術に焦点を当てており、革新的な検索方法、評価のベストプラクティス、および関連性と真実性を評価するためのRAG三位一体について学びます。Pythonの基本的な知識を持つ個人向けに設計されており、ジェリー・リュウとアヌパム・ダッタの専門家が指導し、現在DeepLearning.AIのベータフェーズ中は無料で提供されています。
  • キーポイント:
    • 高度な検索方法: 文章ウィンドウ検索と自動マージ検索を学ぶ。
    • 評価のベストプラクティス: 反復的な改善と実験追跡に焦点を当てる。
    • RAG三位一体: コンテキストの関連性、根拠の確かさ、および回答の関連性を理解する。
    • 対象者: 最新のRAG方法を適用したいPythonの基本的な知識を持つ人々。
    • 専門家インストラクター: ジェリー・リュウとアヌパム・ダッタ。
    • 無料アクセス: DeepLearning.AIのベータフェーズ中は無料で利用可能。
    • 継続的な学習: 生成AIにおける教育を続けることを奨励する。

Quality and Safety for LLM Applications

  • Title: Quality and Safety for LLM Applications
  • Summarize: A course in collaboration with DeepLearning.AI to enhance LLM application security, teaching detection and prevention of threats like hallucinations, jailbreaks, and data leakage, and building safety monitoring systems.
  • Learn how to:
    • Identify hallucinations using SelfCheckGPT
    • Detect jailbreaks through sentiment analysis and toxicity detection models
    • Recognize data leakage using entity recognition and vector similarity analysis
    • Build a monitoring system for app safety and security
  • Target Audience: Individuals with basic Python knowledge interested in LLM application security
  • Instructor: Bernease Herman, Data Scientist at WhyLabs
  • Access: Free for a limited time during the DeepLearning.AI platform beta phase
  • Extra: Encouragement to engage with Generative AI through updates from DeepLearning.AI

  • タイトル: LLMアプリケーションの品質と安全性

  • 要約: DeepLearning.AIとのコラボレーションで提供されるコースで、LLMアプリケーションのセキュリティを向上させることに焦点を当て、幻覚、脱獄、データ漏洩のような脅威の検出と防止、および安全監視システムの構築を教えます。
  • 学ぶこと:
    • 幻覚を識別する SelfCheckGPTを使用
    • 脱獄を検出する 感情分析と毒性検出モデルを通じて
    • データ漏洩を認識する エンティティ認識とベクトル類似性分析を使用して
    • アプリの安全性とセキュリティのための監視システムを構築する
  • 対象者: LLMアプリケーションのセキュリティに関心がある基本的なPython知識を持つ個人
  • 講師: Bernease Herman, WhyLabsのデータサイエンティスト
  • アクセス: DeepLearning.AIプラットフォームのベータフェーズ中は限定的に無料
  • その他: DeepLearning.AIからのAIニュース、コース、イベント、Andrewの洞察を通じて、生成AIとの関わりを継続することを奨励します。

Vector Databases: from Embeddings to Applications

  • Title: Vector Databases: from Embeddings to Applications
  • Summary:

    • Comprehensive Guide: Offers insights on utilizing vector databases for GenAI app development without manual training of LLMs.
    • Collaborative Effort: Aims at efficient, practical applications in various industries, including hybrid and multilingual searches.
    • Significance: Highlights the importance of vector databases in NLP, image recognition, recommender systems, and semantic search.
    • Real-time Access: Enables LLMs to access proprietary data in real-time, aiding in the creation of RAG applications.
    • Leveraging Embeddings: Teaches how to use embeddings to understand data and find similar vectors in large datasets.
    • Deep Insights: Covers using vector databases and LLMs for deeper data analysis, creating embeddings, search techniques, and fast search algorithms.
    • Ideal for: Anyone interested in integrating vector databases into their applications.
    • Instructor: Led by Sebastian Witalec, Head of Developer Relations at Weaviate.
    • Free Access: Available for free during the DeepLearning.AI learning platform beta phase.
    • Stay Updated: Encourages keeping up with GenAI advancements through DeepLearning.AI's curated AI news, courses, and events.
  • タイトル: ベクターデータベース:エンベディングからアプリケーションへ

  • 要約:
    • 包括的ガイド: LLMを個人でトレーニングまたは微調整することなく、ベクターデータベースを使用してGenAIアプリケーションを開発するための洞察を提供します。
    • 共同作業: 様々な業界での効率的で実用的なアプリケーション、特にハイブリッド検索や多言語検索を目指します。
    • 重要性: NLP、画像認識、推薦システム、意味検索などの分野でのベクターデータベースの重要性を強調します。
    • リアルタイムアクセス: LLMがリアルタイムで独自データにアクセスできるようにし、RAGアプリケーションの作成を支援します。
    • エンベディングの活用: データの意味を捉え、大規模なデータセット内で類似のベクターを効率的に見つける方法を教えます。
    • 深い洞察: ベクターデータベースとLLMを使用してより深いデータ分析を行う方法、エンベディングの作成、検索技術、迅速な検索アルゴリズムについてカバーします。
    • 対象者: ベクターデータベースを自分のアプリケーションに統合したいと考えているすべての人。
    • 講師: Weaviateの開発者関係責任者であるSebastian Witalecが主導します。
    • 無料アクセス: DeepLearning.AIの学習プラットフォームベータ版の間は無料で利用可能です。
    • 最新情報の維持: DeepLearning.AIが提供するキュレーションされたAIニュース、コース、イベントを通じて、GenAIの進歩について最新の情報を得ることを奨励します。

Functions, Tools and Agents with LangChain

  • Title: Functions, Tools and Agents with LangChain
  • Summary: A course designed to introduce the latest in LLM APIs, utilizing LCEL for efficient agent and chain customization.
  • Key Points:

    • Generate structured outputs through function calls using LLMs.
    • Utilize LCEL for application building and customization.
    • Understand tool selection and routing with LangChain tools in LLM contexts.
    • Target Audience: Individuals interested in developing LLM-based applications, with basic Python skills and LLM prompt-writing experience.
    • Instructor: Harrison Chase, Co-founder and CEO of LangChain.
    • Access: Free during the DeepLearning.AI platform beta phase.
  • タイトル: LangChainを用いた関数、ツール、エージェント

  • 要約: LLM APIの最新進歩を紹介し、LCELを利用してエージェントとチェーンを効率的にカスタマイズするためのコース。
  • キーポイント:
    • LLMを使用して関数呼び出しを通じて構造化出力を生成する
    • アプリケーション構築とカスタマイズのためにLCELを利用する
    • LLMの文脈でLangChainツールを使ったツール選択とルーティングを理解する
    • 対象者: LLMベースのアプリケーション開発に興味があり、Pythonの基礎知識とLLMのプロンプト作成経験がある人々。
    • 講師: Harrison Chase、LangChainの共同創設者兼CEO。
    • アクセス: DeepLearning.AIプラットフォームのベータフェーズ中は無料。

Pair Programming with a Large Language Model

Title: Pair Programming with a Large Language Model

Summarize:

  • Free access: Get free access to the PaLM API.
  • Practical experience: Gain hands-on experience with AI pair programming.
  • Skills taught: Learn to simplify code, write test cases, debug and refactor code, and document complex code in any language.
  • Target audience: Suitable for those with basic Python knowledge interested in pair programming with LLMs.
  • Instructor: Led by Laurence Moroney, Lead AI Advocate at Google.
  • Availability: Free during the DeepLearning.AI learning platform beta.
  • Additional learning: Updates on AI news, courses, events, and insights from DeepLearning.AI.

タイトル: 大規模言語モデルを用いたペアプログラミング

要約:

  • 無料アクセス: PaLM APIへの無料アクセスを提供。
  • 実践経験: AIペアプログラミングによる実践的な経験を得る。
  • 教えられるスキル: コードを簡略化し、テストケースを書き、コードをデバッグおよびリファクタリングし、あらゆる言語の複雑なコードを文書化する方法を学ぶ。
  • 対象者: LLMを使ったペアプログラミングに興味がある、Pythonの基本的な知識を持つ人。
  • 講師: GoogleのリードAIアドボケイト、ローレンス・モロニーが指導。
  • 利用可能: DeepLearning.AIの学習プラットフォームベータ版中は無料。
  • 追加学習: AIニュース、コース、イベントの更新およびDeepLearning.AIからの洞察を提供。

Understanding and Applying Text Embeddings

Title: Understanding and Applying Text Embeddings

  • Course Overview: This course, created in collaboration with Nikita Namjoshi and Andrew Ng, teaches how to use text embeddings to capture the essence of text. It focuses on using Google Cloud's Vertex AI for tasks like classification, outlier detection, text clustering, and semantic search, along with building a question-answering system.
  • Key Learnings: Participants will understand word and sentence embeddings, measure semantic similarity, and apply embeddings in NLP tasks such as classification and clustering. It includes modifying LLM text generation and using the ScaNN library for semantic search.
  • Ideal For: Individuals with basic Python knowledge interested in learning about text embeddings and their application in NLP tasks.
  • Instructors: The course is led by Nikita Namjoshi, a Developer Advocate at Google Cloud, and Andrew Ng, founder of DeepLearning.AI and co-founder of Coursera.
  • Access: Free access during the DeepLearning.AI learning platform beta phase.
  • Additional Benefits: Offers updates on Generative AI, including news, courses, events, and insights from Andrew Ng and DeepLearning.AI.

タイトル: テキスト埋め込みの理解と応用

  • コース概要: このコースは、Nikita NamjoshiとAndrew Ngとの共同で開発され、テキストの本質を捉えるためのテキスト埋め込みの使用方法を教えます。Google CloudのVertex AIを使用して、分類、外れ値検出、テキストクラスタリング、意味検索などのタスクに焦点を当て、質問応答システムの構築についても学びます。
  • キー学習点: 単語と文の埋め込みの特性を理解し、テキスト間の意味的類似性を測定し、分類やクラスタリングなどのNLPタスクに埋め込みを適用します。LLMのテキスト生成行動を調整し、効率的な意味検索のためにScaNNライブラリを使用する方法を含みます。
  • 対象者: NLPタスクにおけるテキスト埋め込みとその応用を学びたい基本的なPython知識を持つ個人。
  • 講師: Google CloudのGenerative AIのDeveloper AdvocateであるNikita Namjoshiと、DeepLearning.AIの創設者およびCourseraの共同創設者であるAndrew Ngが指導します。
  • アクセス: DeepLearning.AI学習プラットフォームのベータフェーズ中は無料でアクセスできます。
  • 追加利点: Generative AIに関する更新情報、ニュース、コース、イベント、そしてAndrew NgとDeepLearning.AIからの洞察を提供します。

How Business Thinkers Can Start Building AI Plugins With Semantic Kernel

  • Title: How Business Thinkers Can Start Building AI Plugins With Semantic Kernel
  • Summary: This course, in collaboration with Microsoft, teaches building AI applications using Semantic Kernel, suitable for coders and non-coders. It focuses on using Large Language Models (LLMs) for business applications.
  • What You'll Learn:
    • Develop sophisticated business applications using LLMs.
    • Leverage LLM building blocks such as memories, connectors, chains, and planners.
    • Utilize Semantic Kernel, an open-source orchestrator, in applications.
    • Simplify AI service integration by using Semantic Kernel to avoid learning individual APIs.
  • Who Should Join: Anyone interested in learning about Semantic Kernel, with basic Python skills and an understanding of APIs recommended.
  • Instructor: John Maeda, VP of Design and Artificial Intelligence at Microsoft.
  • Course Access: Free for a limited time during the DeepLearning.AI learning platform beta phase.
  • Further Learning: Encourages continued learning in generative AI with updates on AI news, courses, events, and insights.

  • タイトル: ビジネス思考者がセマンティックカーネルでAIプラグインを構築する方法

  • 要約: このコースは、Microsoftとの協力で、セマンティックカーネルを使用してAIアプリケーションを構築する方法を教えます。コーダーおよび非コーダー向けに設計されており、ビジネスアプリケーションにおける大規模言語モデル(LLMs)の使用に焦点を当てています。
  • 学べること:
    • LLMsを使用して洗練されたビジネスアプリケーションを開発する。
    • メモリ、コネクタ、チェーン、プランナーなどのLLM構築ブロックを活用する。
    • アプリケーションでオープンソースオーケストレータであるセマンティックカーネルを利用する。
    • セマンティックカーネルを使用してAIサービスの統合を簡素化し、個々のAPIを学ぶ必要性を避ける。
  • 参加すべき人: セマンティックカーネルについて学びたい人で、基本的なPythonスキルとAPIの理解が推奨されます。
  • 講師: Microsoftのデザインおよび人工知能副社長、ジョン・マエダ。
  • コースアクセス: DeepLearning.AI学習プラットフォームのベータフェーズ中は、限定時間無料。
  • さらなる学習: AIニュース、コース、イベント、DeepLearning.AIからの洞察による生成AIの継続的な学習を奨励します。

Microsoft Credentials - Data and AI - まとめ

Credentials | Microsoft Learn

主なMS資格一覧は以下PDF参照

Become Microsoft Certified

全てのMS資格一覧は以下参照(2024.02現在170資格)

Browse Credentials | Microsoft Learn

Data and AI 関連の主な資格

Fundamentals

Exam AI-900: Microsoft Azure AI Fundamentals - Certifications | Microsoft Learn

  • Title: AI-900: Microsoft Azure AI Fundamentals Exam
  • Summary:

    • Designed For: Individuals to demonstrate AI and machine learning knowledge applied in Microsoft Azure.
    • Background: Suitable for both technical and non-technical backgrounds; no need for data science or software engineering experience.
    • Knowledge Advantage: Basic cloud concepts and client-server applications.
    • Further Certification: Aids in preparing for Azure role-based certifications like Azure Data Scientist Associate or Azure AI Engineer Associate; not a prerequisite.
    • ACE College Credit: Successful candidates may qualify.
    • Update Note: English exam version updated on January 31, 2024, with localized versions to follow ~8 weeks later.
    • Preparation: Advised to review the study guide for updates and familiarize with the exam format via the exam sandbox.
    • Passing Score: 700.
  • タイトル: AI-900: Microsoft Azure AI Fundamentals 試験

  • 要約:
    • 対象者: Microsoft AzureでのAIおよび機械学習の知識を示す個人。
    • 背景: 技術的および非技術的な背景の両方に適しており、データサイエンスまたはソフトウェアエンジニアリングの経験は必要ありません。
    • 知識の利点: 基本的なクラウドの概念とクライアントサーバーアプリケーション。
    • さらなる認定へ: Azure Data Scientist AssociateやAzure AI Engineer Associateなど、Azureロールベースの認定を準備するのに役立ちますが、これらの認定の前提条件ではありません。
    • ACEカレッジクレジット: 試験に合格した候補者は資格があります。
    • 更新ノート: 英語版の試験は2024年1月31日に更新され、ローカライズされたバージョンはそれから約8週間後に続く予定です。
    • 準備: 最新の変更について学習ガイドを確認し、試験サンドボックスを通じて試験形式に慣れることが勧められます。
    • 合格スコア: 700。

Exam DP-900: Microsoft Azure Data Fundamentals - Certifications | Microsoft Learn

  • Title: DP-900: Microsoft Azure Data Fundamentals Exam
  • Summary:

    • Designed for Newcomers: Aimed at individuals new to working with data in the cloud.
    • Core Knowledge Verification: Validates understanding of core data concepts and Azure data services.
    • Data Types and Workloads: Requires familiarity with relational and non-relational data, and various data workloads.
    • Preparation for Advanced Certifications: Assists in preparing for Azure Database Administrator Associate or Azure Data Engineer Associate certifications, though not mandatory.
    • ACE College Credit: Passing may qualify for ACE college credit.
    • Updated Version: The English exam version was updated on February 1, 2024. Review the study guide for the latest changes.
    • Localized Versions: To be updated within eight weeks of the English version's update.
    • Passing Score: A score of 700 is required to pass.
    • Exam Format Familiarization: Candidates can use the exam sandbox for preparation.
  • タイトル: DP-900: Microsoft Azure データ基礎試験

  • 要約:
    • 新規者向け設計: クラウドでのデータ作業が初めての個人を対象としています。
    • コア知識の検証: コアデータ概念およびAzureデータサービスの理解を検証します。
    • データタイプとワークロード: 関係データと非関係データ、さまざまなデータワークロードに慣れることが求められます。
    • 上級認定の準備: Azure データベース管理者アソシエイトやAzure データエンジニアアソシエイト認定の準備に役立ちますが、必須ではありません。
    • ACEカレッジクレジット: 合格すると、ACEカレッジクレジットの資格が得られる可能性があります。
    • 更新されたバージョン: 英語版の試験は2024年2月1日に更新されました。最新の変更については、学習ガイドを確認してください。
    • ローカライズされたバージョン: 英語版の更新後、8週間以内に更新されます。
    • 合格スコア: 合格には700のスコアが必要です。
    • 試験フォーマットの習熟: 試験サンドボックスを使用して準備をすることができます。

Role-based

Exam AI-102: Designing and Implementing a Microsoft Azure AI Solution - Certifications | Microsoft Learn

  • Title: Exam AI-102: Designing and Implementing a Microsoft Azure AI Solution Certification
  • Summary:

    • Target Audience: Microsoft Azure AI engineers focused on creating, managing, and deploying AI solutions with Azure AI technologies.
    • Role Involvement: Engaged in all development phases, including requirements, design, development, deployment, integration, maintenance, performance tuning, and monitoring.
    • Collaboration: Works with architects, scientists, engineers, specialists, and developers for secure, complete AI solutions and integration into other applications.
    • Skills Required: Experience in Python and C#, proficiency with REST APIs and SDKs for AI solutions including image, video, natural language processing, and more.
    • Competencies: Understanding Azure AI portfolio, data storage, and responsible AI principles.
    • Exam Update: English version updated on February 7, 2024, with a notice to check the study guide for changes. Localized versions to follow about eight weeks later.
    • Preparation Resources: AI-102 exam prep videos, study guide, and an exam sandbox experience.
    • Passing Score: 700.
  • タイトル: Exam AI-102: マイクロソフト Azure AI ソリューションの設計および実装認定

  • 要約:
    • 対象者: Azure AI テクノロジーを使用して AI ソリューションを作成、管理、および展開するマイクロソフト Azure AI エンジニア。
    • 役割の関与: 要件定義、設計、開発、展開、統合、メンテナンス、パフォーマンスチューニング、およびモニタリングを含む開発フェーズ全般に関与。
    • 協力: 安全で完全なエンドツーエンドの AI ソリューションの作成と他のアプリケーションへの AI 機能の統合のために、アーキテクト、科学者、エンジニア、専門家、開発者と協力する。
    • 必要なスキル: Python および C# を使用したソリューションの開発経験、画像処理、ビデオ処理、自然言語処理などを含む AI ソリューションの作成に REST API および SDK を使用する習熟度。
    • コンピテンシー: Azure AI ポートフォリオ、データストレージオプションの理解、および責任ある AI 原則の適用。
    • 試験更新: 2024年2月7日に英語版が更新され、変更点を確認するための勉強ガイドの確認を推奨。地域版はその約8週間後に更新される予定だが、常にこのスケジュールに沿って更新されるとは限らない。
    • 準備資料: AI-102 試験準備ビデオ、勉強ガイド、および試験サンドボックス体験。
    • 合格スコア: 700。

Exam DP-203: Data Engineering on Microsoft Azure - Certifications | Microsoft Learn

  • Title: DP-203 Exam: Data Engineering on Microsoft Azure
  • Summary: The DP-203 exam is designed for candidates skilled in data engineering on Microsoft Azure, focusing on creating analytics solutions by integrating data from diverse sources. It aims to certify individuals capable of building and maintaining secure, efficient data processing systems and architectures, including modern data warehouses, big data solutions, and lakehouse architectures.
  • Key Areas:
    • Modern Data Warehouse Architectures
    • Big Data
    • Lakehouse Architecture
  • Skills Required:
    • Proficiency in SQL, Python, Scala
    • Familiarity with Azure Data Factory, Synapse Analytics, Stream Analytics, Event Hubs, Data Lake Storage, Databricks
  • Certification Benefits: May qualify for ACE college credit.
  • Exam Updates: Last updated on November 2, 2023, with a required passing score of 700.
  • Preparation Resources:

    • Exam Prep Videos
    • Study Guide
    • Exam Sandbox
  • タイトル: DP-203試験:Microsoft Azure上のデータエンジニアリング

  • 概要: DP-203試験は、さまざまなソースからのデータを統合して分析ソリューションを作成することに熟練した候補者を対象としています。セキュアで効率的なデータ処理システムおよびアーキテクチャを構築および維持する能力を認定することを目的としており、モダンデータウェアハウス、ビッグデータソリューション、およびレイクハウスアーキテクチャを含む。
  • 重要領域:
  • 必要スキル:
    • SQLPythonScalaに熟練
    • Azure Data Factory、Synapse Analytics、Stream Analytics、Event Hubs、Data Lake Storage、Databricksに慣れていること
  • 認定の利点: ACEカレッジクレジットの資格が得られる可能性があります。
  • 試験更新情報: 2023年11月2日に最終更新され、合格スコアは700です。
  • 準備資料:

Exam DP-100: Designing and Implementing a Data Science Solution on Azure - Certifications | Microsoft Learn

  • Title: Designing and Implementing a Data Science Solution on Azure (Exam DP-100)
  • Target Audience: Individuals with expertise in data science and machine learning on Azure.
  • Responsibilities:
    • Designing and creating data science workloads
    • Exploring data
    • Training models
    • Implementing pipelines
    • Running preparation jobs
    • Managing scalable solutions
  • Required Knowledge: Azure Machine Learning, MLflow
  • ACE College Credit: Passing may qualify for credit.
  • Exam Update: English version updated on October 18, 2023.
  • Preparation: Review study guide, watch prep videos, use exam sandbox.
  • Passing Score: 700

  • タイトル: Azureでのデータサイエンスソリューションの設計と実装 (試験DP-100)

  • 対象者: Azure上でのデータサイエンスと機械学習を適用する専門知識を持つ個人。
  • 責任:
    • データサイエンスワークロードの設計と作成
    • データの探索
    • モデルのトレーニン
    • パイプラインの実装
    • 準備作業の実行
    • スケーラブルなソリューションの管理
  • 必要な知識: Azure Machine Learning, MLflow
  • ACEカレッジクレジット: 合格するとクレジットの資格があるかもしれません。
  • 試験更新: 英語版は2023年10月18日に更新されました。
  • 準備: 学習ガイドのレビュー、準備ビデオの視聴、試験サンドボックスの使用。
  • 合格スコア: 700

Exam DP-500: Designing and Implementing Enterprise-Scale Analytics Solutions Using Microsoft Azure and Microsoft Power BI - Certifications | Microsoft Learn

  • Title: DP-500: Designing and Implementing Enterprise-Scale Analytics Solutions Using Microsoft Azure and Microsoft Power BI - Certifications
  • Objective: For individuals with expertise in creating and deploying large-scale data analytics solutions.
  • Skills Required:
    • Proficiency in advanced data analytics tasks such as data cleaning, transformation, and enterprise data model design.
    • Skilled in Power BI and Azure for creating data analytics solutions, data governance, monitoring data usage, and performance optimization.
  • Collaboration: Expected to work with solution architects, data engineers, AI engineers, etc.
  • Essential Skills:
    • Managing data repositories and processing data in the cloud and on-premises.
    • Proficiency in Power Query and Data Analysis Expressions (DAX).
    • Knowledgeable in Azure Synapse Analytics, querying relational databases, T-SQL analysis, and data visualization.
  • Exam Update: English version updated on January 30, 2024. Review the study guide for the latest changes.
  • Passing Score: 700.
  • Preparation: Candidates are encouraged to review the DP-500 study guide and familiarize themselves with the exam format through the exam sandbox.

  • タイトル: DP-500: Microsoft Azure および Microsoft Power BI を使用したエンタープライズスケールの分析ソリューションの設計と実装 - 認定

  • 目的: 大規模なデータ分析ソリューションの作成と展開に関する専門知識を持つ個人向け。
  • 必要なスキル:
    • データクリーニング、変換、およびエンタープライズデータモデル設計などの高度なデータ分析タスクの習熟。
    • データ分析ソリューションの作成、データガバナンス、データ使用の監視、およびパフォーマンス最適化において、Power BI と Azure に精通していること。
  • 協力: ソリューションアーキテクト、データエンジニア、AI エンジニアなどとの協働が期待される。
  • 必須スキル:
    • クラウドおよびオンプレミスでのデータリポジトリの管理とデータ処理。
    • Power Query および Data Analysis Expressions (DAX) の習熟。
    • Azure Synapse Analytics の使用、リレーショナルデータベースのクエリ、T-SQL 分析、およびデータの可視化に精通していること。
  • 試験更新: 英語版は2024年1月30日に更新されました。最新の変更については、学習ガイドを確認してください。
  • 合格点: 700。
  • 準備: DP-500 学習ガイドの確認と、試験サンドボックスを通じて試験形式に慣れることを奨励します。

Exam DP-300: Administering Microsoft Azure SQL Solutions - Certifications | Microsoft Learn

  • Title: Exam DP-300: Administering Microsoft Azure SQL Solutions Certification
  • Summary:

    • Target Audience: Candidates with expertise in SQL Server and Azure SQL services for building and managing database solutions, both on-premises and in the cloud.
    • Responsibilities: Operational management of cloud-native and hybrid data platform solutions, automation of daily operations, focusing on management, availability, security, and performance optimization.
    • Exam Coverage: Azure SQL Database, Azure SQL Managed Instance, and SQL Server on Azure Virtual Machines.
    • Update Date: February 7, 2024, with a passing score of 700.
    • Preparation Advice: Review the study guide for exam changes, watch preparation videos, and practice with the exam sandbox.
    • Localization: Localized versions to be updated approximately eight weeks after the English version.
  • タイトル: Exam DP-300: Microsoft Azure SQLソリューションの管理認定

  • 要約:
    • 対象者: オンプレミスおよびクラウドでのデータベースソリューションの構築と管理におけるSQL ServerおよびAzure SQLサービスの専門知識を持つ候補者。
    • 責任: クラウドネイティブおよびハイブリッドデータプラットフォームソリューションの運用管理、日々の操作の自動化、管理、可用性、セキュリティ、およびパフォーマンスの最適化に焦点を当てる。
    • 試験範囲: Azure SQLデータベース、Azure SQL Managed Instance、およびAzure Virtual Machines上のSQL Server
    • 更新日: 2024年2月7日、合格スコア700。
    • 準備アドバイス: 試験の変更に関する学習ガイドを確認し、準備ビデオを視聴し、試験サンドボックスで練習する。
    • ローカライゼーション: 英語版の約8週間後にローカライズされたバージョンを更新。

Microsoft Certified: Fabric Analytics Engineer Associate - Certifications | Microsoft Learn

  • Title: Microsoft Certified: Fabric Analytics Engineer Associate Certification
  • Summary: This certification targets professionals skilled in developing and implementing large-scale data analytics solutions with Microsoft Fabric.
  • Key Components:
    • Data Transformation: Turning data into reusable analytics assets.
    • Tools Used: Lakehouses, Data warehouses, Notebooks, Dataflows, Data pipelines, Semantic models, Reports.
  • Collaboration: Working alongside solution architects, data engineers, data scientists, AI engineers, database administrators, Power BI data analysts.
  • Best Practices: Involves version control, deployment in Fabric.
  • Skills Required: Data modeling, data transformation, Git-based source control, exploratory analytics, SQL, DAX, PySpark.

  • タイトル: Microsoft Certified: Fabric Analytics Engineer Associate 認定

  • 概要: この認定は、Microsoft Fabricを使用して、大規模なデータ分析ソリューションを設計、作成、展開する専門知識を持つプロフェッショナルを対象としています。
  • 主要コンポーネント:
    • データ変換: データを再利用可能な分析アセットに変換します。
    • 使用ツール: レイクハウス、データウェアハウス、ノートブック、データフロー、データパイプライン、セマンティックモデル、レポート。
  • 協力: ソリューションアーキテクト、データエンジニア、データサイエンティスト、AIエンジニア、データベース管理者、Power BIデータアナリストと協力します。
  • ベストプラクティス: Fabricでのバージョン管理、展開を含みます。
  • 必要スキル: データモデリング、データ変換、Gitベースのソースコントロール、探索的分析、SQLDAX、PySparkの習熟。

Specialty

省略