context
stringclasses 6
values | source
stringlengths 0
149
| response
stringlengths 4
1.6k
| instruction
stringlengths 5
137
| category
stringclasses 1
value |
---|---|---|---|---|
https://docs.databricks.com/repos/limits.html | リポジトリ内のライブラリがインポートされます。 | ライブラリがクラスターにインストールされ、同じ名前のライブラリがリポジトリ内のフォルダーに含まれている場合、どのライブラリがインポートされますか? | closed_qa |
|
https://docs.databricks.com/repos/limits.html | いいえ。通常、これを Git サーバーの事前コミットとして統合して、ブランチ (main/prod) へのすべてのプッシュが Production リポジトリを更新するようにすることができます。 | 外部のオーケストレーション ツールに依存せずに、ジョブを実行する前に Git からリポジトリの最新バージョンを取得できますか? | closed_qa |
|
https://docs.databricks.com/repos/limits.html | はい、ノートブック、フォルダー、またはリポジトリ全体をエクスポートできます。ノートブック以外のファイルをエクスポートすることはできません。リポジトリ全体をエクスポートすると、ノートブック以外のファイルは含まれません。エクスポートするには、Workspace CLIまたはWorkspace API 2.0を使用します。 | レポをエクスポートできますか? | closed_qa |
|
https://docs.databricks.com/repos/limits.html | Databricks リポジトリのコンテンツは、プラットフォームで管理されたキーを使用して Databricks によって暗号化されます。カスタマー マネージド キーを使用した暗号化はサポートされていません。 | Databricks リポジトリのコンテンツは暗号化されていますか? | closed_qa |
|
https://docs.databricks.com/repos/limits.html | 認証トークンは Databricks コントロール プレーンに格納され、Databricks の従業員は、監査された一時的な資格情報を介してのみアクセスできます。
Databricks は、これらのトークンの作成と削除をログに記録しますが、使用状況はログに記録しません。Databricks には、Databricks アプリケーションによるトークンの使用状況を監査するために使用できる Git 操作を追跡するログがあります。
GitHub エンタープライズは、トークンの使用状況を監査します。他の Git サービスにも Git サーバー監査がある場合があります。 | GitHub トークンは Databricks にどのように、どこに保存されますか? 誰が Databricks からアクセスできますか? | closed_qa |
|
https://docs.databricks.com/repos/limits.html | いいえ。 | Repos はコミットの GPG 署名をサポートしていますか? | closed_qa |
|
https://docs.databricks.com/repos/limits.html | いいえ、HTTPS のみです。 | Repos は SSH をサポートしていますか? | closed_qa |
|
https://docs.databricks.com/repos/limits.html | はい、ノートブックのソース コードを変更する Git 操作により、セル出力、コメント、リビジョン履歴、ウィジェットなどのノートブックの状態が失われます。たとえば、Git プルはノートブックのソース コードを変更できます。この場合、Databricks Repos は既存のノートブックを上書きして変更をインポートする必要があります。Git のコミットとプッシュ、または新しいブランチの作成は、ノートブックのソース コードには影響しないため、これらの操作ではノートブックの状態が保持されます。 | Gitから入ってくる変更は、ノートブックの状態をクリアしますか? | closed_qa |
|
https://docs.databricks.com/repos/limits.html | No. ワークスペースでのみ MLflow 実験を作成できます。3.72 プラットフォーム リリースより前にリポジトリで作成された実験は サポートされなくなりましたが、保証なしで引き続き動作する可能性があります。Databricks では、 MLflow エクスポート ツールを使用して、リポジトリ内の既存の実験をワークスペースの実験にエクスポートすることをお勧めします。 | リポジトリで MLflow 実験を作成できますか? | closed_qa |
|
https://docs.databricks.com/repos/limits.html | Git 操作の進行中の任意の時点で、リポジトリ内の一部のノートブックが更新され、他のノートブックは更新されていない可能性があります。これにより、予期しない動作が発生する可能性があります。
たとえば、ノートブック A が%runコマンドを使用してノートブック Z を呼び出すとします。Git 操作中に実行されているジョブがノートブック A の最新バージョンを開始するが、ノートブック Z がまだ更新されていない場合、ノートブック A のコマンドはノートブック%runZ の古いバージョンを開始する可能性があります。予測可能であり、ジョブが失敗するか、異なるコミットからノートブック A とノートブック Z を実行する可能性があります。 | Git 操作の進行中にノートブックでジョブの実行を開始するとどうなりますか? | closed_qa |
|
https://docs.databricks.com/repos/limits.html | 次のいずれかを使用できます。
クラスタにライブラリとしてバンドルしてデプロイします。
Git リポジトリを直接 pip インストールします。これには、 secrets managerの資格情報が必要です。
%runノートブックのインライン コードで使用します。
カスタム コンテナー イメージを使用します。Databricks Container Services を使用してコンテナーをカスタマイズする を参照してください。 | リポジトリで Databricks ノートブック以外の ファイルを実行するにはどうすればよいですか? 例えば.pyファイル? | closed_qa |
|
https://docs.databricks.com/optimizations/aqe.html#frequently-asked-questions-faq | AQE は初期パーティション数を変更しません。シャッフル パーティション数に適度に高い値を設定し、クエリの各段階での出力データ サイズに基づいて、AQE が小さなパーティションを結合できるようにすることをお勧めします。
ジョブにスピルが見られる場合は、次のことを試すことができます。
シャッフル パーティション数を増やす:spark.sql.shuffle.partitions
spark.databricks.adaptive.autoOptimizeShuffle.enabledをtrueに設定して自動最適化シャッフルを有効にする。 | パーティションのcoalescingが既に有効になっているにもかかわらず、AQE がシャッフル パーティション数を変更しなかったのはなぜですか? | closed_qa |
|
https://docs.databricks.com/optimizations/aqe.html#frequently-asked-questions-faq | ブロードキャストされると予想されるリレーションのサイズがこのしきい値を下回っているにもかかわらず、ブロードキャストされない場合:
結合タイプを確認してください。ブロードキャストは、特定の結合タイプではサポートされていません。たとえば、 LEFT OUTER JOINはブロードキャストできません。
リレーションに多くの空のパーティションが含まれている可能性もあります。この場合、タスクの大部分はsort merge joinで迅速に終了するか、skew join handlingで最適化できる可能性があります。AQE は、空でないパーティションのパーセンテージがspark.sql.adaptive.nonEmptyPartitionRatioForBroadcastJoin よりも低い場合、そのようなsort merge joinsをbroadcast hash joinsに変更することを回避します。 | AQE が小さな結合テーブルをブロードキャストしなかったのはなぜですか? | closed_qa |
|
https://docs.databricks.com/optimizations/aqe.html#frequently-asked-questions-faq | はい。通常、静的に計画されたブロードキャスト結合(broadcast join)は、AQE によって動的に計画されたブロードキャスト結合よりもパフォーマンスが高くなります。AQE は、結合の両側でシャッフルを実行するまでブロードキャスト結合に切り替わらない可能性があるためです (それまでに、実際のリレーション サイズが取得されます)。そのため、クエリをよく知っている場合は、ブロードキャスト ヒントを使用することをお勧めします。AQE は、静的最適化と同じ方法でクエリ ヒントを尊重しますが、ヒントの影響を受けない動的最適化を適用することもできます。 | AQE が有効になっている場合はbroadcast join戦略のヒントを引き続き使用する必要がありますか? | closed_qa |
|
https://docs.databricks.com/optimizations/aqe.html#frequently-asked-questions-faq | AQE スキュー結合は完全に自動化されており、通常は対応するヒントよりもパフォーマンスが優れているため、スキュー結合ヒントを使用するのではなく、AQE スキュー結合処理に依存することをお勧めします。 | スキュー結合ヒントと AQE スキュー結合最適化の違いは何ですか? どちらを使用すべきでしょうか? | closed_qa |
|
https://docs.databricks.com/optimizations/aqe.html#frequently-asked-questions-faq | 動的結合の並べ替えは、Databricks Runtime 7.3 LTS の時点で AQE の一部ではありません。 | AQE が結合順序を自動的に調整しないのはなぜですか? | closed_qa |
|
https://docs.databricks.com/optimizations/aqe.html#frequently-asked-questions-faq | AQE がパーティションをスキュー パーティションとして検出するには、次の 2 つのサイズ条件を満たさなければなりません。
パーティション サイズがspark.sql.adaptive.skewJoin.skewedPartitionThresholdInBytes (デフォルトの 256MB)より大きい
パーティション サイズが、すべてのパーティションの中央サイズにspark.sql.adaptive.skewJoin.skewedPartitionFactor(既定値は 5)を掛けた値よりも大きい
さらに、スキュー処理のサポートは、特定の結合タイプに対して制限されています。たとえば、 LEFT OUTER JOINでは、左側のスキューのみを最適化できます。 | AQE がデータの偏りを検出しなかったのはなぜですか? | closed_qa |
|
https://docs.databricks.com/archive/azure/synapse-polybase.html#frequently-asked-questions-faq | エラーのデバッグに役立つように、Azure Synapse コネクタに固有のコードによってスローされた例外は、SqlDWException特性を拡張する例外にラップされます。例外は、次の区別もあります。
SqlDWConnectorExceptionはAzure Synapse コネクタによってスローされたエラーです。
SqlDWSideExceptionは接続された Azure Synapse インスタンスによってスローされたエラーです。 | Azure Synapse コネクタの使用中にエラーが発生しました。このエラーが Azure Synapse によるものか Databricks によるものかはどうすればわかりますか? | closed_qa |
|
https://docs.databricks.com/archive/azure/synapse-polybase.html#frequently-asked-questions-faq | Azure Synapse では、SAS を使用した Blob Storage へのアクセスはサポートされていません。したがって、Azure Synapse コネクタは、tempDirによって指定された BLOB ストレージ コンテナーにアクセスするためのSASをサポートしていません。 | Shared Access Signature (SAS) を使用して、tempDirで指定された BLOB ストレージ コンテナーにアクセスできますか? | closed_qa |
|
https://docs.databricks.com/archive/azure/synapse-polybase.html#frequently-asked-questions-faq | いいえ。Azure Synapse は外部データ ソースと見なされます。dbTableによって名前が設定された Azure Synapse テーブルは、Spark テーブルが削除されても削除されません。 | dbTableオプションを指定して Azure Synapse コネクタを使用して Spark テーブルを作成し、この Spark テーブルにデータを書き込んでから、この Spark テーブルを削除しました。Azure Synapse 側で作成したテーブルは削除されますか? | closed_qa |
|
https://docs.databricks.com/archive/azure/synapse-polybase.html#frequently-asked-questions-faq | これは、「.option("dbTable", tableName) 」がデータベース(つまり、Azure Synapse) テーブルを指し、「.saveAsTable(tableName)」がSpark テーブルを指すという区別を明確にしたいためです。実際には、この 2 つを組み合わせることもできます「df.write. ... .option("dbTable", tableNameDW).saveAsTable(tableNameSpark)」。これにより、呼び出された Azure Synapse 内に「tableNameDW」テーブルが作成され、 Azure Synapse テーブルによってサポートされる呼び出された Spark 内に「tableNameSpark」外部テーブルが作成されます。 | DataFrame を Azure Synapse に書き込むときに、単に.saveAsTable(tableName) の代わりに.option("dbTable", tableName).save()を書く必要があるのはなぜですか? | closed_qa |
|
https://docs.databricks.com/sql/release-notes/index.html#frequently-asked-questions-faq | Databricks SQL ワークロードは、SQL コンピューティング SKUに従って課金されます。 | Databricks SQL ワークロードはどのように課金されますか? | closed_qa |
|
https://docs.databricks.com/sql/release-notes/index.html#frequently-asked-questions-faq | Databricks クラスターと同様に、クラシック SQL エンドポイントはAWS アカウントで作成および管理されます。クラシック SQL エンドポイントは、アカウント内の SQL 最適化クラスターを自動的に管理し、エンドユーザーの需要に合わせてスケーリングします。
一方、サーバーレス SQL エンドポイント(パブリック プレビュー) は、Databricks クラウド アカウントのコンピューティング リソースを使用します。サーバーレス SQL ウェアハウスは、SQL エンドポイントの構成と使用を簡素化し、起動時間を短縮します。サーバーレス オプションは、ワークスペースで有効になっている場合にのみ使用できます。詳細については、「サーバーレス コンピューティング」を参照してください。 | SQL エンドポイントはどこで実行されますか? | closed_qa |
|
https://docs.databricks.com/sql/release-notes/index.html#frequently-asked-questions-faq | いいえ。Databricks SQLクエリ、BI ツール、その他のJDBC および ODBC クライアントから SQL エンドポイントを使用できます。 | Data Science & Engineering ワークスペースの SQL ノートブックから SQL エンドポイントを使用できますか? | closed_qa |
|
https://docs.databricks.com/sql/release-notes/index.html#frequently-asked-questions-faq | Databricks SQL では、データへのすべてのアクセスはデータ アクセス制御の対象となり、管理者またはデータ所有者は最初に適切な権限を付与する必要があります。 | クラウド プロバイダーの資格情報を使用してデータへのアクセスが許可されています。Databricks SQL でこのデータにアクセスできないのはなぜですか? | closed_qa |
|
https://docs.databricks.com/dev-tools/vscode-ext.html#frequently-asked-questions-faqs | Databricks は、予測可能な方法で CI/CD パイプラインを管理するために、Databricks Terraform プロバイダーを引き続き推奨しています。今後、IDE を使用して展開を管理する方法について、Databricks の担当者にお知らせください。Databricks は、お客様の意見を将来の計画に組み込みます。 | Databricks Terraform プロバイダーは、Visual Studio Code の Databricks 拡張機能とどのように関連していますか? | closed_qa |
|
https://docs.databricks.com/dev-tools/vscode-ext.html#frequently-asked-questions-faqs | Databricks Labs による dbxの主な機能は次のとおりです。
プロジェクトのscaffolding。
dbx executeコマンドによる限定的なローカル開発。
Databricks ジョブの CI/CD。
Visual Studio Code の Databricks 拡張機能を使用すると、Databricks クラスターでローカル開発とリモートで Python コード ファイルを実行し、Databricks ジョブで Python コード ファイルとノートブックをリモートで実行できます。dbxプロジェクトのscaffoldingと Databricks ジョブの CI/CD に引き続き使用できます。 | Databricks Labs による dbx は、Visual Studio Code の Databricks 拡張機能とどのように関連していますか? | closed_qa |
|
https://docs.databricks.com/dev-tools/vscode-ext.html#frequently-asked-questions-faqs | Visual Studio Code の Databricks 拡張機能を構成するときに、既存の構成プロファイルを選択できます。拡張機能とコード プロジェクトを開いた状態で、次の操作を行います。
[構成]ペインで、歯車 ( [ワークスペースの構成] ) アイコンをクリックします。
たとえば、ワークスペース インスタンスの URLを入力しますhttps://dbc-a1b2345c-d6e7.cloud.databricks.com。
コマンド パレットで、既存の構成プロファイルを選択します。 | Databricks CLI で作成した既存の Databricks 構成プロファイルが既にある場合はどうなりますか? | closed_qa |
|
https://docs.databricks.com/dev-tools/vscode-ext.html#frequently-asked-questions-faqs | コードを実行するための Databricks クラスターの実行アクセス許可と、Databricks Repos にリポジトリを作成するためのアクセス許可が必要です。 | Databricks ワークスペースで Visual Studio Code 用の Databricks 拡張機能を使用するには、どのアクセス許可が必要ですか? | closed_qa |
|
https://docs.databricks.com/dev-tools/vscode-ext.html#frequently-asked-questions-faqs | ワークスペースでは、Files in Repos設定がオンになっている必要があります。手順については、Repos 内のファイルのサポートを構成する を参照してください。この設定を自分で有効にできない場合は、Databricks ワークスペース管理者に問い合わせてください。 | Databricks ワークスペースで Visual Studio Code 用の Databricks 拡張機能を使用するには、どの設定を有効にする必要がありますか? | closed_qa |
|
https://docs.databricks.com/dev-tools/vscode-ext.html#frequently-asked-questions-faqs | はい。プロキシ経由で同期するときのエラーで推奨される解決策を参照してください。https://docs.databricks.com/dev-tools/vscode-ext.html#troubleshooting-proxy | プロキシで Visual Studio Code の Databricks 拡張機能を使用できますか? | closed_qa |
|
https://docs.databricks.com/dev-tools/vscode-ext.html#frequently-asked-questions-faqs | いいえ。Visual Studio Code の Databricks 拡張機能は、作成したリポジトリでのみ機能します。 | リモート Git プロバイダーに格納されている既存のリポジトリで、Visual Studio Code の Databricks 拡張機能を使用できますか? | closed_qa |
|
https://docs.databricks.com/sql/user/queries/query-parameters.html#frequently-asked-questions-faq | はい。{{}}で同じ識別子を使用します。 | 1 つのクエリで同じパラメータを複数回再利用できますか? | closed_qa |
|
https://docs.databricks.com/sql/user/queries/query-parameters.html#frequently-asked-questions-faq | はい。各パラメータに一意の名前を使用してください。 | 1 つのクエリで複数のパラメーターを使用できますか? | closed_qa |
|
https://docs.databricks.com/external-data/snowflake.html#frequently-asked-questions-faq | Spark 用の Snowflake コネクタは、書き込まれるテーブルの列の順序を尊重しません。DataFrame 列と Snowflake 列の間のマッピングを明示的に指定する必要があります。このマッピングを指定するには、columnmap パラメータを使用します。 | Spark DataFrame 列が Snowflake で同じ順序で表示されないのはなぜですか? | closed_qa |
|
https://docs.databricks.com/external-data/snowflake.html#frequently-asked-questions-faq | Snowflake はすべてのINTEGER型はNUMBER として表します。これにより、Snowflake にデータを書き込んだり、Snowflake からデータを読み取ったりするときに、データ型が変更される可能性があります。たとえば、 Snowflake ではDECIMALとINTEGER が意味的に同等であるため、Snowflake への書き込み時にINTEGERデータをDECIMAL に変換する場合があります( Snowflake Numeric Data Typesを参照)。 | Snowflake にINTEGERとして書き込まれたデータがDECIMAL として読み戻されるのはなぜですか? | closed_qa |
|
https://docs.databricks.com/external-data/snowflake.html#frequently-asked-questions-faq | Snowflake はデフォルトで大文字のフィールドを使用します。つまり、テーブル スキーマは大文字に変換されます。 | Snowflake テーブル スキーマのフィールドが常に大文字なのはなぜですか? | closed_qa |
|
https://www.databricks.com/jp/solutions/accelerators | ソリューションアクセラレータの使用には、Databricks 無料トライアルへのご登録、または既存の Databricks アカウントが必要です。 | ソリューションアクセラレータを使用するには、Databricks ユーザーである必要がありますか? | closed_qa |
|
https://www.databricks.com/jp/solutions/accelerators | ソリューションアクセラレータを使用することで、発見、設計、開発、テストにかかる時間を短縮できます。Notebook や実証済みのパターン、ベストプラクティスといったリソースを活用し、データと AI のユースケースをすぐに展開できるように設計されています。発案から PoC までを最短 2 週間で完了できます。 | ソリューションアクセラレータのメリットは? | closed_qa |
|
https://www.databricks.com/jp/solutions/accelerators | Databricks ソリューションアクセラレータは、さまざまな業界・業種に共通の主要なユースケースに対応する、フル機能の Notebook やベストプラクティスを含む目的に特化したガイドです。ソリューションアクセラレータを使用することで、発見、設計、開発、テストにかかる時間を短縮できます。発案から PoC までを 2 週間以内に完了できるよう設計されています。
ソリューションアクセラレータは、Databricks の無料トライアルへのご登録、または既存のアカウントで使用できます。 | Databricks ソリューションアクセラレータは何? | closed_qa |
|
https://www.databricks.com/jp/product/pricing | 14日間無料トライアル に含まれるもの:
ソリューションの共同構築を可能にするプラットフォーム
Apache SparkTM、SQL、Python、Scala、Delta Lake、MLflow、TensorFlow、Keras、Scikit-learn など、多言語のサポートを備えた対話型 Notebook
※ 無料トライアル期間中にアカウント内で使用されたリソース (コンピュートインスタンスなど) については、クラウドプロバイダの料金が適用されます。 | 無料トライアルには何が含まれていますか? | closed_qa |
|
https://www.databricks.com/jp/product/pricing | 無料お試し期間が終了すると、自動的に同プランの有料サブスクリプションに移行します。ただし、サブスクリプションはいつでも解約できます。 | 無料トライアル期間の終了後はどうなりますか? | closed_qa |
|
https://www.databricks.com/jp/product/pricing | Databricks の料金は、コンピューティング使用量に基づいています。ストレージ、ネットワークなどの関連コストは、お使いになるサービスやクラウドサービスプロバイダによって異なります。 | 料金は使用量・ストレージ容量のどちらで計算されますか? | closed_qa |
|
https://www.databricks.com/jp/product/pricing | Databricks ユニット(DBU)とは、Databricks レイクハウスプラットフォームの処理能力を規格化した単位であり、測定と課金の目的で使用されます。ワークロードが消費する DBU の数は、使用するコンピューティングリソースや処理するデータの量などの処理指標によって決まります。 | DBU とは何を意味しますか? | closed_qa |
|
https://www.databricks.com/jp/product/pricing | Databricks の料金やスポット割引は、お使いの地域やクラウドサービスプロバイダによって異なる場合があります。詳しくは、各製品の Databricks の料金設定をご覧ください。 | 地域によって料金が異なりますか? | closed_qa |
|
https://www.databricks.com/jp/product/pricing | Databricks の製品は、お客様のワークロードの TCO(Total Cost of Ownership)を考慮した価格設定になっています。Databricks によるコスト削減を見積もる際には、 ジョブの完了率、期間、ジョブをサポートするために必要な手作業やリソースなど、代替ソリューションの主要な側面を考慮することが重要です。正確な節約額を見積もるには、PoC の展開の一環として、結果を並べて比較することをお勧めします。 Databricks の導入による高速化の達成事例と お客様によるベンチマーク結果もご参照ください。詳しくはお問い合わせください。 | Databricks は、他のクラウドサービスやオープンソースのソリューションと比較して、高価格ですか? | closed_qa |
|
https://www.databricks.com/jp/product/pricing | テクニカルサポートを提供しています。また、技術ドキュメントの参照をお薦めしています。 詳しくはお問い合わせください。 | テクニカルサポートは提供されますか? | closed_qa |
|
https://www.databricks.com/jp/product/pricing/datascience-ml | Photon は、Databricks レイクハウスプラットフォームの次世代エンジンであり、非常に高速なクエリ性能を、より低いコストで提供します。 | Photon とは何ですか? | closed_qa |
|
https://www.databricks.com/jp/product/pricing/jobs | Jobs Light クラスタは、Databricks のオープンソース Apache Spark に相当します。Jobs Light クラスタは、Databricks のテクノロジーによる高性能、高信頼性、自動スケーリングを必要としないケース、すなわち、シンプルで重要性の低いワークロードを対象としています。一方、Jobs クラスタでは、Databricks のメリットが全て提供され、生産性向上、総所有コストの削減を実現します。 | Jobs クラスタと Jobs Light クラスタのオプションがありますが、どちらを選択すべきでしょうか? | closed_qa |
|
https://www.databricks.com/jp/product/pricing/jobs | Jobs Compute のワークロードは、Jobs クラスタで実行するワークロードです。Jobs クラスタは、同一のジョブによって開始・終了します。分離を目的として、1 つの Jobs クラスタでは 1 つのジョブのみを実行します。All-Purpose Compute のワークロードは、All-Purpose クラスタで実行されます。All-Purpose クラスタは、Jobs クラスタに分類されないクラスタです。Databricks Notebook 内でのコマンドの実行、BI ワークロードのための JDBC/ODBC を介した接続、Databricks での MLflow の実験など、さまざまな用途に使用できます。複数のユーザーで All-Purpose クラスタを共有し、インタラクティブな分析を行うことができます。 | Jobs Compute と All-Purpose Compute のワークロードの違いは何ですか? | closed_qa |
|
https://www.databricks.com/jp/product/pricing/delta-live | はい。パイプラインの設定で、DLT パイプラインごとに異なるエディションを指定することができます。 | ワークスペース内の各パイプラインに異なる DLT Product Edition を選択することはできますか? | closed_qa |
|
https://www.databricks.com/jp/product/pricing/delta-live | パイプラインの作成時に、DLT Product Edition を選択するオプションがあります。Delta Live Tables のページから「Create Cluster」をクリックすると、その後のウィンドウに DLT Product Edition を選択するオプションが表示されます。 | パイプライン用の DLT Product Edition はどのように選択すればよいですか? | closed_qa |
|
https://www.databricks.com/jp/product/pricing/delta-live | パイプラインに選択された DLT Product Edition に含まれていない機能を含むパイプラインを実行しようとすると、エラーの理由を含むエラーメッセージが表示されます。その後、パイプラインの Product Edition を変更して、必要な機能を含むエディションを選択し、パイプラインの再実行を試みることができます。 | DLT の品質に関する期待値を設定しようとしたとき、パイプラインが Advanced Edition を使用していない場合はどうなりますか? | closed_qa |
|
https://www.databricks.com/jp/product/pricing/delta-live | はい。DLT クラスタは、ジョブ計算速度で DBU を消費する Delta Live Table を維持するために、システムが生成するジョブを定期的に自動的に実行します。 | DLT に関連するその他の料金はありますか? | closed_qa |
|
https://www.databricks.com/jp/product/pricing/databricks-sql | SQL Classic および Pro の場合、Databricks はお客様のクラウドプロバイダ環境にクラスタリソースをデプロイし、お客様は対応するコンピューティングインフラ料金を支払う責任を負います。サーバーレスコンピュートの場合、Databricks は Databricks のクラウドプロバイダのアカウントにクラスタリソースをデプロイするためお客様はコンピュートインフラ料金を別途お支払いいただく必要はございません。詳しくはこちらをご覧ください。 | SQL ServerlessとSQL Classic / Proの違いは何ですか? | closed_qa |
|
https://www.databricks.com/jp/product/pricing/databricks-sql | ソースデータが Databricks サーバーレス環境と異なるクラウド領域にある場合、クラウド事業者からネットワークエグレスチャージを請求される場合があります。Databricks は現在、サーバーレス環境からお客様の目的地までの移動にかかる費用を無料としていますが、将来的には市場競争力のある料金でその移動にかかる費用を請求する可能性があります。 | サーバーレスで発生する可能性のあるネットワークエグレスチャージは何ですか? | closed_qa |
|
https://www.databricks.com/jp/product/pricing/databricks-sql | はい、プロモーション割引は、お客様が交渉された契約割引に上乗せされます。 | SQL Pro とサーバーレス SQLのプロモーション割引は、交渉による割引に上乗せされますか? | closed_qa |
|
https://www.databricks.com/jp/product/pricing/databricks-sql | AWS では、キャンペーン期間中に SQL Pro と Serverless SQL のウェアハウスで排出される DBU レートを引き下げることで、キャンペーン割引を実施します。 | SQL Pro とサーバーレス SQL のキャンペーン割引はどのように実施されているのですか? | closed_qa |
|
https://www.databricks.com/jp/product/pricing/model-serving | 1同時リクエストあたり 4 GB | 同時リクエストごとに提供されるメモリはどのくらいですか? | closed_qa |
|
https://www.databricks.com/jp/product/pricing/model-serving | リージョン別価格は、Databricks のサーバーレス製品を支えるインフラのリージョン別コストに基づくものです。 | なぜリージョン別価格があるのですか? | closed_qa |
|
https://www.databricks.com/jp/product/pricing/model-serving | クエリの総数/総時間から、1 時間あたりに必要な同時リクエスト数を算出します。
1 DBU/時間で 1 時間あたり 1 同時リクエスト(最低 4 DBU /時間) | DBU と同時実行性は、モデルサービングにどのように作用するのですか? | closed_qa |
|
https://www.databricks.com/jp/product/pricing/model-serving | モデル実行時間とは、モデルサービングで機械学習モデルを実行するのに必要な時間のことです。実行時間を見積もるには、エンドポイントページのレイテンシチャートを確認するか、負荷テストを実施できます。負荷テストに関するガイダンスについては、Databricks チームまでお気軽にお問い合わせください。 | モデル実行時間とは? | closed_qa |
|
https://www.databricks.com/jp/product/pricing/model-serving | 「scale to zero」が選択されていない場合、最低料金は、選択された同時接続数範囲によって指定されるプロビジョニングされた同時接続数の最小値によって異なります。 | 「scale to zero」が選択されておらず、トラフィックがない場合の最低料金はいくらですか? | closed_qa |
|
https://www.databricks.com/jp/product/pricing/platform-addons | プロダクトスペンドは、割引、使用クレジット、アドオンアップリフト、サポート料適用前のリストでの AWS プロダクトスペンドを基に算出されます。 | アドオン製品料金の基準となる製品支出はどのように計算されますか? | closed_qa |
|
https://www.databricks.com/jp/product/machine-learning | オープンなレイクハウスアーキテクチャを基盤とする Databricks のプラットフォームは、機械学習のためのデータの準備や処理を効率化し、チーム間のコラボレーションを支援し、実験から本番までの機械学習ライフサイクルの合理化を可能にします。 | Databricks プラットフォームでの機械学習は? | closed_qa |
|
https://www.databricks.com/jp/product/machine-learning | Databricks ML は、オープンなレイクハウスアーキテクチャを基盤として構築されており、Delta Lake が組み込まれています。機械学習チームによる、あらゆる規模、種類のデータのアクセス、探索、準備を可能にします。データエンジニアリングのサポートなしで、特徴量をセルフサービスで本稼働パイプラインに組み込めます。 | Databricks 機械学習ではデータをどのようにシンプルに取り込むか? | closed_qa |
|
https://www.databricks.com/jp/product/machine-learning | マネージド MLflow により、実験を自動的に追跡し、トレーニング実行ごとのパラメータ、メトリクス、データとコードのバージョン、モデルの成果物を記録できます。実行履歴をすぐに確認でき、結果を比較したり、必要に応じて過去の結果を再現したりすることも可能です。本番環境に最適なモデルのバージョンを特定した後は、モデルレジストリに登録し、展開ライフサイクル全体のハンドオフを簡素化できます。 | Databricks 機械学習ではどのように実験追跡とガバナンスの自動化を行うか? | closed_qa |
|
https://www.databricks.com/jp/product/machine-learning | トレーニングされたモデルを登録すると、モデルレジストリを使用してモデルのライフサイクルを共同管理できます。モデルのバージョン管理や移動は、実験、ステージング、本番環境、アーカイブなどさまざまな段階で可能です。ライフサイクル管理は、ロールベースのアクセス制御に従って、承認やガバナンスのワークフローと統合されています。また、コメントやメールの通知機能により、データチームのコラボレーション環境が充実します。 | Databricks 機械学習ではどのようにモデルのライフサイクル全体を動的に管理するか? | closed_qa |
|
https://www.databricks.com/jp/product/machine-learning | サーバーの管理やスケールの制限を気にすることなく、ワンクリックでモデルをデプロイできます。Databricks を使用することで、エンタープライズレベルの高可用性で、モデルを REST API エンドポイントとして任意の場所にデプロイできます。 | ML モデルの大規模展開をどのように低レイテンシで実装するか? | closed_qa |
|
https://www.databricks.com/jp/product/machine-learning-runtime | Databricks の Notebook は、Python、R、SQL をネイティブにサポートしており、ユーザーは任意の言語やライブラリを使用できます。気づきの視覚化と共有も容易です。 | Databricks の Notebook は? | closed_qa |
|
https://www.databricks.com/jp/product/machine-learning-runtime | 機械学習ランタイム(MLR)は、データサイエンティストと ML の実行者に、一般的なフレームワーク、組み込み AutoML、および最高のパフォーマンスを実現するための最適化を含む、スケーラブルなクラスターを提供します。 | 機械学習ランタイム(MLR)は? | closed_qa |
|
https://www.databricks.com/jp/product/machine-learning-runtime | ML フレームワークが急激な進化を遂げており、ユーザーは平均 8 つのライブラリを管理する必要があります。ML ランタイムは、特に一般的な ML フレームワークの高性能かつ信頼性のある分散処理、および事前構築されたコンテナを介したカスタム ML 環境へのワンクリックアクセスを提供します。 | 機械学習ランタイム(MLR)でどのように最適なフレームワークを提供するか? | closed_qa |
|
https://www.databricks.com/jp/product/machine-learning-runtime | Hyperopt および MLflow を使用したハイパーパラメータのチューニングやモデル検索といった組み込みの AutoML 機能により、データ準備から推論に至るまで、機械学習を強化します。 | 機械学習ランタイム(MLR)でどういう強化された機械学習を提供しているか? | closed_qa |
|
https://www.databricks.com/jp/product/machine-learning-runtime | Hyperopt および MLflow を使用したハイパーパラメータのチューニングやモデル検索といった組み込みの AutoML 機能により、データ準備から推論に至るまで、機械学習を強化します。 | 機械学習ランタイム(MLR)でどのように簡素化されたスケーリングを提供しているか? | closed_qa |
|
https://www.databricks.com/jp/product/machine-learning-runtime | 機械学習ランタイム(MLR)で提供しているMLフレームワーク:TensorFlow、Keras、PyTorch、MLflow、Horovod、GraphFrame、scikit-learn、XGboost、numpy、MLeap、Pandas など、特に一般的な ML ライブラリとフレームワークをすぐに利用できます。 | 機械学習ランタイム(MLR)で提供しているMLフレームワークは何か? | closed_qa |
|
https://www.databricks.com/jp/product/machine-learning-runtime | オープンソースまたはマネージド型 MLflow および並列座標プロット機能を使用して、数十万もの実験を追跡、比較、および視覚化します | 自動実験追跡はどういうこと? | closed_qa |
|
https://www.databricks.com/jp/product/machine-learning-runtime | GPU クラスター上の TensorFlow CUDA に最適化されたバージョンを活用して、パフォーマンスの最大化を実現します。 | databricksでのTensorFlowの最適化について。 | closed_qa |
|
https://www.databricks.com/jp/product/machine-learning-runtime | 単一ノードの深層学習トレーニングコードを迅速に移行し、HorovodRunner (Horovod を分散トレーニングで使用する際に直面する複雑さを抽象化する単純な API)を使って Databricks クラスタで実行します。 | 単一ノードの深層学習トレーニングコードはどのように分散トレーニングできるか? | closed_qa |
|
https://www.databricks.com/jp/product/machine-learning-runtime | Azure、AWS、GCP の高性能ソリューションを活用して、データの読み込みとモデルのチェックポイント設定を行います。どちらも深層学習のトレーニングのワークロードにとって重要です。 | 深層学習のワークロード用に最適化されたストレージはどのように実装されているか? | closed_qa |
|
https://www.databricks.com/jp/product/machine-learning-runtime | ワークロードとデータスキューに応じて、2~4 倍の速度で GraphFrames を実行し、Graph クエリを最大で 100 倍高速化します。 | どのよう最適化された GraphFramesが実装されているか? | closed_qa |
|
https://www.databricks.com/jp/product/managed-mlflow | マネージド型の MLflow は、Databricks によって開発されたオープンソースプラットフォームである MLflow 上に構築されています。エンタープライズレベルの信頼性、セキュリティ、スケーラビリティで、機械学習のライフサイクルを管理できます。 | マネージド MLflow とは? | closed_qa |
|
https://www.databricks.com/jp/product/managed-mlflow | 本番モデルは、Apache Spark™ でバッチ推論を実行するために、または Docker コンテナ、Azure ML、Amazon SageMaker に統合されている組み込み機能を使用する REST API として、迅速にデプロイできます。Databricks 上のマネージド型の MLflow では、Databricks Jobs Scheduler や自動管理クラスターを利用して本番モデルを運用および監視し、ビジネスニーズに応じてスケーリングすることができます。 | マネージド MLflow でモデルをデプロイするメリットは何? | closed_qa |
|
https://www.databricks.com/jp/product/managed-mlflow | 一元的な場所を使用して、機械学習モデルの検出と共有、実験からオンラインでのテストと実稼働への移行に関する共同作業、承認とガバナンスのワークフローと CI/CD パイプラインとの統合、機械学習のデプロイとそのパフォーマンスを監視します。MLflowモデルレジストリを使用することで、専門知識と知識の共有を容易にし、管理を維持できます。 | マネージド MLflow でモデルを管理するメリットは何? | closed_qa |
|
https://www.databricks.com/jp/product/managed-mlflow | 本番環境で使用可能な ML モデルを開発するための標準化されたフレームワークにより、機械学習のライフサイクル管理を加速および簡素化します。管理された MLflow Recipes を使用すると、ML プロジェクトのブートストラップ、迅速なイテレーションを容易に実行し、高品質のモデルを大規模に本番環境に出荷することができます。 | マネージド MLflow でモデルを追跡するメリットは何? | closed_qa |
|
https://www.databricks.com/jp/product/managed-mlflow | 'MLflow Model Registry'はモデルを管理する中央リポジトリです。MLflow モデルを MLflow Model Registry に登録します。登録されたモデルは、一意の名前、バージョン、ステージ、およびその他のメタデータを持ちます。 | 'MLflow Model Registry' は何? | closed_qa |
|
https://www.databricks.com/jp/product/managed-mlflow | 'MLflow Model Registry'はモデルを管理する中央リポジトリです。MLflow モデルを MLflow Model Registry に登録します。登録されたモデルは、一意の名前、バージョン、ステージ、およびその他のメタデータを持ちます。 | 'MLflow Model Registry' は何? | closed_qa |
|
https://www.databricks.com/jp/product/managed-mlflow | モデルが更新された時に登録済みモデルの新しいバージョンとして自動的に追跡して管理することです。 | 'MLflow Model Registry' のモデルのバージョン管理は何? | closed_qa |
|
https://www.databricks.com/jp/product/managed-mlflow | 'MLflow Model Registry'はモデルを管理する中央リポジトリです。MLflow モデルを MLflow Model Registry に登録します。登録されたモデルは、一意の名前、バージョン、ステージ、およびその他のメタデータを持ちます。 | モデルステージは何? | closed_qa |
|
https://www.databricks.com/jp/product/managed-mlflow | さまざまなダウンストリームツール(例:REST API を介したリアルタイムサービスや、Apache Spark でのバッチ推論)で使用可能な、機械学習モデルをパッケージ化するための標準形式です。 | MLflow モデルは何? | closed_qa |
|
https://www.databricks.com/jp/product/managed-mlflow | MLflow の組み込みフレーバーで明示的にサポートされていない ML ライブラリのモデルについては、カスタム Python モデルおよびカスタムフレーバーを使用します。 | モデルのカスタマイズは何? | closed_qa |
|
https://www.databricks.com/jp/product/managed-mlflow | MLflow は、Python や R 関数、Hugging Face, OpenAI and LangChain、PyTorch、Spark MLlib、TensorFlow、ONNX など、アプリケーションで有用ないくつかの標準フレーバーを提供します。 | MLflowのビルトインのモデルフレーバーは何? | closed_qa |
|
https://www.databricks.com/jp/product/managed-mlflow | ローカルマシン、または Microsoft Azure ML、Amazon SageMaker、デプロイメント用 Docker イメージの構築など、他のいくつかの本番環境に対して Apache Spark UDF を介して Datbricks 上で素早くデプロイできます。 | MLflowのビルトインのデプロイメントツールは何? | closed_qa |
|
https://www.databricks.com/jp/product/managed-mlflow | ML モデルの構築とデプロイメントのために、すぐに使用できる接続コンポーネントを提供するフレームワークです | 'MLflow Recipes'は何? | closed_qa |
|
https://www.databricks.com/jp/product/managed-mlflow | 'MLflow Recipes'を使うメリットは以下3点あります。プロジェクトの開始を簡素化:MLflow Recipes は、ML モデルの構築とデプロイメントのために、すぐに使用できる接続コンポーネントを提供します。
モデル反復の迅速化:MLflow Recipes は、モデル反復のための標準化された再利用可能な手順を作成し、プロセスの迅速化とコスト削減を実現します。
チームのハンドオフを自動化:独自の構造により、モジュール化された本番環境に対応したコードが提供され、実験から本番環境への自動ハンドオフが可能になります。 | 'MLflow Recipes'を使うメリットは何? | closed_qa |
|
https://www.databricks.com/jp/product/managed-mlflow | Python、 REST、 R API、Java API を使用して、実行ごとにパラメータ、コードバージョン、メトリック、アーティファクトを、自動的に記録します | 'MLflow Tracking'では何を追跡するか? | closed_qa |
|
https://www.databricks.com/jp/product/managed-mlflow | アーティファクトはS3 バケット、共有 NFS ファイルシステム、モデルなどの大きなファイルを、Amazon S3、Azure Blob Storage、Google Cloud ストレージ、SFTP サーバー、NFS、ローカルファイルパスに保存します。 | 'MLflow Tracking'でアーティファクトをどこに格納するか? | closed_qa |
|
機械学習エンジニア、データエンジニア及びデータサイエンティストが、実験やモデルの管理からさまざまなデプロイ方式と本番環境に関連する様々な課題対応まで、機械学習のライフサイクル全体管理のベストプラクティスを学びます。MLflowを使用してデータ管理、実験追跡、モデル管理などを含むエンドツーエンドでの機械学習モデルの再現性から始め、バッチ、ストリーミング、リアルタイムでモデルのデプロイ、そして監視、アラート、CI/CDへの対応対策を学びます。サンプルコードはすべてのモジュールに付属しています。このコースでは、
・まず、データ、モデル、実験の追跡などを含むエンドツーエンドでの再現性に焦点を当て、MLflowを使用した実験プロセスの管理について説明します。
・次に、MLflowモデルレジストリへのモデルの登録、artifactsと環境の管理、モデルテストの自動化など、さまざまなダウンストリームのデプロイツールと統合することにより、モデルの運用を学びます。
・その次に、バッチ、ストリーミング、およびリアルタイム推論のためのモデルデプロイを実装します。最後に、継続的なインテグレーション、継続的なデプロイメント、モニタリングおよびアラートを含めた本番環境で必要な取組もカバーします。
このコースを修了すると、機械学習モデルのログ記録、デプロイ、監視を含めたエンドツーエンドのパイプラインの構築が可能になります。 | 本番における機械学習 (Machine Learning in Production)の研修ではどういうことを学びますか? | closed_qa |
||
Feature Storeは、 企業における全ての特徴量を管理する中央管理型リポジトリ になります。これにより、組織内で 特徴量の共有と探索 が可能になり、モデルのトレーニングと推論をするために、特徴量を算出するための同じコードが使用されていることが確保できます。 | Feature Storeとは? | closed_qa |
||
Feature(特徴量)をリアルタイムサービングに使用する必要の場合は、online storeにFeatureをpublishすることができます。 | Feature(特徴量)をリアルタイムサービングに使用する必要の場合はどうすればいいですか? | closed_qa |
||
データ管理は、エンドツーエンドMLの再現性において見過ごされがちな重要なことです。 | なぜデータ管理が重要ですか? | closed_qa |
Subsets and Splits