context
stringclasses 6
values | source
stringlengths 0
149
| response
stringlengths 4
1.6k
| instruction
stringlengths 5
137
| category
stringclasses 1
value |
---|---|---|---|---|
https://qiita.com/taka_yayoi/items/fddef839b8a45c83d1b7 | 我々はサブネットに対してデフォルトのNACLルールが使用される多層セキュリティモデルを使用していますが、EC2インスタンスに対して厳しいセキュリティグループルールによってさらにリスクを軽減することができます。さらに、多くのお客様は公衆インターネット向けのすべてのアウトバウンドアクセスを制限するために、ネットワークファイアウォールを追加しています。こちらに、不正あるいは意図しない攻撃者からデータを防御する方法を説明している、データ漏洩防御に関する記事があります。 | 今の所、セキュリテイグループのルールに問題はありません。しかし、Databricksのドキュメントを見たのですが、どうしてDatabricksのデプロイメントでは、インバウンドのネットワークACLサブネットルールでALLOW ALLが必要なのですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/fddef839b8a45c83d1b7 | はい。PrivateLinkが有効化されたワークスペースを作成する際、プライベートアクセスオブジェクト、PASを作成する必要があります。PASには公衆回線によるアクセスを有効にするか、無効にするかのオプションがあります。ワークスペースのURLはインターネット上で有効ですが、PASの公衆回線アクセスがfalseに設定されており、ユーザーがVPCエンドポイント経由でルーティングされていない場合、不正なネットワークからワークスペースにアクセスしたと判断されサインインすることはできません。エンタープライズのお客様がフロントエンドPrivateLink接続の代わりに用いているのは、IPアクセスリストです。 | 我々のユーザーがトランジットVPCからコントロールプレーンのDatabricksワークスペースにルーティングされるように、PrivateLinkをフロントエンド接続でも使えますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/fddef839b8a45c83d1b7 | はい、可能です。しかし、依然としてS3ゲートウェイエンドポイント、Kinesisインタフェースエンドポイント、STSインタフェースエンドポイントは必要です。あと、DatabricksのデフォルトHiveメタストアや、PyPI、Mavenのようなリポジトリにアクセスできないことに注意してください。デフォルトHiveメタストアにアクセスできないので、自身のRDSインスタンスあるいはAWS Glue Catalogを使用する必要があります。そして、パッケージに関しては、ご自身の環境でリポジトリをホストする必要があります。これらの理由から、代わりにユーザーのクラスターが公衆インターネットのどの領域にアクセスできるのかを制限するために、外向け通信のファイアウォールをお勧めしています。 | 適切なPrivateLink設定によって、コントロールプレーンへのルーティングをPrivateLink経由にし、EC2インスタンスが使用するインターネットゲートウェイを設けない場合、クラスターは完全にロックダウンされることになりますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/fddef839b8a45c83d1b7 | S3エンドポイントはEC2がルートバケットに到達するために必要なだけではなく、あなたのデータを格納しているS3にアクセスするために必要となります。これによって、費用を削減し、S3へのトラフィックをAWSバックボーンに保持することで、さらなるセキュリティ層を追加することになります。Kinesisは、重要なセキュリティ情報、監査情報などを含むクラスターから収集される内部ログのためのものです。STSはEC2インスタンスに引き渡される一時的な資格情報のためのものです。 | S3、Kinesis、STS、なぜこれらのエンドポイントが必要なのですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/fddef839b8a45c83d1b7 | はい、必要なリソースに対してのみクロスアカウントを制限することをお勧めしています。ドキュメント(https://docs.databricks.com/administration-guide/cloud-configurations/aws/iam-role.html#customer-managed-vpc-with-custom-policy-restrictions)でポリシーを参照することができます。他の適用できる制限として、同じページで説明されていますがソースとなるEC2 AMIを制限するということです。あと、ドキュメントでUnity Catalog(https://qiita.com/taka_yayoi/items/3f2df6ddea81521ee786#aws%E3%81%AB%E3%81%8A%E3%81%91%E3%82%8B%E3%82%B9%E3%83%88%E3%83%AC%E3%83%BC%E3%82%B8%E3%83%90%E3%82%B1%E3%83%83%E3%83%88%E3%81%A8iam%E3%83%AD%E3%83%BC%E3%83%AB%E3%81%AE%E8%A8%AD%E5%AE%9A)とサーバレス向けの適切なIAMロールを参照することができます。 | クロスアカウントロールは、我々の環境におけるPaaSソリューションで標準となっているので問題ありません。しかし、VPC、サブネットを制限したクロスアカウントロールのサンプルはありますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/fddef839b8a45c83d1b7 | はい、可能です。言っていただいて助かりました。デプロイメントの一部として、あるいは後で追加する設定として、マネージドストレージやワークスペースストレージに対して顧客管理キーを追加することができます。
・ワークスペースストレージ: 上述したルートバケット、EBSボリューム、ジョブの実行結果、Delta Live Tablesなどを格納します。
・マネージドストレージ: ノートブックソースやメタデータ、パーソナルアクセストークン、Databricks SQLのクエリーを格納します。 | AWSアカウントにあるすべてのS3バケットに対して暗号化の要件があります。顧客管理キーを用いてルートバケットを暗号化することはできますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/fddef839b8a45c83d1b7 | 可能です。DatabricksにはTerraformプロバイダーがあります。また、POCで使用でき、Terraformスクリプトと連携できるCloudFormationテンプレートであるAWS QuickStartもあります。 | AWSにおける標準的なDatabricksデプロイメントを自動化することは可能ですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/3f2df6ddea81521ee786 | Unity Catalogを使用するためにどのようにDatabricksアカウントをセットアップするのか、どの様に最初のテーブルを作成するのかに関して、ハイレベルの概要を説明します。Unity Catalogを使えるようにDatabricksアカウントを有効化するには、以下の手順を踏んでください。
1. Unity CatalogがあなたのAWSアカウントにデータを格納、アクセスできるようにS3バケットとIAMロールを設定します。
2. 皆様の企業が利用しているリージョンのそれぞれにメタストアを作成します。このメタストアは、Unity Catalogのすべてのデータに対するトップレベルのコンテナとして動作します。メタストアの作成者として、あなたはオーナーでありメタストアの管理者となります。
3. メタストアにワークスペースをアタッチします。それぞれのワークスペースでは、Unity Catalogで管理するデータに対して同じビューを持つことになります。
4. Databricksアカウントにユーザー、グループ、サービスプリンシパルを追加します。既存のDatabricksアカウントにおいては、これらのIDは既に表示されます。
5. (オプション)メタストア管理者のロールをグループに移譲します。
ユーザーに対するデータアクセスをセットアップするには、以下の手順を踏みます。
1.ワークスペースで少なくとも1つの計算資源、クラスターかSQLウェアハウスを作成します。Unity Catalogによって保護されるデータオブジェクトに対するgrant文を含み、クエリーやコマンドの実行にこの計算資源を使用します。
2. 少なくとも1つのカタログを作成します。カタログはあなたが操作するテーブルを保持するスキーマ(データベース)を保持します。
3. 少なくとも1つのスキーマを作成します。
4. テーブルを作成します。
データ階層のそれぞれのレベル(カタログ、スキーマ、テーブル)において、ユーザー、グループ、サービスプリンシパルに対して権限を付与します。また、dynamic viewsを用いて行・列レベルのアクセス権を付与することができます。 | Unity Catalogをセットアップするためのステップバイステップの手順を知りたいです。 | closed_qa |
|
https://qiita.com/taka_yayoi/items/698ff532fcaf08e0dea6 | はい、あります。Databricksでは、それぞれが異なるタイプのワークロードに適した5つのコンピュートタイプを提供しています。
・ジョブコンピュート: スケーラブルかつ高信頼性の計算資源でデータエンジニアリングやMLワークロードを実行します。プロダクションワークロードで使用することを強くお勧めします。
・汎用コンピュート: インタラクティブなデータサイエンス、分析ワークロード向けに設計されています。
・SQL Pro: 高い同時実行性、低レーテンシーワークロード向けに設計された計算資源でBIや分析ワークロードを実行します。
・サーバレスSQL: SQL Proの全機能に加え、Databricksによって管理される最適化計算資源フリートを通じて提供される高速な起動時間とオートスケールを実現します。
・SQL Classic: お使いのデータレイクからタイムリーに洞察を得るために、BIレポート、分析、ビジュアライゼーションのためにSQLクエリーを実行します。 | Databricksで提供してるコンピュートタイプの機能比較はありますか? | closed_qa |
|
https://qiita.com/kohei-arai/items/5b54a89cbaec801f1972 | Databricksのレイクハウスプラットフォームでは従来のDWHのようなバッチ処理に加えてストリーミングも一つのプラットフォーム上で処理できます。 | 従来のデータウェアハウスにはないデータレイクハウスの利点は何ですか? | closed_qa |
|
https://qiita.com/kohei-arai/items/5b54a89cbaec801f1972 | データプレーン。コンピューティングリソースであるSparkクラスタのドライバーノードとワーカーノードはそれぞれデータプレーン(各クラウドプロバイダー内)に存在します。 | Databricksが管理するクラスタのドライバノードとワーカーノードをホストする場所はどこ? | closed_qa |
|
https://qiita.com/kohei-arai/items/5b54a89cbaec801f1972 | Databricks Repos はCI/CD プロセスを起動するために、コードの変更をコミットまたはプッシュすることができます。 | Databricks ReposがDatabricks Lakehouse Platform上でCI/CDワークフローを促進する方法は何ですか? | closed_qa |
|
https://qiita.com/kohei-arai/items/5b54a89cbaec801f1972 | Delta Lakeは、信頼性、セキュリティ、パフォーマンスを提供するオープンフォーマットのストレージレイヤーです。 | Delta lake (デルタレイク)とは? | closed_qa |
|
https://qiita.com/kohei-arai/items/5b54a89cbaec801f1972 | 「INSERT INTO」です。 | SQLキーワードのうち、既存のDeltaテーブルに新しい行を追加するために使用するのは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/6391933db00145c2940e | データガバナンスはデータが確実に価値をもたらし、皆様のビジネス戦略をサポートするための監視機能です。データガバナンスは、組織内のデータ資産をセキュアに管理するために実装されるポリシーとプラクティスをカプセル化します。データの量と複雑性は増加し続けており、コアとなるビジネス成果を確実なものとするために、より多くの企業がデータガバナンスを必要としています。
分析や機械学習の基礎としての一貫性があり高いデータ品質。
洞察に至る時間の短縮。
組織の誰もがデータドリブンの意思決定を行えるようにするデータの民主化。
HIPAA、FedRAMP、GDPR、CCPAのような業界規制に対するリスクとコンプライアンスのサポート。
ユーザーが大規模なクラスターを起動することを防ぎ、高価なGPUインスタンスを使用する際のガードレールを作成すること等によるコストの最適化。 | なぜデータガバナンスが重要なのか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/6391933db00145c2940e | データドリブンの企業は多くの場合、レイクハウス上に分析のためのデータアーキテクチャを構築しています。データレイクハウスは、データレイクに格納されている膨大な量のデータに対して直接、効率的かつセキュアなデータエンジニアリング、機械学習、データウェアハウス、ビジネスインテリジェンスを可能とするアーキテクチャです。データレイクハスのデータガバナンスは、以下のような主要な機能を提供します:
統合されたカタログ: 統合されたカタログは、それぞれのデータオブジェクトのメタデータに加えて、すべてのデータ、MLモデル、分析のアーティファクトを格納します。また、統合されたカタログは既存のHiveメタストアのような他のカタログのデータも組み合わせます。
統合されたデータアクセスコントロール: すべてのデータ資産、すべてのクラウドに対して単一かつ統合された権限モデル。これには、個人識別情報(PII)に対する属性ベースのアクセスコントロール(ABAC)も含まれます。
データ監査: 説明可能性を高めるために、アラートとモニタリング機能を用いて集中的にデータアクセスが監査されます。
データ品質管理: 後段のBI、分析、機械学習ワークロードで高精度かつ有用なデータが活用されるように、ビルトインの品質管理、テスト、モニタリング、強制を用いた堅牢なデータ品質管理。
データリネージ: ソースから利用に至るレイクハウスにおけるデータフローに対するエンドツーエンドの可視性を提供するデータリネージ。
データディスカバリー: データサイエンティスト、データアナリスト、データエンジニアが適切なデータをクイックに発見、参照し、価値創出に至る時間を短縮できるようにする簡単なデータ発見。
データ共有: クラウド、プラットフォーム横断でデータを共有。 | 優れたデータガバナンスソリューションとはどのようなものか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/6391933db00145c2940e | Databricksでは、Unity CatalogとDelta Sharingを用いて、データとIAに対する集中管理されたガバナンスを提供します。
Unity Catalogは、DatabricksレイクハウスにおけるデータとAIに対する高精細なガバナンスソリューションです。データアクセスを管理し、監査する集中管理の場所を提供すすることで、データに対するセキュリティとガバナンスをシンプルにする役に立ちます。
Delta Sharingは、使用している計算プラットフォームに関係なく、別の組織や組織内の別チームとセキュアにデータ共有するために、Databricksによって開発されたオープンプロトコルです。Unity CatalogとDelta Sharingを導入する際のベストプラクティスに関しては、Databricks Unity Catalogのベストプラクティスをご覧ください。
すべての優れたデータガバナンスの物語は、強力なアイデンティティ基盤からスタートします。Databricksにおけるアイデンティティ設定のベストプラクティスについては、Databricksにおけるアイデンティティ管理のベストプラクティスをご覧ください。 | Databricksで提供しているデータガバナンス機能を教えてください。 | closed_qa |
|
https://qiita.com/taka_yayoi/items/dcd0c6fe1223b9b7ce0d | Unity Catalogには3レベルの名前空間記述を採用しています。
Unity Catalogにおいて、テーブルやビューは親のカタログやスキーマに格納されます。2つの異なる記述スタイルでテーブルやビューを参照することができます。カタログやスキーマを指定するためにUSE CATALOG文とUSE文を使用することができます。
あるいは、3レベル名前空間記述を使うことができます。
3レベルの名前空間記述を用いることで、複数のカタログやスキーマのデータに対するクエリーをシンプルなものにします。
また、<catalog_name>をhive_metastoreに設定することで、Hiveメタストアのデータに対する3レベル名前空間記述を使用することができます。 | Unity Catalogにおけるデータのクエリー方法を教えてください。 | closed_qa |
|
https://qiita.com/taka_yayoi/items/b0878db170c864d5bcf9 | DatabricksワークスペースとGitリポジトリを同期できるDatabricks Repos(Repositoryの複数形を略してReposです)という機能があるのですが、このRepo(リポジトリ)配下にはノートブック以外にもPythonスクリプトやCSVファイルを格納することができます。これらのファイルをワークスペースファイル(Workspace File)と呼びます。リポジトリに格納されているノートブックからこれらのファイルを操作することができます。 | DatabricksのWorkspace Filesとは | closed_qa |
|
https://qiita.com/taka_yayoi/items/14c74e07f41d4e93ee45 | Databricks Reposに格納されている任意のファイルをプログラムで操作することができます。これによって、以下のようなタスクを行えるようになります。
ノートブックやコードと一緒に小規模なデータファイルを格納する。
Gitと同期されるディレクトリにログファイルを書き込む。
相対パスを用いてモジュールをインポートする。
環境設定ファイルを作成、修正する。
ノートブックから出力を書き込む。
Tensorboardのようなライブラリの実行結果を書き込む。 | プログラムでどうやってDatabricksワークスペースのファイルを操作するか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/0c4e80fbf00030b9c912 | クラウドコンピューティングにおいて、オブジェクトストレージやblobストレージはデータをオブジェクトとして保持するストレージコンテナのことを指し、それぞれのオブジェクトはデータ、メタデータ、グローバルにユニークな識別子(URI)から構成されます。オブジェクトストレージにおけるデータ操作のオペレーションは多くの場合、REST APIインタフェースを通じた作成、読み込み、更新、削除(CRUD)に限定されます。いくつかのオブジェクトストレージは、バージョン管理やライフサイクル管理のような機能を提供しています。オブジェクトストレージには以下のメリットがあります:
1. 高い可用性、堅牢性、信頼性。
2. 他の多くのストレージオプションと比較して低いストレージコスト。
3. 無限にスケール(クラウドの特定のリージョンで利用できるストレージの総量に制限されます)。
多くのクラウドベースのデータレイクは、クラウドオブジェクトストレージにおけるオー文ソースデータフォーマットを基盤として構築されます。 | オブジェクトストレージとは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/0c4e80fbf00030b9c912 | オブジェクトストレージは、Databricksのほとんどのオペレーションで使用される主要なストレージとなります。Databricksファイルシステム(DBFS)によって、Databricksユーザーは他のファイルシステムと同じように、オブジェクトストレージのオブジェクトのファイルを操作することができます。外部のデータシステムに対するテーブルを設定しない限り、Databricksで作成されるすべてのテーブルのデータはクラウドオブジェクトストレージに格納されます。
クラウドオブジェクトストレージに格納されるDelta Lakeのファイルは、Databricksレイクハウスのデータ基盤となります。 | Databricksではオブジェクトストレージをどのように使うのか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/0c4e80fbf00030b9c912 | Databricksでは、データファイルとテーブルを格納するためにクラウドオブジェクトストレージを活用します。ワークスペースをデプロイする際、DatabricksはDBFSルートと呼ばれるクラウドオブジェクトストレージロケーションを設定します。お使いのアカウントの他のクラウドオブジェクトストレージロケーションへの接続を設定することができます。
ほぼすべてのケースにおいて、DatabricksでApache Sparkを用いて操作するデータファイルはクラウドオブジェクトストレージに格納されます。 | Databricksではどのようにクラウドオブジェクトストレージを設定するのか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/0c4e80fbf00030b9c912 | クラウドコンピューティングにおいて、ブロックストレージやディスクストレージは、単に「ハードドライブ」とも呼ばれる従来型のハードディスクドライブ(HDD)やソリッドステートドライブ(SSD)を指します。クラウドコンピューティング環境にブロックストレージをデプロイする際、通常は1つ以上の物理ドライブの論理的なパーティションがデプロイさmれます。製品やクラウドベンダーによって実装が若干異なりますが、多くの場合、以下のような特性が共通しています。
すべての仮想マシン(VM)はアタッチされたブロックストレージボリュームを必要とします。
ブロックストレージボリュームが永続化されている限り、ブロックストレージボリュームにインストールされたファイルやプログラムは永続化されます。
ブロックストレージボリュームは多くの場合、一時的なデータストレージとして使用されます。
VMにアタッチされたブロックストレージボリュームは通常VMとともに削除されます。 | ブロックストレージとは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/0c4e80fbf00030b9c912 | 計算リソースを起動する際、DatabricksはVMをデプロイし、ブロックストレージボリュームをアタッチします。このブロックストレージは、計算資源の寿命における一時的データファイルの格納に用いられます。これらのファイルには、オペレーティングシステム、インストールされたライブラリ、ディスクキャッシュで用いられるデータが含まれます。Apache Sparkは効率的な並列処理やデータロードのためにバックグラウンドでブロックストレージを使用しますが、Databricksで実行されるコードのほとんどはブロックストレージに対して直接データの読み書きをしません。
お使いのドライバーノードにアタッチされたブロックストレージを使用するPythonやBashコマンドのような任意のコードを実行することができます。ドライバーのファイルシステムのファイルにアクセスするをご覧ください。
ワークスペースファイルが有効化されたワークスペースでは、Pythonユーザーはドライバーのブロックストレージを操作することなしに、ノートブックと一緒に格納されているファイルやデータを読み書きすることができますプログラムでDatabricksワークスペースのファイルを操作するをご覧ください。 | Databricksではブロックストレージをどのように使うのか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/0c4e80fbf00030b9c912 | ビューはメタストアにある1つい上のテーブルやビューから構成される読み取り専用オブジェクトです。Unity Catalogの3レベル名前空間の3層目に存在します。ビューは複数のスキーマ、カタログに存在するテーブルやビューから作成することができます。
ダイナミックビューは、行列のアクセス制御、データマスキングを提供するために使用されます。
ビュー作成構文のサンプルは以下のようになります。
'''CREATE VIEW main.default.experienced_employee
(id COMMENT 'Unique identification number', Name)
COMMENT 'View for experienced employees'
AS SELECT id, name
FROM all_employee
WHERE working_years > 5;''' | Unity Catalogでどのようにビューを作成するか? | closed_qa |
|
https://qiita.com/maroon-db/items/a4f6717f9a94765e36ec | Visual Studio Codeで開発したローカルコードをリモートワークスペースのコードと同期させることができます。
Visual Studio Codeで開発したローカルのPythonコードファイルを、リモートワークスペースのDatabricksクラスタ上で実行します。
Visual Studio Code からローカルの Python コードファイル (.py) および Python ノートブック (.py と .ipynb) を、リモートワークスペース内の自動化されたDatabricks ジョブとして実行します。 | Databricks extension for Visual Studio Codeでどんな事ができるのか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/041570f1cda0949e4466 | Feature Store(特徴量ストア)は、データサイエンティストが特徴量を格納、検索、共有できるようにする集中管理されたデータリポジトリです。Feature Storeは、モデルトレーニングと推論で特徴量を計算するために同じコードが使用されることを確実にします。これによって、モデル作成者がアクセスできる整理されたデータセットが生成され、彼らはトレーニングの際にも、モデルデプロイの際にも活用できることを知りながらそのデータセットを活用できるようになります。多くの企業は、Feature Storeを活用することで、実験やデプロイメントを劇的に加速したことを報告しています。例えば、AnheuserのDirector of Data EngineeringであるBusch InBevは「特徴量エンジニアリングやデータ変換の共通ソースを用いることで、我々のデータサイエンスの能力をクイックにスケールさせ、データエンジニアやアナリストたちを統合する際に、Feature Storeは大きな助けとなっています」と述べています。
Feature Storeを使い始めるのは簡単で、主キーとタイムスタンプを持つすべてのDeltaテーブルは簡単にFeature Storeで活用することができます。Databricks Feature Storeの詳細に関してはドキュメントをご覧ください。 | Feature Storeとは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/041570f1cda0949e4466 | はい、モデルの成果を改善するために、クイックかつ容易にFeature Storeのデータを活用するAutoMLの新機能が発表されました。AutoMLのユーザーはモデル品質を改善するために、シンプルにAutoMLデータセットとFeature Storeテーブルをjoinできるようになります。機械学習(ML)がより高速、より簡単になると、お客様は増加する様々なユースケースに対してこの変換技術を適用できるようになります。これによって、お客様はMLを用いて収益を増やし、コストを削減するさらに多くの手段を発見できるようになります。すでに我々は、多くのお客様が重要な問題を解決するためにAutoMLを活用しているのを目撃しています。いくつかのお客様は、自身の成果を加速するためにAutoMLを活用しつつも、自身のML専門性を拡張するためにAutoMLを活用しています。AutoMLはDatabricks Feature Storeと完全にインテグレーションされます。 | Databricks Feature StoreがAutoMLに組み込まれましたか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/041570f1cda0949e4466 | Databricks AutoML(AWS、Azure、GCP)は、すべてのレベルの技術専門家によるMLモデルを構築、トレーニングをサポートするために開発されました。AutoMLは高品質の候補モデルを提供するだけではなく、お客様にすべてのモデルコードをノートブックで提供しますので、お客様はモデルのパフォーマンスをさらにチューニングすることができます。
これまでは、トレーニングセットとしてテーブルを用いてモデルをトレーニングすることができました。今では、お客様は自身のFeature Storeのデータを用いて、AutoMLトレーニングデータを拡張することで、モデルの品質を改善することができます。これによって、さらに正確なモデルを簡単にトレーニングできるようになります。Feature Storeインテグレーションを用いたAutoMLモデルは自動で特徴量のリネージをキャプチャし、新規モデルをエンドツーエンドのリネージトラッキングに追加します。このリネージによって、開発を加速し、あなたのMLOpsとコンプライアンスの要件を満たすサポートを行うツールを提供します。 | AutoMLとDatabricks Feature StoreとのインテグレーションはどのようにMLの成果を加速するのか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/041570f1cda0949e4466 | AutoMLエクスペリメントページで、Databricksランタイム11.3 LTS ML以降を選択します。問題タイプ、データセット、予測ターゲットを選択した後、画面の左下にボタンが表示されます。このボタンを選択することで、お使いのデータセットとjoinする特徴量テーブルを選択し、joinに使用する検索キーを選択する画面が表示されます。joinしたいテーブルと検索キーが指定したら、シンプルにStart AutoMLボタンをクリックし、入力したデータと特徴量テーブルから追加されたデータの両方を用いてモデル生成がスタートされます。このサンプルでは、NYCイエロータクシー料金データを特徴量テーブルで拡張することで、モデルのフィットが21%改善されています(RMSEが3.991から3.142に減少)。AutoMLのUIにおけるこのインテグレーションだけではなく、AutoML APIでもプログラムから特徴量テーブルによるトレーニングデータの拡張がサポートされています。APIに関してはこちらを参照ください(AWS、Azure、GCP)。MLをより高速かつシンプルにすることに対する投資を継続しているので、お客様が自身のワークフローを改善している様子を見ることができて嬉しく思っていますし、チームの皆様が自身のML目標を達成するためのより多くの手段を発見することを楽しみにしています。 | Databricks Feature StoreをAutoMLでどう使いますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/7a9aad3d4c7560af9f11 | 外部ロケーションとはUnity Catalogでクラウドストレージにアクセスする際に使用するオブジェクトです。Databricksワークスペースとアクセス先のS3が同じAWSアカウントであればhttps://qiita.com/taka_yayoi/items/18fee92365eee58e0b94の手順でOKなのですが、クロスアカウントの際は以下の流れです。
1. S3があるAWSアカウントでS3にアクセスするためのIAMロールの信頼ポリシーにUnity Catalogの信頼関係を追加。
2. 上記S3にアクセスするためのIAMロールのARNをコピー。
3. Databricksワークスペースで上記ARNを用いてストレージ資格情報を作成。上記ストレージ資格情報を用いて外部ロケーションを作成。
という流れでした。すなわち、DatabricksがデプロイされているAWSアカウントではAWSの設定変更は不要ということです。 | Unity Catalogでどのようにクロスアカウントの外部ロケーションを作成するか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/f23b9ee50c453bb8f8a8 | マネージドテーブルは、Unity Catalogでテーブルを作成するデフォルトの手法となります。これらは、Deltaテーブルフォーマットを使用します。デフォルトでは、メタストアを作成する際に設定したルートストレージロケーションにマネージドテーブルは格納されます。しかし、カタログやスキーマレベルで別のストレージロケーションを指定することができます。マネージドテーブルのデータは、ロケーションが指定された階層構造の最下層のレベルに格納されます。例えば、スキーマのロケーションが指定されるとそれが使用されます。もし、スキーマロケーションが指定され無い場合、カタログのロケーションが使用され、カタログのロケーションが指定されない場合には、デフォルトメタストアのルートロケーションが使用されます。 | Unity Catalogでどのようにマネージドテーブルを作成するか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/f23b9ee50c453bb8f8a8 | 外部テーブルは、データがルートストレージロケーションの外に格納されるテーブルです。DatabricksクラスターやDatabricks SQLウェアハウスの外のデータに直接アクセスする必要がある場合にのみ外部テーブルを使用してください。外部テーブルにDROP TABLEを実行すると、Unity Catalogは背後のデータは削除しません。マネージドテーブルと同じように、外部テーブルの権限を管理し、クエリーでこれらを使用することができます。SQLで外部テーブルを作成するには、CREATE TABLE文でLOCATIONパスを指定します。外部テーブルでは、以下のファイルフォーマットを使用することができます: DELTA, CSV, JSON, AVRO, PARQUET, ORC, TEXT。外部テーブルの背後にあるクラウドストレージへのアクセスを管理するには、ストレージ資格情報と外部ロケーションをセットアップしなくてはなりません。 | Unity Catalogでどのように外部テーブルを作成するか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/e7f6982dfbee7fc84894 | マネージドテーブルは、Sparkがメタデータとデータの両方を管理するSpark SQLテーブルです。マネージドテーブルの場合、DatabricksはメタデータとデータをあなたのアカウントのDBFSに格納します。Spark SQLがテーブルを管理するので、DROP TABLE example_dataはメタデータとデータ両方を削除します。外部テーブルは、データがルートストレージロケーションの外に格納されるテーブルです。Spark SQLはメタデータを管理しますので、DROP TABLE example_dataを実行した際には、Sparkはメタデータのみを削除します。データ自身は削除しません。このため、あなたが指定した場所にデータは残り続けます。 | マネージドテーブルと外部テーブル (External Table)の違いは何ですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/e7f6982dfbee7fc84894 | グローバルテーブルは全てのクラスターからアクセスすることができます。DatabricksはグローバルテーブルをDatabricksのHiveメタストア、あるいは外部のHiveメタストア(英語)に登録します。Hiveサポートの詳細はApache Hive compatibility(英語)を参照ください。ローカルテーブルはHiveメタストアに登録されず、他のクラスターからはアクセスできません。これは一時ビューとも呼ばれます。 | グローバルテーブルとローカルテーブルの違いは何ですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/2506b127f0aec7fe7175 | Unity Catalogをセットアップすればいいのですが、もう一つの方法として「Unity Catalogを参照しに行かないクラスター」を作成するというものがあります。これは現時点ではレガシーとなりますが、上述のアクセスモードを設定しないクラスターを作成することになります。
1. コンピューティングを作成をクリックします。
2. 画面上のUIプレビューにマウスカーソルを移動します。トグルスイッチが表示されるので、これをオフにします。レガシーなクラスター作成画面に変更されます。
3. クラスターモードをシングルノードなどにして、クラスターを作成します。必要に応じて、インスタンスプロファイルやSpark設定を行い、S3やGlueにアクセスできるようにしておきます。
これでMETASTORE_DOES_NOT_EXISTエラーを解消できるはずです。 | DatabricksでMETASTORE_DOES_NOT_EXISTエラーが出る際はどうしたらいいですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/de0c3bcdde4ef41349bd | Abnormal Security、People.ai、YipitDataのように成功している数多くのスタートアップは、Databricksレイクハウスで製品を開発することで偉大な成功を収めています。自身のデータプラットフォームの意思決定をドライブしたいくつかの要因があります。
1. 妥協なしのデータ: お使いのすべてのデータ、分析、AI要件の実行.
2. 製品化のスピード: 皆様のチームがコアアプリケーションにフォーカスさせましょう.
3. 成長に備える: いかなる規模でもコスト効率の高いパフォーマンス.
4. オープンソースとマルチクラウドでインフラストラクチャの柔軟性を維持する. 皆様のスタートアップ製品をDatabricksレイクハウスで開発しましょう. | なぜスタートアップはDatabricksで開発するのか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/2c4c95029b879ae6ce37 | COPY INTOでサポートされているソースやファイルフォーマットからUnity Catalogのマネージドテーブル、外部テーブルにデータを取り込む際にCOPY INTOを使用することができます。3レベルの識別子(<catalog_name>.<database_name>.<table_name>)を用いてUnity Catalogのテーブルを指定することができます。現在のクエリーやノートブックにおけるデフォルトのカタログやデータベースを設定するために、USE CATALOG <catalog_name>やUSE <database_name>を使うことができます。既存のテーブルにCOPY INTOを行いたい場合には、テーブルを格納するカタログとデータベースに対するUSAGE権限と、当該テーブルに対するMODIFY権限が必要になります。一時資格情報が設定されたクラウドオブジェクトストレージロケーションを含む、あなたがアクセスできるソースロケーションからCOPY INTOを実行することができます。 | Unity Catalogでデータを読み込む際にどうやってCopy Intoを活用するか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/09348912a92a24441c40 | Databricksでは、数多くのデータロードとデータ取り込みの最適化を提供しています。また、DatabricksではSQLとデータフレームユーザーに対してクエリーフェデレーションをサポートしています。Databricksのクエリーフェデレーションとは?をご覧ください。これまでにDatabricksデータの読み書きを行ったことがないのであれば、PythonやScalaのデータフレームチュートリアルを試すことを検討ください。Apache Sparkに慣れ親しんでいるユーザーにとっても、このチュートリアルはクラウドにあるデータへのアクセスに関する新た課題に取り組むことができます。Partner Connectは数多くのエンタープライズソリューションに対して、最適化され設定が容易なインテグレーションを提供します。What is Databricks Partner Connect?をご覧ください。 | Databricksでどのように外部データを取り扱いますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/09348912a92a24441c40 | Databricksには、Apache Sparkによってネイティブにサポートされているすべてのデータフォーマットに対してビルトインのキーワードバインディングがあります。Apache SparkがParquetを使うのと同じように、Databricksはデータとテーブルの読み書きにおけるデフォルトのプロトコルとしてDelta Lakeを使います。以下のデータフォーマットのすべては、Apache SparkのデータフレームとSQLにおいてビルトインのキーワード設定を有しています:Delta Lake、Parquet、ORC、JSON、CSV、Avro、Text、Binary。また、DatabricksではMLflowエクスペリメントをロードするカスタムキーワードを提供しています。 | Databricksで使えるデータフォーマットは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/09348912a92a24441c40 | はい、処理できます。画像はbinaryデータとしてロードすることをお勧めします。 | Databricksで画像データを処理できますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/09348912a92a24441c40 | Databricksでは、データファイルとテーブルを格納するためにクラウドオブジェクトストレージを使用します。ワークスペースをデプロイメントする際、DatabricksはDBFSルートと呼ばれるクラウドオブジェクトストレージロケーションを設定します。アカウントの他のクラウドオブジェクトストレージロケーションとの接続を設定することもできます。ほぼ全てのケースにおいて、DatabricksでApache Sparkを用いて操作するデータファイルはクラウドオブジェクトストレージに格納されます。接続を設定する際のガイドとして、以下のドキュメントをご覧ください。 | Databricksで使用するクラウドストレージをどのように設定するのか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/09348912a92a24441c40 | 数多くのデータソースに接続するためにJDBCを使うことができます。Databricksランタイムには数多くのJDBCデータベースのドライバーが含まれていますが、お使いのデータベースに接続するためにはドライバーや別バージョンのドライバーをインストールする必要があるかもしれません。サポートされているデータベースには以下のものが含まれます: Query PostgreSQL with Databricks、Query MySQL with Databricks、Query MariaDB with Databricks、Query SQL Server with Databricks | JDBCでDatabricksに接続するデータソースは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/09348912a92a24441c40 | 以下のデータサービスでは、接続設定、セキュリティ資格情報、ネットワーク設定が必要となります。AWSアカウントやDatabricksにおける管理者、パワーユーザー権限が必要になるかもしれません。また、いくつかにおいてはDatabricksライブラリを作成し、クラスターにインストールする必要があります。Query Amazon Redshift with Databricks、Google BigQuery、MongoDB、Cassandra、Couchbase、ElasticSearch、Neo4j、Redis、Read and write data from Snowflake、Azure Cosmos DB、Query data in Azure Synapse Analytics | Databricksと連携できるデータサービスは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/282c9e652f9d0f8494b0 | データ追加UIを用いたデータのロードには複数の方法が存在ます。1. CSVファイルからDelta Lakeテーブルにロードするには、Upload dataを選択し、データアップロードUIにアクセスします。2. レガシーDBFSファイルアップロードを使うにはDBFSを選択します。3. 様々なデータソースへの接続を設定するためのサンプルノートブックを起動するためにその他のアイコンをクリックします。データソースの完全な一覧に関しては、Databricksにおける外部データの取り扱いをご覧ください。 | Databricksにどのようにデータを追加するのですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/e5bb37c3ffb107ad0381 | Auto Loaderは、追加のセットアップなしにクラウドストレージにデータファイルが新たに到着すると、インクリメンタルかつ効率的に処理を行います。Auto Loaderは、cloudFilesという構造かストリーミングソースを提供しています。 | Auto Loaderとは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/e5bb37c3ffb107ad0381 | Auto LoaderとDelta Live Tablesを用いることで、スケーラブル、インクリメンタルなデータ取り込みのインフラストラクチャのデプロイメントをシンプルにすることができます。Delta Live Tablesではノートブックのような標準的なインタラクティブな処理の実行ではなく、プロダクションに使えるインフラストラクチャのデプロイメントにフォーカスしています。 | ETLの自動化をどうすれば良いですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/e5bb37c3ffb107ad0381 | 以下にAuto LoaderとCOPY INTOを選択する際に検討すべきいくつかの事柄を示します: 数千規模のファイルを取り込もうとしているのであればCOPY INTOを使うことができます。一定期間で数百万以上のファイルを予想しているのであれば、Auto Loaderを使ってください。Auto Loaderは、COPY INTOと比較してファイルを検知するオペレーションの総数が少なくて済み、処理を複数のバッチに分割することができ、Auto Loaderは低コストで規模に対して効率的であることを意味します。データスキーマが頻繁に進化するのであれば、Auto Loaderはスキーマ推定、進化に関するより良いプリミティブを提供しています。Auto Loaderにおけるスキーマ推定とスキーマ進化の設定をご覧ください。再度アップロードされたファイルのサブセットのロードにおいては、COPY INTOの方が管理が若干簡単です。Auto Loaderを用いる場合、ファイルのサブセットのSELECTを再処理することがより困難となります。しかし、Auto Loaderストリームを同時に実行しながらも、ファイルのサブセットを再ロードするためにCOPY INTOを使うことができます。 | いつCOPY INTOを使い、いつAuto Loaderを使うのか | closed_qa |
|
https://qiita.com/taka_yayoi/items/b9b7f24ff1848de63b5f | アプリケーションのモニタリングは以下の点に応じて異なるレベルで実行されることになります: 1. お使いのアプリケーションで収集されるメトリクス(バッチの処理時間/レーテンシー/スループットなど), 2. どこからアプリケーションをモニタリングしたいのか。最もシンプルなレベルでは、様々なシチュエーションで活用できるSpark UIに直接ビルトインされているストリーミングダッシュボード(新しい構造化ストリーミングUI)があります。ストリーミングワークロードを実行するジョブの失敗時にアラートを発生させることもできます。より詳細なメトリクスが必要、あるいは、お使いのコードベースの一部としてこれらのメトリクスに基づくカスタムアクションを作成したい場合には、StreamingQueryListenerがあなたが探しているものに適しています。(ドライバーやワーカーのマシンレベルのトレースを含む)Sparkのメトリクスをレポートさせたいのであれば、プラットフォームのメトリクスシンクを使うべきです。検討すべきもう一つの事柄は、観測のためにこれらのメトリクスをどこに表示させたいのかということです。クラスターレベルでのGangliaダッシュボード、ストリーミングワークロードのモニタリングのためのDatadogのようなパートナーアプリケーションのインテグレーション、PrometheusやGrafanaのようなツールを用いたよりオープンソースなオプションがあります。それぞれには、コスト、パフォーマンス、メンテナンス要件に関する利点、欠点があります。UIによるインタラクションで十分な低ボリュームのストリーミングワークロードを使用していようが、より堅牢なモニタリングプラットフォームに投資することを決断しようが、皆様のプロダクションストリーミングワークロードの観測方法を理解する必要があります。このシリーズで今後ポストされる「モニタリングとアラート」では、より詳細な議論が含まれることになります。特に、ストリーミングアプリケーションをモニタリングするための様々な計測方法や観測性を活用するためのいくつかのツールを詳細に見ていきます。 | 私のアプリケーションはどのように稼働している? | closed_qa |
|
https://qiita.com/taka_yayoi/items/b9b7f24ff1848de63b5f | 開発者として、我々は作業中のコードと適切に記述されたコードの違いを理解しています(あるいはすぐに学びます)。コードの実行形態を改善することは非常に楽しいものですが、最終的に問題になるのは全体的な実行コストです。構造化ストリーミングアプリケーションにおけるコストの検討は、他のSparkアプリケーションと概ね同じようなものとなります。特筆すべき違いは、これらのワークロードは多くの場合「常時稼働」のアプリケーションなので、プロダクションワークロードの最適化に失敗すると、非常に高コストになり、無駄な出費がすぐに累積していくという点です。コスト最適化の支援は頻繁にリクエストされるので、これに関する別の記事をポストする予定です。フォーカスするキーポイントは使用の効率性とサイジングです。クラスターサイズを適切に設定することは、ストリーミングアプリケーションにおいて効率性と無駄の違いを生み出す最も重要な違いとなります。時にはプロダクションにおけるアプリケーションの完全な負荷条件をデプロイする前に推定することが困難であるため、これは特にトリッキーになります。別のケースでは、日、週、月を通じて取り扱われるボリュームの変動性によって困難となる場合があります。最初にデプロイする際は、パフォーマンスのボトルネックを避けるために追加の費用を投じて若干サイズを大きめにすることをお勧めします。適切なクラスター使用率を確認するために数週間クラスターが稼働した後に、お使いのモニタリングを活用してください。例えば、負荷のピークの際にCPUやメモリーの使用率は高いレベルにあるのか、あるいは、定常的に負荷が低くてクラスターのサイズを引き下げて良いのか?これに対する定期的なモニタリングを継続し、データボリュームの時系列変化を注視します。いずれかが発生している場合、コスト効率の高いオペレーションを維持するためにクラスターのサイズ変更が必要になるかもしれません。一般的なガイドラインとして、過度なシャッフルオペレーションやjoin、極端なウォーターマークの閾値(ご自身の要件を超えないでください)はアプリケーションを実行するために必要なリソースを増加させるので、これらを避けるべきです。大きなウォーターマークの閾値は、構造化ストリーミングにバッチ間の状態ストアに多くのデータを保持させることになり、クラスターのメモリー要件を引き上げることになります。また、設定するVMのタイプにも注意してください - メモリーを大量に必要とするストリームにメモリー最適化VMを使っていますか?計算が膨大に発生するストリームに計算最適化VMを使っていますか?そうで無い場合には、それぞれの使用率を確認し、より適したマシンタイプを試すことを検討してください。クラウドプロバイダーから提供される新たなサーバーファミリーでは、より最適化されたCPUが搭載されており、多くの場合において処理実行の高速化につながり、これはSLAを達成するために少ない台数で済むことを意味します。 | 自分のアプリケーションはリソースを効果的に活用しているのか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/b9b7f24ff1848de63b5f | コスト最適化と同じように、Sparkにおけるストリーミングアプリケーションのトラブルシュートは内部の機構はほとんど変わらないので、他のSparkアプリケーションと多く変わりません。ストリーミングアプリケーションにおいては、問題は通常、障害シナリオとレーテンシーシナリオという2つのカテゴリーに属することになります。 | デプロイメント後発生する問題にどのように対応すべきか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/8971b085f9b3b75c0939 | 理由が3つあります。1. 複雑な変換処理による柔軟性を提供します。ネイティブSQLはユーザーに対して、特定の変換に対して理想的なツールを選択する柔軟性を提供します。DAXは表現豊富でパワフルですが、より複雑なSQLクエリーやミサポートのオペレーションに対しては、ネイティブなSQLクエリーによってよりシンプルなワークフローを実現することができます。また、これはカスタムカラム定義を折りたたんだり、プッシュダウンでいないケースにおいては、単にネイティブSQLを構築することで大きなメリットを得ることができます。2. Databricks SQLの計算資源のさらなる活用が可能になります。3. 他のPower Queryソースからの移行をシンプルにできます。Power BIで他のデータソースとカスタム/ネイティブSQLを使用しているお客様においては、Databricks SQLへの移行は面倒なものでした。これまでのソリューションは、これをDatabricksのビューやDAXのロジックにマッピングしようとしていました。今では、これはDatabricks Power BIコネクターで適切なネイティブSQLを指定するだけで済むシンプルなものとなっています。 | なぜネイティブSQL? | closed_qa |
|
https://qiita.com/taka_yayoi/items/2a92fb8ad068ea22db79 | 以下の流れでクイックに集計ができます。1. アカウントコンソールにログインし、ログデータのダウンロードを行う。2. CSVデータの集計。使用量ログのデリバリーを設定し、集計処理をジョブ化するなどして全てを自動化することもできます | Databricksの課金データをどのようにクイックに集計するか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/0fa40bac6ba306473dc1 | Japan Enduser Group | Databricks Innovationの略であり、データブリックス・ジャパン株式会社が運営するユーザーコミュニティのコミュニティです。 | JEDAIとは? | closed_qa |
|
https://qiita.com/maroon-db/items/ddb433882150824d31f6 | 1. SKU/Workspace/タグ ベースで表示ができる 2.フィルタリングも可能, 3.表示期間を指定出来る 4. 結果をCSVにダウンロード出来る 5. DBUもしくは $USD で表示できる | Databricks Account Consoleで何が出来るか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/3d41a022c0d81b78afaf | Z-orderingは、関連する情報を同じファイルセットに配置するテクニックです。この局所性は、自動でDatabricksのDelta Lakeによるデータスキッピングアルゴリズムによって使用されます。この挙動によって、DatabricksのDelta Lakeの読み込むデータ量を劇的に削減します。データをZ-orderするには、ZORDER BY句で並び替えるカラムを指定します。あるカラムが頻繁にクエリー条件に指定され、そのカラムが高いカーディナリティを持っている(すなわち、大量の固有値を持つ)のであればZORDER BYを使いましょう。カンマ区切りで複数のカラムをZORDER BYに指定することができます。しかし、カラムを追加するごとに局所性の効果は失われます。統計情報が収集されていないカラムに対するZ-orderingは効果がなく、リソースの無駄となります。これは、データスキッピングでは、min、max、countのようなカラムローカルの統計情報が必要となるためです。スキーマでカラムを再度並び替える、あるいは統計情報を収集するカラムの数を増やすことで、特定のカラムに対して統計情報を収集するように設定することができます。 | Z-orderingとは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/3d41a022c0d81b78afaf | Z-orderingの注意事項に2点あります。1. Z-orderingは冪等性がありませんが、インクリメントなオペレーションで使用することができます。複数回実行してもZ-orderingに要する時間が削減することは保証されません。しかし、Z-orderされたばかりのパーティションに新規データが追加されない場合、そのパーティションを再度Z-orderingしても効果はありません。2. Z-orderingはタプルの数が均等にバランスされたデータファイルを生成しようとしますが、ディスク上のデータサイズが均等になるとは限りません。これら2つの指標は多くの場合相関しますが、そうではない場合もあり最適化タスクの処理時間に偏りが生じることがあります。例えば、ZORDER BY dateを行い、最新のレコードがすべて前回のZORDERのものよりも幅が広い(長い配列や文字列など)場合、OPTIMIZEジョブのタスク時間や結果ファイルのサイズに偏りが生じることになります。しかし、これはOPTIMIZEコマンド自身のみの問題です。以降のクエリーにネガティブなインパクトを起こすことはありません。 | Z-orderingの注意事項は何か? | closed_qa |
|
https://qiita.com/shotkotani/items/d76d216a4c610003d99f | 1. Scalable Machine Learning with Apache Spark Japaneseのノートブック(日本語)を読み込むことをやりました. Scalable Machine Learning with Apache Spark Japaneseには解説のスライドが付属しています。スライドではデータサイエンスの基礎から解説されているので、初学者でも学び始めることができます。2. ML in production JapaneseのDatabricksにおける機械学習モデルの運用に焦点を当てて解説されているNotebookで練習しました。実験管理やモデル管理はScalable Machine Learning with Apache Spark Japaneseとオーバーラップする内容が多いです。新しい内容としてはRESTエンドポイントへのデプロイ、テスト自動化、モニタリングなどが解説されています。 | Databricks Certified Machine Learning Professionalの対策は? | closed_qa |
|
https://qiita.com/taka_yayoi/items/2fec7eadee14085bf53e | Databricksでは、ノートブック間でコードを共有するための方法をいくつかサポートしています。それぞれの方法においては、コードのモジュール化を実現し、ライブラリのようにノートブックでコードを共有することができます。また、Databricksでは依存関係を持つパイプラインや戻り値に基づくif-then-elseワークフローのような複雑なワークフローにノートブックを組み込むこともできます。方法1:ノートブックをインポートするために%runを使う。方法2:ソースコードファイルを参照するためにDatabricks Reposを使用する。 | ノートブック間でどのようにコードを共有するか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/ef3b05c29104b12a16a6 | 1. 多くのユニットテストのライブラリはノートブック内で直接動作します。例えば、ノートブックのコードをテストするためにビルトインのPythonの`unittest`パッケージを使用することができます。セルの出力エリアにテスト失敗が表示されます。単一のノートブックにおいてテスト用の呼び出しなのか、通常の呼び出しなのかを区別するためにウィジェットを使うことができます。2. ノートブックからテストコードを分離する。%runを使った例です。 | ノートブックのテストの方法を教えてください。 | closed_qa |
|
https://qiita.com/taka_yayoi/items/82f8fdc147ada0f0bced | DatabricksジョブのUIで失敗したタスクを特定するには: 1. サイドバーのワークフローをクリックします。2. 名前の列でジョブ名をクリックします。ジョブの実行タブにはアクティブなジョブ実行、失敗したものを含む完了したジョブ実行が表示されます。3. マトリックススビューに切り替えるには、マトリックスをクリックします。魔トリックビューには、それzれおのジョブタスクの成功、失敗を含むジョブの実行履歴が表示されます。マトリックスビューを用いることで、ジョブ実行で失敗したタスクをクイックに特定することができます。4. 関連メタデータを確認するために失敗したタスクの上にマウスカーソルを移動します。メタデータには、開始日、終了日、期間、クラスター詳細、エラーメッセージが含まれています。5. 失敗の原因の特定を行うために、失敗したタスクをクリックします。タスク実行の詳細ページが開き、タスクの出力、エラーメッセージ、メタデータが表示されます。 | DatabricksジョブのUIでどのように失敗したタスクを特定するか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/82f8fdc147ada0f0bced | いいえ。Databricksジョブのリペア、リラン機能によって、失敗したタスクやスキップされたすべての後段のタスクを再実行することができます。 | ジョブが失敗したら最初から再実行しなければなりませんか? | closed_qa |
|
https://qiita.com/ktmrmshk/items/5b2593088c90db9df3eb | マネージドテーブル は、ユーザーがテーブル名だけを使ってデータ(Sparkデータフレーム)を永続化する方法で、データの保存先(ストレージとパス)はSparkシステム側で自動的にアサインされます。つまり、ユーザーは保存先などストレージ側を意識する必要がありません。データを削除する場合も、DROP TABLE文を実行するだけで済み、テーブルのメタデータの削除と、データ実体の削除が同時に実行されます。データの保存先が自動管理されるので 「マネージド」テーブル と呼びます。一方、アンマネージドテーブルは、ユーザーがデータの保存先パスを指定して永続化し、後からテーブル名とデータ保存先をリンクします。この場合、データの削除には、DROP TABLE文でのテーブル(のメタデータ)削除に加えて、データ保存先のデータ実体を削除する必要があります。つまり、ユーザーはテーブル(メタデータ)とデータ実体の保存先の両方を意識する必要があり、よって、「アンマネージド」テーブルと呼ばれています。この方法だと、Sparkシステム管理のストレージ外上に置かれているデータに対してもテーブル名とリンクができるため、この意味で、アンマネージドテーブルは「外部テーブル(External Table)」 とも呼ばれます。 | マネージドテーブルとアンマネージドテーブルと外部テーブルがどう違うか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d7e82f5a05a362540ba7 | ユーザー定義関数(user-defined-function:UDF)はユーザーによって定義される関数であり、ユーザー環境でカスタムロジックを再利用できるようになります。拡張可能なロジックを分散処理できるようにするために、Databricksでは様々な種類のUDFをサポートしています。 | Databricksにおけるユーザー定義関数(UDF)とは何か? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d7e82f5a05a362540ba7 | 厳密にはすべてのカスタム関数がUDFという訳ではありません。SQLやSparkデータフレームを用いて一連のSparkビルトインメソッドを安全に定義することができ、完全に最適された挙動をさせることができます。例えば、以下のSQL、Python関数は再利用可能な関数として単位変換を定義するためにSparkのビルトインメソッドを組み合わせています。 | カスタムロジックはどのような場合にUDFではないのか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d7e82f5a05a362540ba7 | UDFはコード実行において多大なる処理ボトルネックを持ち込む場合があります。Databricksでは、Apache Spark、SQL、Delta Lakeの構文を用いて記述されたコードに対して自動で様々なオプティマイザを適用します。UDFによってカスタムロジックが導入されると、これらのオプティマイザはこのカスタムロジックに対してタスクを効率的に計画する能力を発揮することができません。さらに、JVM外で実行されるロジックにおいては、データのシリアライズにおける追加のコストが発生します。いくつかのUDFは他のものより効率的です。パフォーマンスの観点では: 1. Databricksのオプティマイザのおかげでビルトイン関数が最も高速です。2. JVMで実行されるコード(Scala、Java、Hive UDF)はPythonのUDFよりも高速です。3. Pandas UDFはPython UDFに関連づけられるシリアライズ残すとを削減するためにArrowを活用します。4. 通常はPython UDFは避けるべきですが、パフォーマンス劣化なしに、コードを結びつけるためにPythonを活用することができます。 | どのUDFが最も効率的なのか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d7e82f5a05a362540ba7 | UDFの主要なメリットは、慣れ親しんだ言語でロジックを表現し、コードのリファクタリングに伴う人間のコストを削減できるというものです。アドホックなクエリー、主導のデータクレンジング、探索的データ分析、小中規模のデータセットに対する大部分のオペレーションにおいては、UDFによるレーテンシーのオーバーヘッドがコードのリファクタリングに関連するコストを上回ることはほとんどありません。ETLジョブ、ストリーミングオペレーション、超大規模なデータセットに対するオペレーション、その他の定常的、連続的に実行されるワークロードにおいては、ネイティブなApache Sparkのメソッドを用いるためにロジックをリファクタリングするコストはすぐに取り戻すことができます。 | いつUDFを使うべきか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/9d68dd5a3b070774d9a2 | コンピューティングにおいて、データベースは、電子的に保存され、アクセスできる組織化されたデータの集合である。この定義に沿って考えれば、答えはYESです。しかし、OracleやSQL Server、MySQL、Snowflakeのようなデータベース管理システム(DBMS)がインストールされているのか?と聞かれると答えはNOとなります。これらのDBMSやデータウェアハウスとDatabricksにおけるデータベースは実装が異なります。 | Databricksにデータベースはあるのか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/9d68dd5a3b070774d9a2 | まず、データ管理プラットフォームとしてデータウェアハウス(個人的にはデータベースと同義だと思っています)が1990年台に台頭し、多くの企業で導入されました。ビジネス上の意思決定を行うためにデータを蓄積し、BIなどを通じて意思決定にデータが活用されるようになりました。データウェアハウスの特徴をざっくり列挙します。1. 行と列で構成される構造化データを蓄積, 2. SQLによる問い合わせ、加工が可能 3. (比較的)大量のデータを管理可能。これらの特徴は現在においても多くの企業のデータ活用に役立っており、ある意味成熟したテクノロジーと言えます。しかし、ここ数年、このデータウェアハウスでは応えられない要件が出現しています。そう、機械学習やAIの活用です。データレイクの台頭。BIやSQLを用いた分析など、過去の構造化データを蓄積し、活用するというシーンにおいてはデータウェアハウスは非常に有用です。一方、機械学習モデルをトレーニングし、将来の予測に活用する、画像やテキストを分析するという要件にデータウェアハウスは応えることができませんでした。そのため、機械学習・AIのニーズに応えることのできる新たなデータ管理プラットフォームが求められました。これによって、2010年頃にデータレイク誕生しました。データレイクの特徴をざっくり列挙します。1. クラウドサービスのオブジェクトストレージにデータを格納, 2. 構造化データ、非構造化データに対応 3. 理論上、容量は無制限 4. 機械学習のワークロードとの親和性が高い。これによって、データレイクを活用し始めた人々は機械学習・AIによる明るい未来を夢想しました。しかし、世の中はそんなに甘くありません。上述の特徴は確かに機械学習の取り組みにおいては非常に有用なものでありましたが、企業の取り組みにおける重要な観点が欠落していました。パフォーマンスとガバナンスです。オブジェクトストレージに無尽蔵にデータを格納できたとしても、検索・更新に非常に時間を要してしまい、さらには、管理がなされないためゴミだらけでのデータレイクになってしまうということが頻発しました。結果として、データレイク(湖)ならぬデータスワンプ(沼)とまで揶揄されるようになってしまいました。レイクハウスの誕生。今の機械学習・AIのニーズに応えきれないから(データ)レイクハウスが開発されたということです。レイクハウスではデータはオープンなフォーマットでクラウドストレージに格納します。これによって、ベンダーロックインの回避、無限のストレージ、機械学習ワークロードとの親和性といったことを実現します。さらに、データウェアハウスで培われたパフォーマンスやガバナンスをも実現しているのです。 | なぜDatabricksにおけるデータベースの実装が他のデータベース管理システムやデータウェアハウスと異なるのでしょうか。 | closed_qa |
|
https://qiita.com/taka_yayoi/items/9d68dd5a3b070774d9a2 | まず、データ管理プラットフォームとしてデータウェアハウス(個人的にはデータベースと同義だと思っています)が1990年台に台頭し、多くの企業で導入されました。ビジネス上の意思決定を行うためにデータを蓄積し、BIなどを通じて意思決定にデータが活用されるようになりました。データウェアハウスの特徴をざっくり列挙します。1. 行と列で構成される構造化データを蓄積, 2. SQLによる問い合わせ、加工が可能 3. (比較的)大量のデータを管理可能。これらの特徴は現在においても多くの企業のデータ活用に役立っており、ある意味成熟したテクノロジーと言えます。しかし、ここ数年、このデータウェアハウスでは応えられない要件が出現しています。そう、機械学習やAIの活用です。データレイクの台頭。BIやSQLを用いた分析など、過去の構造化データを蓄積し、活用するというシーンにおいてはデータウェアハウスは非常に有用です。一方、機械学習モデルをトレーニングし、将来の予測に活用する、画像やテキストを分析するという要件にデータウェアハウスは応えることができませんでした。そのため、機械学習・AIのニーズに応えることのできる新たなデータ管理プラットフォームが求められました。これによって、2010年頃にデータレイク誕生しました。データレイクの特徴をざっくり列挙します。1. クラウドサービスのオブジェクトストレージにデータを格納, 2. 構造化データ、非構造化データに対応 3. 理論上、容量は無制限 4. 機械学習のワークロードとの親和性が高い。これによって、データレイクを活用し始めた人々は機械学習・AIによる明るい未来を夢想しました。しかし、世の中はそんなに甘くありません。上述の特徴は確かに機械学習の取り組みにおいては非常に有用なものでありましたが、企業の取り組みにおける重要な観点が欠落していました。パフォーマンスとガバナンスです。オブジェクトストレージに無尽蔵にデータを格納できたとしても、検索・更新に非常に時間を要してしまい、さらには、管理がなされないためゴミだらけでのデータレイクになってしまうということが頻発しました。結果として、データレイク(湖)ならぬデータスワンプ(沼)とまで揶揄されるようになってしまいました。レイクハウスの誕生。今の機械学習・AIのニーズに応えきれないから(データ)レイクハウスが開発されたということです。レイクハウスではデータはオープンなフォーマットでクラウドストレージに格納します。これによって、ベンダーロックインの回避、無限のストレージ、機械学習ワークロードとの親和性といったことを実現します。さらに、データウェアハウスで培われたパフォーマンスやガバナンスをも実現しているのです。 | DBMSやデータウェアハウスとDatabricksにおけるデータベースの違いは何か? | closed_qa |
|
https://qiita.com/taka_yayoi/items/df99ace34b8e2b8c13f5 | まずはExcelアドインのインストールが必要です。そして、Delta Sharingの設定を行います。Excelアドオンで操作します。 | ExcelからどうやってDelta Sharing経由でデータにアクセスするか? | closed_qa |
|
SparkでExcelファイルを扱うためにspark-excelライブラリを利用します。ExcelファイルをSparkデータフレームとして読み込んだり、また逆に出力したり、さらには既存のExcelファイルの特定の部分にSparkデータフレームのデータを上書きして保存するということもできます。Spark自体がビッグデータを扱うものなので、可視化という意味ではBIツールを使うことがほとんどで、Excelを使うことは多くはないと思いますが、どうしても使わなければいけない場合はこのライブラリを使うことで簡単に実現できます。 | SparkでどのようにExcelファイルを扱うか? | closed_qa |
||
https://qiita.com/motokazu_ishikawa/items/f7b9540427d9287760fe | データフレームを以下のようにして、save()で指定したファイルパスにExcelファイルを出力します。format()で com.crealytics.spark.excelを指定します。( df_output.write.format( 'com.crealytics.spark.excel' ).option( 'header', 'true' ).mode( 'overwrite' ).save( xlsx_file_path ) ) | SparkデータフレームをどうやってExcelファイルとして出力するか? | closed_qa |
|
https://qiita.com/motokazu_ishikawa/items/f7b9540427d9287760fe | spark.read.format()でcom.crealytics.spark.excelを指定してデータフレームに読み込みます。 | ExcelファイルをどのようにSparkデータフレームとして読み込むか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/1b310ed88fef115de939 | Bamboolibは、皆さんが知っていて大好きな標準的Pythonデータサイエンスライブラリであるpandasの機能に対してグラフィカルユーザーインタフェースを提供するローコードツールです。Bamboolibを用いることで、コード自身を記述することなしに簡単にコードファーストのデータサイエンスのすべてのパワーを手に入れることができます。これは、以下のことが可能になることを意味します: 1. データベースのテーブルやCSVファイルにアクセスしてデータをロードし、2. 生データから調査に適したクリーンかつ整理されたデータに加工、変換し、3. 皆様のビジネスに多大なインパクトをもたらすキーとなる洞察を明らかにするためにデータを探索、可視化、分析することができます。
Bamboolibはローコード分析にガラスボックスアプローチを用いることでこれを実現しています: これらの分析オペレーションに対するpandasコードを生成し、UIを用いて実施したすべての分析結果を再現できるようにしています。そして、活用したいテクニックがネイティブでBamboolibで利用できない場合には、Bamboolibのプラグインフレームワークを用いることで容易に機能を拡張することができます。 | Bamboolibとは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/1b310ed88fef115de939 | Bamboolibはすべてのバックグラウンドを持つDatabricksユーザーに対して、コードファーストのデータサイエンスで利用できるすべてのディープな機能と柔軟性へのゲートウェイを提供します。実践者は以下のことをこなえるようになります。1. 生産性が向上します: 通常の定型文を記述することなしにpandasデータフレームを準備、分析、可視化できるので、手元の作業にフォーカスできます。2. すぐにpandasに慣れることができます: Excel、MATLAB、SASのような他のツールをよく使っていた場合には、何をしたいのかを知っていたとしても、pandasやPythonでそれをどのように行うのかがわからないかと思います。Bamboolibは、行いたいオペレーションの自然言語の記述をPythonコードに変換することを助けてくれます。3. 分析とコードの結果に自信を持てるようになります: 作業の過程でBamboolibが生成するコードを容易に確認、評価、エクスポートできるので、行っているすべての作業が自分自身、あるいは分析結果を共有する同僚によって再現が可能です。 | Bamboolibは何ですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/1b310ed88fef115de939 | Bamboolibのメリットは、自分達の実践者のスキルセットを拡大し、彼らのインパクトを向上させたいと考えているデータ分析のリーダーや組織にも適用されます。1. オンボーディングをシンプルにしセルフサービス分析を実現します: シチズンデータサイエンティスト、ドメイン専門家、その他の従業員が、最小限の技術的オーバーヘッドでDatabricksノートブックでインパクトがあり再現可能な結果を達成することを可能にします。2. 学習とスキル開発の機会を提供します: BamboolibはPythonのデータサイエンスの世界のシンプルなエントリーポイントとなります。ガラスボックスアプローチによって、ユーザーは分析を実現するコードにアクセスでき、このコードを用いることで彼らはpandasライブラリとモダンなデータサイエンスのコアな手法を学ぶことができます。 | Bamboolibのメリットは何か? | closed_qa |
|
https://qiita.com/taka_yayoi/items/9f13a2b97ebd11cfd04f | DatabricksクラスターとSQLウェアハウスの違いをクイックにまとめます。SQLウェアハウスは、クエリー、ダッシュボード、ビジュアライゼーションのようなDatabricks SQLのワークロードの実行に使用されます。お使いのワークスペースがUnity Catalogのメタストアにアタッチされているのであれば、SQLウェアハウスを用いることで、デフォルトでUnity Catalogのデータにアクセスでき、Unity Catalog固有のコマンドを実行することができます。クラスターは、Data Science & EngineeringやDatabricks Machine Learningのペルソナベースの環境におけるワークロードの実行に使用されます。Unity Catalogにアクセスできるクラスターを作成するためには、クラスターを作成するワークスペースがUnity Catalogメタストアにアタッチされ、Unity Catalogを使用できるアクセスモード(共有あるいはシングルユーザー)を使用しなくてはなりません。利用している環境に応じて、これらの計算資源を用いてUnity Catalogのデータを操作することができます: Databricks SQLではSQLウェアハウス、Data Science & EngineeringやDatabricks Machine Learning環境ではクラスターとなります。さらに、1. SQLウェアハウス(エンドポイント)はSQLコマンドを実行するために開発されており、Scala/R/PythonやSQLコマンドを実行するために開発されています。2. SQLウェアハウス(エンドポイント)ではJAR、PIP、WHLのようなライブラリのオーバヘッドがなく、クラスターではライブラリによるオーバヘッドが生じることがあります。3. SQLウェアハウス(エンドポイント)はSQLウェアハウスの管理を簡素化しており、起動時間を加速します。クラスターの設定は初めての方にとっては複雑なものになる場合があります。4. SQLウェアハウス(エンドポイント)はクラスターとしてスケールアップ/スケールダウンします。クラスターはノードごとにスケーリングし、最大範囲までスケールアップします。5. SQLウェアハウス(エンドポイント)には、起動時間を劇的に削減するサーバレスの機能(プライベートプレビュー)がありますが、クラスターではその機能はまだありません。ただし、SQLウェアハウス(エンドポイント)とクラスターの両方はTableauのようなBIツールからの接続に使用でき、自動起動の機能を有しています。 | DatabricksのクラスターとSQLウェアハウスの違いは何ですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/9f13a2b97ebd11cfd04f | Databricksでクラスターを作成する際、クラスターを使用しようとしているワークロードのタイプ固有のアクセスモードを選択しなくてはなりません。Unity Catalogは特定のクラスターアクセスモードを用いたセキュリティを強制します。クラスターがUnity Catalogを使用できるアクセスモード(共有あるいはシングルユーザー)のいずれかを設定されていない場合、クラスターはUnity Catalogのデータにアクセスすることはできません。クラスターアクセスモードをシングルユーザーや共有に設定することで、Unity Catalogの要件を満たすように既存クラスターをアップグレードすることができます。 | クラスターアクセスモードとは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/e386507be44aa3abd27e | Databricksのアイデンティティには3つのタイプが存在します。1. ユーザー: Databricksによって識別されるユーザーアイデンティティでありメールアドレスで表現されます。2. サービスプリンシパル: ジョブ、自動化ツール、そして、スクリプト、アプリ、CI/CDプラットフォームのようなシステムで使用するアイデンティティです。3. グループ: ワークスペース、データ、そのほかのセキュリティ保護可能オブジェクトへのグループのアクセスを管理するために、管理者によって使用されるアイデンティティのコレクションです。 | Databricksでサポートしているアイデンティティは何ですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/e386507be44aa3abd27e | Databricksで定義されるロールが5つ存在します。1. アカウント管理者は、ワークスペース、Unity Catalogメタストアの作成、課金、クラウドリソースを含むDatabricksのアカウントレベルの設定を管理することができます。アカウント管理者はアカウントにユーザーを追加し、管理者ロールを割り当てることができます。また、ワークスペースでアイデンティティフェデレーションを使用している場合、ユーザーにワークスペースへのアクセス権を与えることができます。2. ワークスペース管理者は、Databricksワークスペースにユーザーを追加し、ワークスペース管理者ロールや、クラスターの作成や特定のペルソナベースの環境へのアクセス権などの能力を割り当てることができます。3. メタストア管理者は誰がカタログを作成でき、テーブルをクエリーできるのかと言ったUnity Catalogメタストアの全てのセキュリティ保護可能オブジェクトの権限を管理することができます。4. アカウントユーザーはワークスペースを参照し、ワークスペースに接続するためにアカウントコンソールを使用することができます。アカウント管理者とワークスペース管理者はアカウントにユーザーを追加することができます。5. ワークスペースユーザーはワークスペースでデータサイエンス、データエンジニアリング、データ分析タスクを実行します。アカウント管理者とワークスペース管理者は、ワークスペースでアイデンティティフェデレーションを使用している場合、アカウントユーザーにワークスペースへのアクセス権を与えることができます。 | Databricksで定義されるロールは何ですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/e386507be44aa3abd27e | Databricksでアイデンティティを管理するには、アカウント管理者かワークスペース管理者である必要があります。以下の表では、ユーザー管理のアクションに必要な特定のアクセス権の詳細を示しています。アカウントには合わせて最大10,000ユーザーとサービスプリンシパルを持つことができ、最大5000グループを持つことができます。それぞれのワークスペースでは、最大10,000ユーザーとサービスプリンシパル、最大5000グループを持つことができます。 | 誰がDatabricksでアイデンティティを管理できるのか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/e386507be44aa3abd27e | Databricksワークスペースで作業するために、ユーザー、サービスプリンシパル、グループを有効化するには、アカウント管理者あるいはワークスペース管理者がそれらをワークスペースに割り当てる必要があります。アカウント管理者は、ワークスペースでアイデンティティフェデレーションが有効化されている場合、ワークスペースに対してアカウントに存在するユーザー、サービスプリンシパル、グループにアクセスを割り当てることができます。また、ワークスペース管理者はアイデンティティフェデレーションが有効化されている自分のワークスペースにユーザー、サービスプリンシパル、グループを割り当てることができます。逆に、新規ユーザーや新規サービスプリンシパルをワークスペースに直接追加すると、それらのユーザー、サービスプリンシパルは自動でアカウントに追加され、ワークスペースに割り当てられます。この上流のフローはお勧めしません。アカウントにユーザーを追加し、ワークスペースに割り当てる方が分かりやすいです。Databricksはどのようにワークスペースとアカウント間でアイデンティティを同期するのか?をご覧ください。ワークスペースローカルグループとして知られる、ワークスペースで直接作成されたグループは自動でアカウントに追加されません。アカウントのグループとして手動でワークスペースローカルグループを再作成することができます。グループに対する特別な検討をご覧ください。 | 管理者はどのようにユーザーをワークスペースに割り当てるのか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/e386507be44aa3abd27e | ワークスペースでアイデンティティフェデレーションを有効化するには、ワークスペースをUnity Catalogメタストアに割り当てることで、ワークスペースでUnity Catalogを有効化する必要があります。Enable a workspace for Unity Catalogをご覧ください。 | 管理者はどのようにワークスペースのアイデンティティフェデレーションを有効化するのか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/e386507be44aa3abd27e | 2022年8月にすべての既存のワークスペースユーザーとサービスプリンシパルは自動でアカウントレベルのユーザー、アカウントレベルのサービスプリンシパルに同期されました。Databricksはワークスペースにユーザーが追加された際には、常にユーザーとサービスプリンシパルをアカウントに同期し続けます。ワークスペースユーザーがアカウントレベルのユーザーや既に存在している管理者とユーザー名(メールアドレス)を共有している場合にはマージされます。ワークスペースローカルグループはアカウントレベルに同期されません。ワークスペースローカルグループは、ワークスペース管理者のコンソールと(当該ワークスペースでアイデンティティフェデレーションが有効化されている場合)アカウントコンソールのワークスペースアクセス権タブでワークスペースローカルと識別されます。詳細はグループに対する特別な検討をご覧ください。 | Databricksはどのようにワークスペースとアカウント間でアイデンティティを同期するのか? | closed_qa |
|
https://qiita.com/saeoshi/items/d1b2c80039462f7dca90 | 今回、どのくらいの精度がでるかというところで、SIGNATE様が出されているTest用のCompetitionデータを使ってAutoMLを回した結果です。最終的に最もよい精度(accuracy)は0.934を記録しているので、精度としてはいい値かと思います。コンペの上位の方達も9.7近くの値をだされているので、baselineの作成としてはAutoMLを活用いただけるのでは! | AutoMLのパフォーマンスは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/68a31fd49203d2c9e96f | Databricksアドバイザーは実行されるコマンドを自動的に分析し、ノートブック上に適切なアドバイスを表示します。追知されるアドバイスは、作業効率の改善、コスト削減、一般的なミスの回避に役立つ情報を提供します。 | Databricksノートブックのアドバイザーとは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/68a31fd49203d2c9e96f | ユーザー設定に移動するか、をクリックするか、展開されたアドバイスボックス内の歯車アイコンをクリックすることでノートブックの設定ページに移動します。Turn on Databricks Advisorを切り替えることで、アドバイスを有効化・無効化できます。ある種のアドバイスを非表示にした場合、Reset hidden adviceリンクが表示されます。これらのアドバイスを再度表示させたい場合にはこのリンクをクリックします。 | アドバイスをどうやって設定しますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/bdf72aaa087190f98f54 | データレイクにおける新規レコードを特定し、データへの変更を補足するために、どのようにDelta Live Tablesパイプラインのチェンジデータキャプチャを活用できます。CDCデータが外部システムから到着する一般的なCDCユースケースにおけるDelta Live TablesパイプラインにおけるAPPLY CHANGES INTOコマンドを使用します。 | Delta Live Tablesのチェンジデータキャプチャ(CDC)をどのように活用するか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/5ae9d1f4b395d6c01139 | チェンジデータキャプチャ(CDC)はデータベースやデータウェハウスのようなデータストレージにおけるレコードの変更をキャプチャするプロセスです。これらの変更は通常、データの削除、追加、更新のようなオペレーションとみなされます。データベースをエクスポートするデータベースのダンプを取得し、レイクハウス/データウェアハウス/データレイクにインポートするデータレプリケーションはシンプルな方法ですが、これはスケーラブルなアプローチとは言えません。データベースでなされた変更のみをキャプチャし、これらの変更をターゲットデータベースに適用するのがチェンジデータキャプチャです。CDCはオーバーヘッドを削減し、リアルタイム分析をサポートします。バルクロードによる更新をすることなしに、インクリメンタルなロードを実現します。 | チェンジデータキャプチャ(CDC)の重要性を教えてください。 | closed_qa |
|
https://qiita.com/taka_yayoi/items/5ae9d1f4b395d6c01139 | CDCツール、Auto Loader、DLTパイプラインを用いたCDCフロー: 1. CDCツールがデータベースログを読み込み、変更を含むJSONメッセージを生成し、Kafkaに対して変更説明を伴うレコードをストリーミング, 2. KafkaがINSERT, UPDATE, DELETEオペレーションを含むメッセージをストリーミングし、クラウドオブジェクトストレージ(S3、ADLSなど)に格納, 3. Auto Loaderを用いてクラウドオブジェクトストレージからメッセージをインクリメンタルにロードし、生のメッセージとして保存するためにブロンズテーブルに格納, 4. 次に、クレンジングされたブロンズレイヤーテーブルに APPLY CHANGES INTO を実行し、後段のシルバーテーブルに最新の更新データを伝搬。外部データベースからCDCデータを処理するための実装を以下に示します。入力はKafkaのようなメッセージキューを含む任意のフォーマットになり得ることに注意してください。 | お使いのSQLデータベースをどのようにレイクハウスに同期するのか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/5ae9d1f4b395d6c01139 | 変更データを表現するJSONメッセージは、以下の一覧と同じような興味深いフィールドを持っています。operation: オペレーションのコード(DELETE, APPEND, UPDATE, CREATE)。operation_date: それぞれのオペレーションのアクションがあった日付、タイムスタンプ Debeziumの出力には以下のようなフィールドが含まれます(このデモには含めていません)。before: 変更前の行。after: 変更後の行 | DebeziumのようなCDCツールの出力はどのようなものか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/5ae9d1f4b395d6c01139 | Delta Live Tablesはエクスペクテーションを通じてデータ品質を追跡します。これらのエクスペクテーションはDLTのログイベントとともに技術的なテーブルとして格納されます。この情報を分析するために、シンプルにビューを作成することができます。 | Delta Live Tablesではどうやってデータ品質を追跡するか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/333a726aeb203d7f0aa6 | Nixtlaは、一貫性があり使いやすい方法で広範な予測の能力を活用できるようにすることを目的とした一連のライブラリです。散在しているソフトウェアパッケージから必要な機能を探し出すことにフラストレーションを感じている実践者によって開発されており、Nixtlaでは標準化とパフォーマンスに重きを置いており、企業は断続的需要の予測を含む現実世界の予測の問題を比較的簡単に解くことが可能となります。多くの企業がクラウドを活用してタイムリーな方法で膨大な数の予測を生成しようとしていることを知り、NixtlaはFugueエンジンとして知られる高性能、自動スケールアウトエンジンをライブラリに組み込みました。Databricksと組み合わせることで、企業は高速かつコスト効率が高い方法で膨大なボリュームの予測結果を生成できるようになります。 | Nixtlaとは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/875f6684e26f13c6e48b | Databricksで実行されたクエリーに対する実行時データリネージをキャプチャするためにUnity Catalogを活用することができます。リネージはすべての言語でサポートされており、カラムレベルまで捕捉されます。リネージデータには、クエリーに関連するノートブック、ワークフロー、ダッシュボードが含まれます。リネージは、ニアリアルタイムでData Explorerに表示され、Databricks REST APIで取得することができます。リネージはUnity Catalogメタストアにアタッチされているすべてのワークスペースから集約されます。これは、あるワークスペースでキャプチャされたリネージは、メタストアを共有する他のワークスペースで参照できることを意味します。リネージデータを参照するには、ユーザーは適切なアクセス権を持っている必要があります。リネージデータは30日間保持されます。 | Data ExplorerとREST APIを用いたリネージの可視化はどうやって実現するか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/32ff6e4cb96d550e7a30 | Delta Live Tablesは、信頼性が高く、維持が容易でテスト可能なデータ処理パイプラインを構築するためのフレームワークです。データに対する変換処理を定義すると、Delta Live Tablesはタスクのオーケストレーション、クラスター管理、モニタリング、データ品質、エラー処理を行います。そして、Delta Live Tablesはそれぞれの処理ステップであなたが定義したターゲットスキーマに基づき、どのようにデータが変換されるのかを管理します。また、Delta Live Tablesのエクスペクテーションを活用してデータ品質を維持することもできます。エクスペクテーションによって、期待されるデータ品質を定義し、エクスペクテーションに沿わないデータをどのように取り扱うのかを定義することができます。 | Delta Live Tablesとは | closed_qa |
|
https://qiita.com/shotkotani/items/86b434ca8828752f3986 | MLOpsとは、DevOps+DataOps+ModelOpsによって構成され、組織がコード、データ、およびモデルを管理するのに役立つ一連のプロセスと自動化のことを指します。 | MLOpsとは? | closed_qa |
|
https://qiita.com/shotkotani/items/86b434ca8828752f3986 | 機械学習 (ML) システムでは、モデル、コード、データはすべて時間の経過とともに進化し、更新スケジュールと MLパイプラインに摩擦が生じる可能性があります。一方、モデルの再トレーニングが必要になるデータドリフトにより、モデルのパフォーマンスは時間の経過とともに低下する可能性があります。さらに、データ サイエンティストがデータセットを調査し続け、モデルを改善するためにさまざまなアプローチを適用すると、より適切に機能する新しい特徴量や他のモデルファミリーが見つかる可能性があります。そして、コードを更新して再デプロイします。MLOps のベストプラクティスにより、データ サイエンティストは、特徴量エンジニアリング、モデル アーキテクチャ、ハイパーパラメータに関する新しいアイデアを迅速に調査して実装し、新しいパイプラインを自動的に構築、テストして、運用環境にデプロイできます。堅牢で自動化された MLOps システムは、アイデアからビジネス価値の向上まで、組織の AI イニシアチブを強化し、データと ML への投資収益を生み出します。 | なぜMLOpsは必要なのか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/bdf72aaa087190f98f54 | チェンジデータキャプチャ(CDC)は、ニアリアルタイムのデータアプリケーションにおける顧客の追跡、注文・商品のステータスの追跡の様に、データベースにおけるインクリメンタルな変更(データの削除、追加、更新)を特定、補足するプロセスです。CDCでは、新規イベントが生じるのに合わせて継続的かつインクリメンタルな方法でデータを処理することで、リアルタイムのデータ進化を実現しています。2025年までには企業の80%がマルチクラウドの戦略を実施しようとしていることから、複数の環境におけるETLパイプラインにおけるすべてのデータの変更をリアルタイムかつシームレスに集中管理することが重要となります。 | チェンジデータキャプチャ(CDC)は何? | closed_qa |