context
stringclasses
6 values
source
stringlengths
0
149
response
stringlengths
4
1.6k
instruction
stringlengths
5
137
category
stringclasses
1 value
https://www.databricks.com/jp/blog/2022/06/24/data-warehousing-modeling-techniques-and-their-implementation-on-the-databricks-lakehouse-platform.html
Data Vault は、Kimball や Inmon の手法に比べ、企業規模の分析用データウェアハウスを構築するために用いられる、より新しいデータモデリングのデザインパターンです。 Data Vault は、データをハブ、リンク、サテライトの 3 つのタイプに整理しています。ハブはコアのビジネスエンティティを表し、リンクはハブ間の関係を表し、サテライトはハブやリンクに関する属性を格納します。 Data Vault は、拡張性、データ統合/ETL、開発スピードが重要視されるアジャイルデータウェアハウス開発に重点を置いています。ほとんどのお客様は、ランディングゾーン、Vaultゾーン、データマートゾーンを、Databricks の組織パラダイムのブロンズ、シルバー、ゴールドレイヤーに対応させています。Data Vault のハブ、リンク、サテライトテーブルのモデリングスタイルは、通常 Databricks レイクハウスのシルバーレイヤーによく合います。
Data Vault とは?
closed_qa
https://www.databricks.com/jp/blog/2022/06/24/data-warehousing-modeling-techniques-and-their-implementation-on-the-databricks-lakehouse-platform.html
次元モデリングは、データウェアハウスを分析用に最適化するために設計するボトムアップのアプローチです。次元モデルは、ビジネスデータを次元(時間や商品など)とファクト(金額や数量の取引など)に非正規化し、異なる対象領域を適合した次元で接続して、異なるファクトテーブルにナビゲートするために使用されます。 次元モデリングの最も一般的な形式は、スタースキーマです。スタースキーマは多次元データモデルで、データを整理して理解しやすく、分析しやすく、またレポートの実行が非常に簡単で直感的にできるようにするために使用されます。Kimballスタイルのスタースキーマや次元モデルは、データウェアハウスやデータマートのプレゼンテーション層、さらにはセマンティック層やレポート層におけるゴールドスタンダードと言えます。スタースキーマの設計は、大規模なデータセットに対するクエリに最適化されています。
ディメンショナルモデリング(次元モデリング)とは?
closed_qa
https://www.databricks.com/jp/blog/2022/05/20/five-simple-steps-for-implementing-a-star-schema-in-databricks-with-delta-lake.html
Delta Lake は、データレイクのテーブルに対して挿入、更新、削除、ACID トランザクションの追加を容易にし、メンテナンスと履歴管理を簡素化するオープンなストレージ形式レイヤーです。Delta Lake は、動的ファイルプルーニングを実行して、より高速な SQL クエリに最適化する機能も提供しています。
Delta Lakeとは?
closed_qa
https://www.databricks.com/jp/blog/2022/02/23/get-to-know-your-queries-with-the-new-databricks-sql-query-profile.html
DLT は、既に世界中の大手企業において本番運用でのユースケースを支援しています。スタートアップからエンタープライズまで、ADP、シェル、H&R Block、Jumbo、Bread Finance、JLL を含む 400 社以上の企業が、DLT を使用して次世代のセルフサービス分析とデータアプリケーションを強化しています。 Delta Live Tables を用いることで、アナリストとデータエンジニアは、SQL や Python を使用して本番環境に対応したストリーミング、またはバッチ ETL パイプラインを簡単に構築できます。完全なデータパイプラインの宣言型記述を一位にキャプチャして依存関係をライブで理解し、内在する運用の複雑性を自動化することで ETL 開発をシンプルにします。DLT を使用すると、エンジニアはパイプラインの運用や保守ではなくデータの配信に集中することができ、次の主要なメリットを活用できます。 DLT のプレビューをリリースして以来、Databricks はいくつかのエンタープライズ向け機能と UX の改善を行ってきました。UI を拡張することで、DLT パイプラインのスケジュール設定、エラーの参照、ACL(アクセス制御リスト)の管理、テーブルリネージュの可視化の改善、データ品質の可観測性 UI とメトリクスの追加をシンプルにしました。さらに、継続的に到着するデータを効率的かつ簡単にキャプチャするためにの変更データキャプチャ(CDC)のサポートと、ストリーミングワークロード向けに優れた性能を提供する拡張オートスケーリングのプレビューをリリースしました。
DLT が大手企業のデータエンジニアやアナリストをどのように支援し、本番環境に対応したストリーミングとバッチパイプラインの簡単な構築や、大規模なインフラストラクチャの自動管理、および、新世代のデータ、分析、AI アプリケーションの提供に役立つか?
closed_qa
https://www.databricks.com/jp/blog/2022/02/23/get-to-know-your-queries-with-the-new-databricks-sql-query-profile.html
Databricks SQL は、 Databricks のレイクハウスプラットフォームにおける SQL のデータウェアハウス機能とファーストクラスのサポートを提供します。これにより、アナリストは従来のクラウドデータウェアハウスよりもわずかなコストで新たな知見を迅速に発見し、共有できるようになります。
Databricks SQL とは何?
closed_qa
https://www.databricks.com/jp/blog/2022/02/23/get-to-know-your-queries-with-the-new-databricks-sql-query-profile.html
クエリプロファイルは、クエリの実行の詳細や、時間とコンピューティングリソースが費やされている場所を確認するための詳細なメトリクスを提供します。
クエリプロファイルはどのような機能でしょうか?
closed_qa
クエリプロファイルには、次の主要な機能が含まれています。 クエリの実行と関連するメトリクスにおける主なコンポーネントの詳細化:タスクに費やされた時間、処理された行、メモリ消費量 複数のグラフィック表現:最も遅い処理を一目で確認できる要約されたツリービュー、クエリ演算子間のデータフローを理解するためのグラフビュー 結合の展開や全表スキャンといったクエリのよくある間違いを簡単に検出する機能 クエリプロファイルをダウンロードして共有する機能でコラボレーションを向上
クエリプロファイルにはどういう機能を提供していますか?
closed_qa
https://www.databricks.com/jp/blog/2021/11/02/databricks-sets-official-data-warehousing-performance-record.html
TPC-DS は、トランザクション処理性能評議会(TPC)によって定義されるデータウェアハウスのベンチマークです。TPC は、1980 年代後半にデータベースコミュニティによって設立された非営利団体で、リアルワールドのシナリオを模倣したベンチマークの作成に注力しています。そのため、TPC は、データベースシステムの性能を客観的に測定する目的で使用されています。また、TPC はデータベースの領域にも大きな影響を与え、Oracle、Microsoft、IBM などの確立されたベンダーによる 10 年に及ぶ「ベンチマーク戦争」が、この領域の発展を推進してきました。 TPC-DS の “DS” は、意思決定支援(Decision Support)を意味します。極めてシンプルな集計から複雑なパターンマイニングまで、さまざまな複雑さを持つ 99 のクエリが含まれています。これは、複雑さが増す分析を反映した 2000 年代半ばからスタートした比較的新たな取り組みのベンチマークです。TPC-DS は、この 10 年間でデータウェアハウスのベンチマークの事実上の標準となり、ほぼ全てのベンダーで採用されています。
TPC-DS とは
closed_qa
https://www.databricks.com/jp/blog/2021/10/07/databricks-repos-is-now-generally-available.html
Databricks Repos は、データチームが常に抱えている課題を解決するために開発されました。データエンジニア、データサイエンティストが使用しているツールの多くは、Git のバージョン管理システムとの連携が不十分、あるいは全くありません。コードをレビュー、コミットするだけでも、数多くのファイル、ステップ、UIをナビゲートする必要がありました。これでは時間がかかるだけでなく、エラーを発生しやすくします。
Databricks Repos はどのような背景で開発されましたか?
closed_qa
https://www.databricks.com/jp/blog/2021/10/07/databricks-repos-is-now-generally-available.html
Databricks Repos は、Databricks と一般的な Git プロバイダーを直接リポジトリレベルで統合することで、データの実践者は新規の Git リポジトリや既存リポジトリをクローンの作成、Git オペレーションの実行、開発のベストプラクティスに従うことを容易にします。 Databricks Repos によって、ブランチの管理、リモートの変更のプル、コミット前の変更点の確認など、使い慣れた Git の機能にアクセスができるため、Git ベースの開発ワークフローを容易に活用できるようになります。さらに、Repos は Github、Bitbucket、Gitlab、Microsoft Azure DevOps のような幅広い Git プロバイダをサポートしており、CI/CDシステムと統合を可能にする一連の API も提供しています。
Databricks Reposはどういう機能ですか?
closed_qa
https://www.databricks.com/jp/blog/2021/10/07/databricks-repos-is-now-generally-available.html
「Files in Repos」と呼ばれるこの機能は、Databricks 上で Python ソースコード、ライブラリファイル、設定ファイル、環境設定ファイル、小規模のデータファイルなど、ノートブックファイル以外のファイルを扱うことができる Repos の新機能です。この機能は、コードの再利用、環境管理、デプロイメントの自動化を容易にします。ユーザーはローカルファイルシステムと同じように、Databricks Repos のファイルに対して、インポート(クローン)、読み込み、編集が可能です。
「Files in Repos」と呼ばれるこの機能で何か実現できるか?
closed_qa
https://www.databricks.com/jp/blog/2021/10/06/bringing-lakehouse-to-the-citizen-data-scientist-announcing-the-acquisition-of-8080-labs.html
bamboolib は、Python コード(Excel のマクロを想像してみてください)をエクスポートする、拡張可能な GUI を提供します。ユーザーによるコーディングなしで、高速かつシンプルなデータ探索と変換を可能にします。UI ベースのワークフローにより、市民データサイエンティストとエキスパートの両方が容易に Databricks にアクセスできるようになり、社員のオンボーディングやトレーニングのコストを削減できます。ノーコードのユースケースには次のようなものがあります。
bamboolibとは?
closed_qa
https://www.databricks.com/jp/blog/databricks-marketplacenohafuritsukufurehiyufabiao
Databricks MarketplaceはオープンソースのDelta Sharing規格を利用した、あらゆるデータ、アナリティクス、AIのためのオープンマーケットプレイスです。データ消費者とデータ提供者の広大なエコシステムを結集し、データセット、ノートブック、MLモデルなど、さまざまなデータ資産を、プラットフォームの依存関係や複雑なETL、高価なレプリケーションなしに共有・共同利用できます。データコンシューマーは、組織のAI、ML、アナリティクスイニシアチブを革新・推進し、ベンダーロックインすることなく、より迅速なインサイトを提供することができます。データプロバイダーは、ビジネスを拡大し、新しいユーザーを獲得し、収益を上げることができます。
Databricks Marketplaceとは何?
closed_qa
https://www.databricks.com/jp/blog/databricks-marketplacenohafuritsukufurehiyufabiao
データコンシューマーはDatabricks Marketplaceで、組織のAI、ML、アナリティクスイニシアチブを革新・推進し、ベンダーロックインすることなく、より迅速なインサイトを提供することができます。
データコンシューマーはDatabricks Marketplaceで何かできますか?
closed_qa
https://www.databricks.com/jp/blog/databricks-marketplacenohafuritsukufurehiyufabiao
データプロバイダーはDatabricks Marketplaceで、ビジネスを拡大し、新しいユーザーを獲得し、収益を上げることができます。
データプロバイダーはDatabricks Marketplaceで何かできますか?
closed_qa
https://www.databricks.com/jp/blog/databricks-marketplacenohafuritsukufurehiyufabiao
オープンスタンダードに基づき構築されたDatabricks Marketplaceは、データプロバイダーとあらゆるクラウド上の最も豊富なデータツールを接続し、データプロバイダーがプラットフォーム依存、ETL、レプリケーションなしに、データセットとモデル、ノートブック、ダッシュボードなどのデータ資産の両方を収益化し、データ消費者が最速かつ最もシンプルに洞察を得ることができるよう独自に提供します。
Databricks Marketplaceでは何を提供しているか?
closed_qa
https://www.databricks.com/jp/blog/databricks-marketplacenohafuritsukufurehiyufabiao
Databricks Marketplaceは、データコンシューマーがイノベーションを実現し、すべてのアナリティクスとAIイニシアチブを前進させる機会を劇的に拡大するものです。データコンシューマーは、独自のプラットフォームの依存関係や複雑なETL、高価なレプリケーションなしに、データセットだけでなく、MLモデル、ノートブック、アプリケーション、ダッシュボードなどのAIや分析資産も独自に入手できます。このオープンなアプローチにより、あらゆるクラウドで、お好みのツールを使って、より迅速にデータを活用することができます。
Databricks Marketplaceはデータコンシューマーにとって何かいいことがありますか?
closed_qa
https://www.databricks.com/jp/blog/2023/04/26/contributing-spark-loader-for-hugging-face-datasets
最新のHugging Faceリリースでは、Datasetsの新しい "from_spark "関数を呼び出すだけで、ユーザーが同じタスクを達成するのをより簡単にできるようにしました。これにより、ユーザーはSparkを使用して、モデルのトレーニングやファインチューニングのためにデータを効率的にロードして変換し、SparkデータフレームをHugging Faceデータセットに簡単にマッピングして、トレーニングパイプラインに超シンプルに統合することができます。
Hugging FaceデータセットにSparkデータフレームをどのようにロードすればいいですか?
closed_qa
https://www.databricks.com/jp/blog/2023/04/26/contributing-spark-loader-for-hugging-face-datasets
私たちはモデルのトレーニング、チューニング、デプロイを成功させるための最高のツールを提供するために努力しています。Hugging Faceへの貢献を続けるだけでなく、他のオープンソースプロジェクトへの改善もリリースしはじめました。最近のMLflowのリリースでは、transformersライブラリのサポート、OpenAIの統合、Langchainのサポートが追加されました。また、Databricks SQLのAI Functionsも発表し、OpenAI(あるいは将来的には独自のデプロイメントモデル)をクエリに簡単に統合できるようにしました。さらに、Databricks上での分散PyTorchトレーニングを簡素化するために、Spark用のPyTorch distributorもリリースしました。
DatabricksはオープンソースLLMに対してどんなサポートを提供していますか?
closed_qa
https://www.databricks.com/jp/blog/data-architecture-pattern-maximize-value-lakehouse.html
通常、データレイクに取り込まれたデータは、取り込み層からキュレーション層へと移動する際にクレンジングされます。データを意味的に一貫したものにするためには、ビジネスコンテキストの観点からも整合性をとる必要があります。例えば、異なるシステムからの顧客データや収益データは、両方のレイヤーで同じ意味を持たせる必要があります。そして、適切なレベルで、データの重複を排除する必要があります。 この追加ステップにより、キュレーション層の意味的に一貫したデータをインテグレーション層のデータと安全に結合し、ゴールド層のビジネス対応テーブルを提供できるようになります。
セマンティック・コンシステントとはどういう意味ですか?
closed_qa
https://www.databricks.com/jp/blog/data-architecture-pattern-maximize-value-lakehouse.html
DWH層内のデータと結合するDWH層外のデータセットにセマンティック一貫性を適用することで、いくつかのメリットがあります: DWHレイヤーの外にあるデータのセマンティック一貫性を実現することは、そのデータをDWHに統合するよりもはるかに簡単です。 その結果、コアとなるDWHが安定したまま、DWHの開発をより速く、より探索的に行うことができます。また、ある結果が永続的な価値を持つことが証明された場合、そのデータセットを後日DWHに統合することができます。 データサイエンティストは、ビジネスKPIなど組織のビジネス情報モデルに由来するデータに簡単にアクセスでき、意味的に一貫性のあるデータと組み合わせることができます。 最後に、すべてのデータが意味的に一貫している必要はないので、データレイクアプローチの高速で探索的な性質は、現代のユースケースでも利用可能です。
DWH層内のデータと結合するDWH層外のデータセットにセマンティック一貫性を適用することで、何かのメリットがありますか?
closed_qa
https://www.databricks.com/jp/blog/data-architecture-pattern-maximize-value-lakehouse.html
機械学習モデルは、データセットに対して学習(教師ありまたは教師なし)され、以前に見たことのないデータセットからパターンを見つけたり予測を行ったりするように最適化されます。
機械学習モデルではどんなことを行うか?
closed_qa
https://www.databricks.com/jp/blog/data-architecture-pattern-maximize-value-lakehouse.html
ディープラーニングは、機械学習のサブセットで、人間の脳の構造と機能から着想を得たアルゴリズムを使用します。ディープラーニングは、従来のタスクに特化したアルゴリズムではなく、データ表現の学習に基づく、より広範な機械学習手法の一群に属します。
ディープラーニングは何?
closed_qa
https://www.databricks.com/jp/blog/data-architecture-pattern-maximize-value-lakehouse.html
データレイク上でのモダンなユースケースと、データウェアハウス上での従来のBIユースケースを区別して説明します: モダンなユースケースのためのデータレイク 現代のユースケースは、通常、データレイクに保存されたデータに対して機械学習やAIを使用します。どちらのアプローチも、行動や起こりうる結果を予測するモデルを作成し、ビジネスユーザーが事前に適切な行動を取れるようにすることを目的としています。 機械学習モデルは、データセットに対して学習(教師ありまたは教師なし)され、以前に見たことのないデータセットからパターンを見つけたり予測を行ったりするように最適化されます。ディープラーニングは、機械学習のサブセットで、人間の脳の構造と機能から着想を得たアルゴリズムを使用します。ディープラーニングは、従来のタスクに特化したアルゴリズムではなく、データ表現の学習に基づく、より広範な機械学習手法の一群に属します。機械学習では、ユースケースのためにデータレイクに明示的に取り込まれた大規模なデータセットを使用することがよくあります。 データウェアハウスは、複数のコアビジネスソリューションから現在および過去のデータを保存するデータ管理システムです。データウェアハウスは、組織がどのようにビジネスを行っているかをモデル化したもので、洞察やレポーティングを容易に行うことができます。データウェアハウスは、BI、レポーティング、データ分析のために、運用データベースからデータを抽出・集約します。データウェアハウスの利点は、多くのソースからのデータを統合し、履歴情報を提供し、分析処理をトランザクションデータベースから切り離すことです。データウェアハウスは、データの品質と正確性を確保し、例えば、異なる製品タイプ、言語、通貨に対する命名規則やコードによって一貫性を持たせることでデータを標準化します。
データレイク上でのモダンなユースケースと、データウェアハウス上での従来のBIユースケースの区別を知りたいです。
closed_qa
https://www.databricks.com/jp/blog/data-architecture-pattern-maximize-value-lakehouse.html
データウェアハウスは、複数のコアビジネスソリューションから現在および過去のデータを保存するデータ管理システムです。
データウェアハウスは何を管理するか?
closed_qa
https://www.databricks.com/jp/blog/how-databricks-enables-your-operating-model-data-and-ai-part-1.html
Databricks Lakehouse Platformは、Unity Catalogを通じて、統一されたガバナンスモデルを実現する手段を提供します。Unity Catalogでは、データアーティファクトにきめ細かい権限を付与し、ユーザーをグループ化して一元的に管理することが可能です。どのようなデータやリソースにアクセスできるのか、チームやユーザーを簡単に管理できることは、持続可能な運営モデルやコスト管理のために重要なことなのです。
Databricks Lakehouse Platformのガバナンスモデルはどのように実現しているか?
closed_qa
https://www.databricks.com/jp/blog/how-databricks-enables-your-operating-model-data-and-ai-part-1.html
AIの運用モデルの最終的な目的は、データからビジネス成果までの価値生成プロセスを合理化することです。
AIの運用モデルの最終的な目的は何?
closed_qa
https://www.databricks.com/jp/blog/how-databricks-enables-your-operating-model-data-and-ai-part-1.html
Databricksプラットフォームは、探索と革新から実験、追跡、展開まで、機械学習運用のエンドツーエンドのライフサイクルをカバーする環境を提供します。
DatabricksはAIモデルの実行と運用に何を提供しているか?
closed_qa
https://www.databricks.com/jp/blog/how-databricks-enables-your-operating-model-data-and-ai-part-1.html
Databricksは、データ中心のAIに焦点を当てたMLOpsフレームワークとツールセットを組織に提供し、チームがそれに従うことで、開発、テスト、提供のための明確な基準を持つことができます。
DatabricksはMLOpsに関して何を提供しているか?
closed_qa
https://www.databricks.com/jp/blog/how-databricks-enables-your-operating-model-data-and-ai-part-1.html
追跡と実行というテーマでは、AIの運用モデルの成功の重要な部分は、データとAIの利用を測定可能なビジネス成果に効果的に結びつけることができることであり、DatabricksはそうしたKPIを収集、管理、維持できる基盤を提供する。ビジネスにおけるデータの価値を表すKPIの1つが、RODA(Return on Data Assets)です。
なぜAIの運用モデルの追跡と実行は重要ですか?
closed_qa
https://www.databricks.com/jp/blog/how-databricks-enables-your-operating-model-data-and-ai-part-1.html
Databricksは、ユースケースから本番までの開発サイクルを追跡・定量化し、ワークロードの開発・実行方法に関する標準を確立する能力を組織に提供し、強制、所有、検証、報告することができます。
Databricksはユースケースから本番までどのようにサポートしているか?
closed_qa
https://www.databricks.com/jp/blog/how-databricks-enables-your-operating-model-data-and-ai-part-1.html
Databricksは、モデル管理に関する明確なプロセスを構築し、モデルの出力を効果的にビジネス成果に結びつけるために必要なツールと構造をチームに提供し、データをビジネスパフォーマンスの向上につなげる好循環を実現します。
モデルの監視、更新と維持にどのようなサポートがありますか?
closed_qa
https://www.databricks.com/jp/blog/enhancing-product-search-large-language-models-llms.html
製品カタログの検索にLLMを使えば、商品説明や文章、音声の記録などに目を通し、ユーザーの検索に応えて、その内容に関連するものを提案するよう、モデルに課すことができます。ユーザーは、探しているものを見つけるために正確な用語を必要とせず、LLMがニーズに合わせて方向付けることができる一般的な説明だけでよいのです。その結果、ユーザーがサイトを利用する際に、まるでパーソナライズされた専門家のガイダンスを受けたかのような感覚に陥る、パワフルな新しい体験が得られました。
製品カタログの検索にLLMを活用したソリューションはどんなもの?
closed_qa
https://www.databricks.com/jp/blog/enhancing-product-search-large-language-models-llms.html
特定の文書群を効果的に検索するためには、その文書に特化して学習させる必要すらありません。
LLMを活用して特定の文書群を効果的に検索するために何か必要ですか?
closed_qa
https://www.databricks.com/jp/blog/enhancing-product-search-large-language-models-llms.html
ファインチューニングを行うことで、モデルの方向性を、それが意図する特定のコンテンツに対して調整することができます。事前にトレーニングしたモデルを、特定分野の情報などで追加トレーニングすることで、このコンテンツとより一致した方法でユーザーのプロンプトに応答するモデルの能力が向上し、多くの組織にとって実行する価値のあるステップとなります。
モデルのファインチューニングで何かできるか?
closed_qa
https://www.databricks.com/jp/blog/enhancing-product-search-large-language-models-llms.html
Dolly 2.0はそのようなモデルの1つで、ダウンロードサイトに提示されているライセンス条項に従って自由にダウンロードし、広く使用することができます。Hugging Face は、AIコミュニティがセマンティック検索と呼ぶものに最適な言語モデル(大規模なもの、そうでないものも)を発見できる人気の場所です。
訓練済みのオープンソースのLLMはどこにあるのでしょうか?
closed_qa
https://www.databricks.com/jp/blog/enhancing-product-search-large-language-models-llms.html
エンベッディングとは、文章、段落、文書を数値で表したものです。どのように生成されるかの仕組みは、モデルの中に埋もれていますが、理解すべき重要なことは、モデルが2つの文書をエンベッディングに変換したとき、数値の間の数学的距離(差)が、それらの間の類似性の程度について何かを教えてくれることです。
エンベッディングとは何でしょうか?
closed_qa
https://www.databricks.com/jp/blog/enhancing-product-search-large-language-models-llms.html
オープンソースのlangchainのようなツールは、このためのビルディングブロックを提供しています。重要なのは、例えば検索したい商品カタログの詳細を形成する埋め込みデータは、従来のリレーショナルデータベースやNoSQLデータストアの中からは検索できないことです。その代わりに、特殊なベクトルストアを使用する必要があります。
エンベッディングはどのようにモデルと結合されるのか?
closed_qa
https://www.databricks.com/jp/blog/enhancing-product-search-large-language-models-llms.html
マイクロサービスとは、検索フレーズなどのリクエストを受け取り、レスポンスを返す軽量なアプリケーションのことです。モデルと検索する埋め込みをマイクロサービス内にパッケージ化することで、マイクロサービスが提供する検索機能にアプリケーションから広くアクセスできるようになるだけでなく、ほとんどのマイクロサービス基盤ソリューションは弾力的なスケーラビリティをサポートしているので、需要の増減に対応できるようにサービスにリソースを割り当てることができる。これは、コストを抑えながらアップタイムを管理するために不可欠です。
マイクロサービスとは何でしょうか?
closed_qa
https://www.databricks.com/jp/blog/2023/04/25/announcing-general-availability-predictive-io-reads.html
Predictive I/Oは、DB SQL ProとServerlessではデフォルトでオンになっており、追加コストなしで機能します。
Predictive I/Oは追加料金かかりますか?
closed_qa
https://www.databricks.com/jp/blog/2023/04/25/announcing-general-availability-predictive-io-reads.html
選択的クエリやポイント・ルックアップは、BIやアナリティクスのユースケースでよく見られる、大きなデータセットから少量または単一の結果を返そうとするものです。BIやアナリティクスのユースケースでよく見られるもので、「針の穴を通すような」クエリーと呼ばれることもありますが、こうしたクエリーをコストを抑えながら高速化することは困難です。なぜなら、クラウドデータウェアハウス(CDW)でポイント検索を高速化するためには、インデックスを作成するか、追加の最適化サービスを使用しなければならないからです。さらに、これらのオプションはノブであり、各アプローチを有効にする前に、いつ、どのように使用するかを理解する必要があることを意味します。
ポイントルックアップとは何か、なぜ高いのか?
closed_qa
https://www.databricks.com/jp/blog/2023/04/25/announcing-general-availability-predictive-io-reads.html
一つの例をみてみましょう。例えCDWにデータセットをロードした後、クエリに8.7秒かかっています。もしこれが十分な速度でない場合は、高価な最適化サービスを利用すれば、3.6秒まで短縮することが可能です。しかし、忘れてはならないのは、このためにお金を払っていることです。テーブルが変わるたびに、最適化サービスはメンテナンス作業を行わなければならないのです。もっと簡単で安価な方法として、Predictive I/Oを使えば、Lakehouseのデータを3.7秒でロードしてクエリすることができます!次に、Predictive I/Oの初期の顧客による実世界のワークロードを見てみましょう。データをDatabricksにロードし、選択的なクエリを実行するというシンプルなプロセスでした。Predictive I/Oは、このお客様のユースケースにおいて、CDWよりも35倍高速でした。ここでも、優れたパフォーマンスを発揮するために必要なノブはありません。
Predictive I/Oのメリットを教えてください。
closed_qa
https://www.databricks.com/jp/blog/2023/04/25/announcing-general-availability-predictive-io-reads.html
Delta LakeとParquetテーブルに対して、Predictive I/Oは、ヒューリスティック、モデリング、ファイルプロパティに基づくスキャンパフォーマンスの予測など、さまざまな形態の機械学習と機械知能を使用して、さまざまな最適化をインテリジェントに有効または無効化します。
Predictive I/Oはどのように機能するのでしょうか?
closed_qa
https://www.databricks.com/jp/blog/2023/04/25/processing-data-simultaneously-multiple-streaming-platforms-using-delta-live-tables
Delta Live Tablesを使用して、複数のストリーミングプラットフォームから同時にデータを処理することができます。
マルチストリーム処理するためにどの機能を使えますか?
closed_qa
https://www.databricks.com/jp/blog/2023/04/24/launching-new-files-experience-databricks-workspace.html
はい、200MB以下のファイルをWorkspaceに作成・保存できます。
Workspaceにノートブックとフォルダー以外のファイルを作成や保存することができますか?
closed_qa
https://www.databricks.com/jp/blog/2023/04/24/launching-new-files-experience-databricks-workspace.html
ワークスペース・ファイルを使用する利点は以下の通りです: モジュール化されたコードと再利用: ファイルのサポートにより、大規模で多くのセルがあるノートブックをより小さく、より理解しやすいモジュールにリファクタリングすることができます。ノートブックでは、「import」ステートメントを使用して、これらのモジュールを参照することができます。 テスト: ノートブックやモジュールのコードに対してユニットテストを作成し、ソースコードと一緒にファイルとしてパッケージすることができます。 初期化スクリプト: クラスタに対応した初期化スクリプトをワークスペース・ファイルに格納することができます。これらのスクリプトはアクセス制御され、許可されたユーザーだけが変更できるようになります。 ライブラリとアーティファクトの再利用: Wheel、Jar、および共有Pythonライブラリのソースファイルをノートブックに保存できるため、ノートブック内の作業の共有、配布、および複製が容易になります。 ソフトウェアの依存関係管理の改善: requirements.txtファイルにより、ワークスペース内のノートブックやその他のPythonコード資産のソフトウェア依存関係をファイルにカプセル化し、そのソフトウェア環境の将来の複製を単純な`%pip -r`呼び出しを減らすことができるようになりました。
ワークスペース・ファイルを使用する利点は何?
closed_qa
https://www.databricks.com/jp/blog/2023/04/24/launching-new-files-experience-databricks-workspace.html
オブジェクトのアクセス制御リスト(ACL)を使用して、個々のファイルまたはフォルダへのアクセスを保護します。個々のファイルまたはフォルダへのアクセスを、持つべきユーザーまたはユーザーのグループのみにアクセス権を制限することができます。ACL は、Workspace ブラウザまたはオブジェクト内部から直接制御することができます。
ファイルやフォルダのアクセス管理はどのように行うか?
closed_qa
https://www.databricks.com/jp/blog/2023/04/24/launching-new-files-experience-databricks-workspace.html
はい、サポートしています。入力中にオートコンプリートの候補ボックスが自動的に表示されます。
ノートブックやファイルの作成にオートコンプリート(自動入力)がサポートされているか?
closed_qa
https://www.databricks.com/jp/blog/2023/04/24/launching-new-files-experience-databricks-workspace.html
はい、以前のバージョンのファイルを表示する際、何が変更されたかを簡単に確認できるように、サイドバイサイドの差分を表示します。
ファイルのバージョンの差分を表示できるか?
closed_qa
https://www.databricks.com/jp/blog/2023/04/19/scale-vision-transformers-vit-databricks-lakehouse-platform-spark-nlp.html
Spark NLPは、Apache Spark™の上に構築された最先端の自然言語処理ライブラリです。分散環境で容易にスケールする機械学習パイプラインのために、シンプルでパフォーマンスと精度の高いNLPアノテーションを提供します。Spark NLPには、200以上の言語に対応した7000以上の事前学習済みパイプラインとモデルが付属しています。また、トークン化、単語分割、品詞タグ付け、単語と文の埋め込み、名前付き固有表現認識、依存関係解析、スペルチェック、テキスト分類、感情分析、トークン分類、機械翻訳(+180言語)、要約と質問応答、テキスト生成、画像分類(ViT)、その他多くのNLPタスクが提供されています。
Spark NLPとは?
closed_qa
https://www.databricks.com/jp/blog/2023/04/18/spark-connect-available-apache-spark.html
Spark Connectは、クライアントとサーバーを分離したアーキテクチャで、あらゆるアプリケーションからSparkクラスタへのリモート接続を可能にし、どこでも実行できるようにします。このクライアントとサーバーの分離により、最新のデータアプリケーション、IDE、ノートブック、およびプログラミング言語がSparkにインタラクティブにアクセスできるようになります。
Spark Connectとは?
closed_qa
https://www.databricks.com/jp/blog/2023/04/18/spark-connect-available-apache-spark.html
Spark Connectを使用するには、コードを変更することなく、アプリケーションに環境変数(SPARK_REMOTE)を設定するだけで拾えるようにするか、Sparkセッションを作成する際に明示的にSpark Connectをコードに含めることができます。
Spark Connectの使用方法を教えてください。
closed_qa
https://www.databricks.com/jp/blog/2023/04/18/spark-connect-available-apache-spark.html
Spark 3.4では、Spark ConnectはDataFrame, Functions, Columnを含むほとんどのPySpark APIをサポートしています。サポートされているPySpark APIは、API referenceドキュメントで「Supports Spark Connect」と表示されるので、既存のコードをSpark Connectに移行する前に、使用しているAPIが利用可能かどうかを確認できます。
Apache Spark 3.4でサポートされるpySpark APIは何?
closed_qa
https://www.databricks.com/jp/blog/2023/04/18/spark-connect-available-apache-spark.html
Spark 3.4では、Spark ConnectはDataset, functions, Columnなど、ほとんどのScala APIをサポートしています。
Apache Spark 3.4でサポートされるScala APIは何?
closed_qa
https://www.databricks.com/jp/blog/2020/01/30/what-is-a-data-lakehouse.html?itm_data=lakehouse-link-lakehouseblog
データウェアハウス(DWH)とは、膨大な量のデータを利用者の目的に応用しやすくするため、整理・格納する管理システムのことを指します。意思決定支援や BI(ビジネスインテリジェンス)アプリケーションにおいて広く利用されてきており、これには長い歴史があります。データウェアハウスの技術は、1980 年代後半の登場以来進化を続け、MPP アーキテクチャなどの並列処理技術の進歩によって、より大規模なデータ処理が可能なシステムがもたらされました。しかし、データウェアハウスには、エクセルで作成されたような構造化データ(あらかじめ決められた管理構造に従って格納されたデータ)の処理には適しているが、非構造化・半構造化データといったそのままでは利用できない複雑なデータ(文章や音声、画像など)の処理には適していないという問題があり、近代ビジネスが必要とする高速で多様なデータの大規模処理においては課題がありました。データウェアハウスは、そういった最新のデータ処理を前提としたユースケースには適しておらず、コスト効率的にも最適なソリューションではありません。
データウェアハウス(DWH)とは?
closed_qa
https://www.databricks.com/jp/blog/2020/01/30/what-is-a-data-lakehouse.html?itm_data=lakehouse-link-lakehouseblog
データレイクは、規模に関係なく、画像・動画・メールのログなどの非構造化データを、生データのまま格納できる場所のことを指します。 データウェアハウスの利用が進み、多くの企業で複数のソースからの膨大なデータ収集が可能になるにつれて、アーキテクトによる単一システムの構想が生まれました。さまざまな分析プロダクトやワークロードのデータを単一のシステムに集約するという構想です。そしておよそ 10 年前に多様な形式の生データ用レポジトリ(保管場所)である「データレイク(Data Lake)」の構築が始まりました。データレイクはデータの格納には適していました。しかし、重要な機能が欠けており、トランザクションのサポートやデータ品質の保証がありません。一貫性と分離性の欠如により、アペンド(データをファイルなどに追加する操作)と読み取り、バッチとストリーミングジョブ(データをリアルタイムで処理)を混在させることはほぼ不可能です。データレイクは、これらの理由から本来の目的の達成には至っておらず、データスワンプ(活用ができないデータが大量に溜まっている)状態となっているのが実情です。 一方で、柔軟で高性能なシステムに対するニーズは高まり続け、多くの企業が、SQL 分析、リアルタイムの監視、データサイエンス、機械学習など、多様なデータアプリケーションに対応するシステムを必要としています。AI を最大限に活用するには、非構造化データ(テキスト、画像、動画、音声など)の処理能力を高めることが不可欠ですが、非構造化データはまさに、データウェアハウスが得意としないデータ形式です。非構造化データの処理には、一般的に複数のシステムが使用されます。データレイクと複数のデータウェアハウスに加えて、ストリーミング、時系列、グラフ、画像データベースのような特殊システムなどが導入されます。複数のシステムの使用は複雑さを招き、さらに大きな問題となる遅延を引き起こします。異なるシステム間のデータの移動やコピーが必要になるためです。
データレイク(Data Lake)とは?
closed_qa
https://www.databricks.com/jp/blog/2020/01/30/what-is-a-data-lakehouse.html?itm_data=lakehouse-link-lakehouseblog
データレイクの限界に挑む新しいシステムとして登場したデータレイクハウスは、データレイクとデータウェアハウスの優れた要素を取り入れた新しいオープンアーキテクチャです。新たなシステムデザインによって構築されており、データウェアハウスと類似のデータ構造とデータ管理機能を、オープンフォーマットで低コストのクラウドストレージに直接実装しています。データレイクハウスは、安価で信頼性の高いストレージ(オブジェクトストア形式)が利用可能になった今、最新のニーズに対応するデータウェアハウス構築のための最善策と言えるでしょう。
次世代のデータ管理システム「データレイクハウス」とは
closed_qa
https://www.databricks.com/jp/blog/2020/01/30/what-is-a-data-lakehouse.html?itm_data=lakehouse-link-lakehouseblog
データレイクハウスの主な特徴は次のとおりです。 トランザクションのサポート:エンタープライズにおけるデータレイクハウスでは、多くのデータパイプラインがデータの読み取り・書き込みを同時に行います。ACID トランザクションのサポートにより、SQL などを利用したデータの読み取り・書き込みを複数のユーザーが同時に実行する場合でも一貫性が保たれます。 スキーマの適用とガバナンス:データレイクハウスは、スタースキーマ、スノーフレークスキーマなどの DW スキーマのアーキテクチャをサポートし、スキーマの適用と進化をサポートすることを期待されています。システムはデータの整合性を判断する能力および、堅牢なデータガバナンスと監査メカニズムを備えていなければなりません。 BI ツールをサポート:データレイクハウスでは、ソースデータに対して直接 BI (ビジネスインテリジェンス)ツールを使用できます。これにより、データの陳腐化の低減、最新性の向上、レイテンシー(データ転送における通信の遅延時間)の低減が可能になり、データレイクとデータウェアハウスの両方でデータコピーを重複して保持することによるコストを削減します。 コンピューティングとストレージを分離:これは、ストレージとコンピューティングが別々のクラスタを使用することを意味します。したがって、同時に利用するユーザー数やデータサイズの増大にあわせた拡張が容易になります。最新のデータウェアハウスの中には、このような特徴を持つものもあります。 オープン性:データレイクハウスでは、Parquet のようなオープンで標準化されたストレージ形式が使用されています。API を提供し、機械学習や Python/R ライブラリなど、さまざまなツールやエンジンからデータへの効率的な直接アクセスを可能にしています。 構造化・非構造化データのサポート:データレイクハウスは、構造化、非構造化、半構造化データをサポートし、画像、動画、音声、テキストなど、最近のデータアプリケーションに必要なデータ形式の保存、調整、分析、アクセスを可能にします。 多様なワークロードのサポート:データレイクハウスは、データサイエンス、機械学習、SQL、分析など、さまざまなワークロードをサポートします。ワークロードの種類によっては専用のツールが必要な場合もありますが、その場合でも、同じデータリポジトリが使用されます。 エンドツーエンドのストリーミング:企業の多くがリアルタイムのレポート作成を当然のこととしています。データレイクハウスでは、ストリーミングがサポートされるため、リアルタイムのデータアプリケーション専用のシステムを別途用意する必要がありません。 データレイクハウスの上記のような特徴の他に、エンタープライズグレードのシステムでは追加機能が必要となります。例えば、セキュリティやアクセス制御の機能です。昨今のプライバシー規制に対応するための監査、保持、リネージなどのデータガバナンス機能は不可欠になっており、データカタログやデータ使用量指標などのデータを抽出するためのツールも必要です。データレイクハウスでは、このようなエンタープライズ機能を単一のシステムに対して実装、テスト、管理するだけですみます。
データレイクハウスの主な特徴を教えてください。
closed_qa
https://www.databricks.com/jp/product/faq
ビジネスでは、全てのデータに金塊が含まれていることが分かっています。チームの仕事はそれを見つけ出すことです。しかし、扱いにくいツールや設定の難しいインフラに囲まれている状態では、その仕事をうまくこなすことはできません。本当はビジネスで現在何が起こっているのかを解明してヒーローになりたいのに、時間はツールとの格闘にばかり費やされています。 Databricks はビッグデータを簡素化するために構築されました。Apache Spark™ は、データパイプラインを構築するための統合フレームワークを提供することで、この使命を達成するための大きな一歩を踏み出しました。Databricksは、Spark を中心に構築されたゼロ管理クラウドプラットフォームを提供することで、これをさらに推進します。Spark では、1) 完全マネージド型の Spark クラスタ、2) 調査および視覚化のための対話型ワークスペース、3) 運用パイプラインスケジューラー、4) お使いの Spark ベースのアプリケーションをk強化するプラットフォームを提供しています。もうデータの追跡に頭を悩ませる必要はありません。これからはビジネスに直結する知見を得るために注力できるようになります。
Databricks でどんな問題を解決できますか?
closed_qa
https://www.databricks.com/jp/product/faq
データサイエンティストやエンジニアから、開発者やデータアナリストに至るまで、ビッグデータから迅速かつ効率的に価値を引き出したいユーザーに最適です。対話型のワークスペースの提供により、Spark のネイティブな R、Scala、Python、SQL、インターフェースや、リモートプログラムアクセス用 REST API、オフラインで開発された任意の Spark ジョブを実行する機能、BI やドメイン固有のツールといったサードパーティ製アプリケーションに対するシームレスなサポートが可能になりました。このように Databricks により、ユーザーは、最も使いやすいインターフェースを通じてデータおよび情報を活用できます。
Databricks に適した利用者とは?
closed_qa
https://www.databricks.com/jp/product/faq
Databricks は、金融サービス、医療、小売、メディア&エンターテインメント、公益事業など、さまざまな分野の企業で使用されています。コア ETL、データの発見と深掘り、データウェアハウス、データ製品のデプロイ、ダッシュボードを使用した社内外向けの情報の公開など、幅広いユースケースで、当社のプラットフォームをご利用いただいています。
Databricks はどのように使用されていますか?
closed_qa
https://www.databricks.com/jp/product/faq
そのとおりです。企業は大量のデータを蓄積していますが、ビッグデータの分析プロセスには、インフラ管理、プロビジョニング上のボトルネック、取得や管理にかかる高額のコストなど、多くの障壁が存在します。Databricks は、これら全ての障害を取り除くように設計されています。私たちはビッグデータを企業にとって扱いやすいものにし、ビジネスアプリケーションの Excel のように、一般的な存在にしたいと考えています。
Databricks を使用することで、企業は Apache Spark を容易に導入できるようになりますか?
closed_qa
https://www.databricks.com/jp/product/faq
Databricks は、バークレー大学で Spark の研究プロジェクトを開始したチームによって開発され、後に Apache Spark™ になりました。Databricks は、オープンソースコミュニティと連携してプロジェクトの拡大を続けています。当社は、他のどの企業よりも多くのコードを Spark に提供してきました。また、Spark の開発者、システムインテグレーター、アプリケーション、ディストリビューター、トレーナー向けに、Databricks 認定プログラムも提供しています。さらに当社では、データサイエンス、エンジニアリング、ビジネスを統合してイノベーションを加速する、統合分析プラットフォームの Databricks も開発しました。
Databricks と Apache Spark はどのように関係していますか?
closed_qa
https://www.databricks.com/jp/product/faq
Databricks の料金については、料金ページでご確認ください。https://www.databricks.com/jp/product/pricing
Databricks の料金設定を教えてください。
closed_qa
https://www.databricks.com/jp/product/faq
はい、利用可能です。現在、業種やユースケースを問わず多くの企業が Databricks を活用して、大規模な運用ジョブを実行しています。こちらから開始してください。
Databricks は、現在利用可能ですか?
closed_qa
https://www.databricks.com/jp/product/faq
はい。Databricks なら、Apache Spark アプリケーションの開発、テスト、およびデプロイを簡単に実施できます。また ODBC/JDBC 接続、標準の Spark API、およびサードパーティ製アプリケーション用のネイティブ REST API が提供されています。
Apache Spark アプリケーションの開発者が Databricks を利用することはできますか?
closed_qa
https://www.databricks.com/jp/product/faq
Databricks は現在、ブラウザベースのファイルアップロード、Azure Blob Storage、AWS S3、Azure SQL Data Warehouse、Azure Data Lake Store、Cosmos DB などの NoSQL データストア、Cassandra、Elasticsearch 、JDBC データソース、HDFS、Sqoop、および Apache Spark によってネイティブにサポートされている他のさまざまなデータソースをサポートしています。
Databricks にデータを取り込むにはどうすればよいですか?
closed_qa
https://www.databricks.com/jp/product/faq
セキュリティと耐障害性は Databricks にとって最優先事項であり、Databricks の製品は、適切な認証および隔離メカニズムによってゼロから構築されています。詳しくは、セキュリティページをご覧ください。https://www.databricks.com/jp/trust
Databricks には、どのようなセキュリティ機能が含まれていますか?
closed_qa
https://www.databricks.com/jp/product/faq
Databricks は 100% Apache Spark を実行しています。そのため、そのうえで開発されたコードやアプリケーションは、Apache Spark に対応する任意のディストリビューション (例: Databricks 認定ディストリビューション) で実行可能です。
Databricks は、他の Apache Spark との相互運用が可能ですか?
closed_qa
https://www.databricks.com/jp/product/faq
現在、Databricks は Microsoft Azure、Amazon AWS、Google Cloud で利用可能です。
Databricks は、他のクラウドプラットフォーム上で利用できますか。
closed_qa
https://www.databricks.com/jp/product/faq
はい。Databricks は各アカウントの VPC に全てがデプロイされ、セキュリティと隔離の追加レイヤーが提供されます。
Databricks を自分のアカウントに導入する際、隔離メカニズムは提供されますか。
closed_qa
https://www.databricks.com/jp/product/faq
現在のところ、実行できません。ただし、Databricks では他のデプロイメントシナリオも継続的に研究しており、そこにはオンプレミスのクラスターも含まれています。
Databricks を自社のデータセンターやクラスターで実行できますか?
closed_qa
https://www.databricks.com/jp/product/faq
Databricks のユーザーは、それぞれの認証情報を使用して、自分のデータストアからのデータの読み取りやデータストアへのデータの保持を実施します。
Databricks はユーザーのデータを保持しますか?
closed_qa
https://www.databricks.com/jp/product/faq
いいえ、その必要はありません。ほとんどの場合、現在のデータソースからデータにアクセスできます。
データを Databricks の AWS アカウントに転送する必要がありますか?
closed_qa
https://www.databricks.com/jp/product/faq
Databricks アカウントにユーザーを追加することで、データやノートブックへのアクセスを管理できます。Databricks アカウントに追加されると、プラットフォームにアクセスできるようになります。
私のデータやノートブックにアクセスできるのは誰ですか?
closed_qa
https://www.databricks.com/jp/product/faq
詳しい情報は、セキュリティページをご覧ください。https://www.databricks.com/jp/trust
Databricks のセキュリティの詳細については、どこで確認できますか?
closed_qa
https://www.databricks.com/jp/product/faq
Databricks のお客さまは、データの制御と所有の権利を有しています。詳しくは、Databricks のサービスチームにお問い合わせください。またプライバシーポリシーもご覧ください。
顧客データに対するクラウドプロバイダーの権利を教えてください。
closed_qa
https://www.databricks.com/jp/product/faq
Databricks は、既に業界のベストプラクティスに基づいて独自のセキュリティアーキテクチャを実装しています。さらに SANS のインターネットセキュリティ対策トップ 20、コンセンサス監査ガイドライン、NIST ガイドライン、そしてインターネット標準といった、より高い基準を達成するよう継続的に取り組んでいます。また Databricks では、Databricks の完全性に影響を及ぼす可能性があるアプリケーションまたはネットワークレベルのセキュリティ問題を特定する、セキュリティ機能を標準で保持しています。
Databricks は、業界のどのようなセキュリティ管理やプラクティスに従っていますか。
closed_qa
https://www.databricks.com/jp/product/faq
AWS は、事業継続プログラム(AWS 事業継続とディザスタリカバリ)を提供しています。Databricks は、複数の地域、複数のアベイラビリティーゾーン、あるいは複数のデータセンターで実行できるように設計されています。
Databricks には、事業継続計画が用意されていますか?
closed_qa
https://www.databricks.com/jp/product/faq
Databricks では、包括的なエンタープライズセキュリティを提供しています。また、[email protected] 宛てにメールでお問い合わせいただくこともできます。
Databricks のセキュリティについて詳しく知る方法はありますか?
closed_qa
https://www.databricks.com/jp/glossary
分析に関する遺伝学の一分野です。その主な役割は、DNA のシーケンス全体、または DNA を構成する原子の組成、および DNA 原子間の化学結合を決定することです。ゲノミクスの分野は、全体構造としてのゲノムに重点を置いており、生物の完全な遺伝物質の研究として定義することができます。DNA は 1869 年に初めて単離されましたが、ゲノミクスは、科学者が単純な生物の DNA シーケンスを決定した 1970 年代に始まったばかりです。ゲノミクスの分野で最大のブレークスルーは、自由生活性有機体であるインフルエンザ菌の全ゲノムシーケンスが完成した 1995 年に起こりました。ヒトゲノム計画は、ヒトゲノムの 30 億文字全てをシーケンシングすることを目的として 1990 年に開始されました。染色体 22 は、1999 年にこの計画の一環としてシーケンシングされた最初の染色体です。国際ヒトゲノム配列コンソーシアムは、2001 年 2 月にヒトゲノムの最初の草稿を学術誌ネイチャーに発表し、ゲノム全体の 30億塩基対のシーケンスの約 90% を完了しました。全てのシーケンシングは 2003 年 4 月に完了し、公開されました。進化するゲノミクスの分野には、一般的に次に挙げるいくつかの重要な研究分野が含まれています。
ゲノミクスとは?
closed_qa
https://www.databricks.com/jp/glossary
IBM によると、デジタルツインの従来の定義は、「物理オブジェクトを正確に反映するように設計された仮想モデル」です。デジタルツインは、離散的または連続的な製造プロセスにおいて、さまざまな IoT センサー(OT:運用技術データ)やエンタープライズデータ(IT:情報技術)を用いてシステムやプロセスの状態データを収集し、仮想モデルを形成します。このモデルは、シミュレーションの実行、性能の問題の調査、知見の抽出に使用できます。 デジタルツインの概念は、特に新しいものではありません。実際、最初の申請は、25 年以上前に行われました。ロンドンにあるヒースローエクスプレスの鉄道施設における基礎工事とコファダム工事の初期段階で、基礎のボアホールグラウティングを監視・予測するためのものであったと報告されています。この最初の申請から数年後、エッジコンピューティングや AI、データ接続性、5G 通信、モノのインターネット(IoT)の改善や機能向上により、デジタルツインは費用対効果が高い手段となり、現在のデータドリブンなビジネス環境において必須となっています。
デジタルツインとは?
closed_qa
https://www.databricks.com/jp/glossary
Datasetとは、Java および Scala 用のタイプセーフなSparkの構造化APIです。Python および R は動的型付け言語であるため、この API の使用はできませんが、Scala や Java で大規模なアプリケーションを作成するためには強力なツールです。DataFrame は、Row 型のオブジェクトの分散型コレクションであり、さまざまなタイプの表形式データを保持できます。Dataset API を使用すると、データフレーム内のレコードに Java クラスを割り当て、Java の ArrayList や Scala の Seq と同様に、型付きオブジェクトのコレクションとして処理できます。Dataset で使用できるAPIはタイプセーフで、Dataset 内のオブジェクトを、最初に配置したクラスとは別のクラスのものとして誤って表示することはありません。このため、明確に定義されたインターフェースを介してやりとりする必要のある大規模なアプリケーションを作成する場合、Dataset はソフトウェアエンジニアにとって魅力的です。Dataset クラスは、内部に含まれるオブジェクトの型でパラメータ化されます。Java では Dataset、Scala では Dataset[T]です。Spark 2.0では、サポートされるT型は Java の JavaBean パターンに従う全てのクラスと、Scala のケースクラスで、Spark が自動的にT型を分析し、Dataset内の表形式データに適切なスキーマを作成する必要があるため、これらの型は制限されます。
データセットとは?
closed_qa
https://www.databricks.com/jp/glossary
Data Vault(データボルト)とは、データモデリングのデザインパターンで、エンタープライズ規模の分析向けのデータウェアハウスを構築する際に使用されます。データボルトには、ハブ、リンク、サテライトの 3 種類のエンティティがあります。ハブは、ビジネスの中核となるコンセプトを、リンクは、ハブ間のリレーションシップを表します。サテライトは、ハブに属する情報やハブ間のリレーションシップに関するデータを格納します。データボルトは、レイクハウスのパラダイムを採用する組織に適したデータモデルです。
データボルトとは?
closed_qa
https://www.databricks.com/jp/glossary
データボルトに様々なメリットがあります。1. アジャイル, 2. 構造化され、リファクタリングに柔軟に対応, 3. ペタバイト規模にも対応する優れたスケーラビリティ, 4. ETL コード生成をサポートするパターンを使用, 5. データレイヤー、ETL、スタースキーマなど、現行のアーキテクチャを使用可能。 データボルトは、アジャイルな方法と技術に基づいているため、急速に変化するビジネス要件に適応できます。データボルトの手法を利用する大きなメリットは、モデルが変更された場合に、ETL ジョブのリファクタリングが少なくて済むことです。
データボルトのメリットは何ですか?
closed_qa
https://www.databricks.com/jp/glossary
データマートは、テーブルのセットを含むキュレートされたデータベースです。単一のデータチームやコミュニティ、マーケティングやエンジニアリング部門といった基幹業務の特定のニーズに対応できるよう設計されています。データマートは通常、データウェアハウスよりも小規模で、特定の目的に特化しています。一般的には、大規模なエンタープライズのデータウェアハウスのサブセットとして扱われ、分析や BI(ビジネスインテリジェンス)、レポーティングに使用されます。データマートは、中央データウェアハウスとデータレイクの物理的現実における最初の進化的ステップでした。エーシーニールセンは、1970 年代初頭に、情報をデジタル保存し販促活動を促進するための最初のデータマートを顧客に提供しました。
データマートとは?
closed_qa
https://www.databricks.com/jp/glossary
データマートの特徴は以下6点あります。1. 通常、データマートの構築や管理は企業のデータチームが行いますが、各事業部署の専門家が組織的に行うことも可能です。2. 企業のデータスチュワードがデータマートを管理し、エンドユーザーは読み取り専用の権限が設定されます。これは、技術に精通していないユーザーによる重要なビジネスデータの誤った削除、変更を防ぐためです。3. 一般的には、ディメンションモデルとスタースキーマが使用されます。4. データマートは、大規模なデータウェアハウスからキュレートされたデータのサブセットを含んでいます。データは高度に構造化され、データチームによってデータクレンジングと適合化が施されて容易に理解、参照できるようになっています。5. データマートは、特定の基幹業務やユースケースに特有のニーズにあわせて設計されています。6. 基本的に、ユーザーは、SQL コマンドを使用してデータを参照します。
データマートの特徴は何?
closed_qa
https://www.databricks.com/jp/glossary
データマートには、基本的に 3 つの種類があります。1. 独立型データマート:データウェアハウスの一部ではなく、エーシーニールセンが提供した最初のデータマートと非常によく似ています。通常、1 つの領域または対象領域に特化しています。データソースには、外部ソースと内部ソースの両方を含めることができます。データは変換、処理、データマートにロードされ、必要になるまで保存されます。 2. 従属型データマート:既存のデータウェアハウスに従属する形で存在するデータマートです。トップダウンのアプローチを採用し、あらゆるデータを一元的に保存できます。何かしらの目的でデータを使用する際は、明確に定義されたデータのセクションを選択できます。 3. ハイブリッド型データマート:データウェアハウスだけではなく、それ以外の独自のデータソースから取得したデータを組み合わせて使用します。これは、組織に追加された新たなグループや製品をアドホックに統合する場合など、さまざまな状況で役立ちます。ハイブリッド型データマートは、複数のデータベースが存在する環境に適しており、短期間で導入できます。このようなシステムはデータクレンジングを容易にし、小規模なデータセントリックのアプリケーションと相性が良いとされています。
データマートは何種類がありますか?
closed_qa
https://www.databricks.com/jp/glossary
データマートのメリットは、基本的に2つあります。1. 信頼できる唯一の情報源(SSOT):データマートは、特定の基幹業務の単一のデータソースとして機能します。業務に関わる全ての人が同一の事実とデータに基づいて作業することを可能にします。2. 業務効率化をサポートするシンプルさ:ユーザーは、必要なデータを見つけるためにデータウェアハウス全体を調べたりテーブルを結合したりする必要はなく、あらかじめ精選されたデータマートで、必要なデータに容易にアクセスできます。
データマートのメリットは何ですか?
closed_qa
https://www.databricks.com/jp/glossary
エンタープライズデータウェアハウスは、その企業における全てのデータ管理ニーズに対応するために善意で作成されています。しかし、各事業部署によってデータのニーズや目的が異なるため、あらゆるユーザーのニーズを満たすことはできません。そのため、各部門ではセルフサービスでの分析や、部門のレポーティングのニーズを満たすべく、時には IT 部門のサポートを受けながら、特定のデータウェアハウスの対象領域を拡張し、データをコピーして、独自のデータマートを作成しています。その結果、各部門のニーズを満たしたとしても、時間が経つにつれて、データのサイロ化やシャドーコピーの原因になります。また、多くの部署でこのようなことが行われている場合、組織内で信頼できる単一のデータソースが存在しなくなってしまいます。
データマートにおける課題は何ですか?
closed_qa
https://www.databricks.com/jp/glossary
レイクハウスは、企業内に存在するデータウェアハウスとデータマートを単一のプラットフォーム上に設置し、セキュリティとガバナンスを統一することで、データマートの課題を解決しています。同時に、各チームが独自システムを持つことができる柔軟な環境を提供します。また、データマートや「拡張コピー」は、他の全てのデータと同じレイクハウスプラットフォーム上で作成されるため、類似したコピーの複製を防止できます。レイクハウスのデータカタログにより、重複コピーを発見し、タグ付けやデータ辞書の使用などのデータガバナンスルールを使用して、誰もが拡張コピーを発見できるようになります。
レイクハウスはデータマートの課題をどのように解決するか
closed_qa
https://www.databricks.com/jp/glossary
データ共有とは、同じデータを複数のユーザーで利用できるようにすることです。増加し続けるデータは、あらゆる企業にとって重要な戦略的資産です。組織内外におけるデータ共有は、新たなビジネスチャンスを生み出すカギとなる技術です。外部データを利用するだけでなく、データを共有することで、パートナーとのコラボレーション、新たなパートナーシップの確立、データのマネタイズによる新たな収益源の確保が可能になります。
データ共有とは?
closed_qa
https://www.databricks.com/jp/glossary
Delta Sharing は、セキュアなデータ共有のための世界初のオープンプロトコルです。使用しているコンピューティングプラットフォームを問わず、組織内外でのデータ共有を容易にします。 ・ライブデータを直接共有:Delta Lake にある既存のライブデータを、他のシステムにコピーすることなく容易に共有できます。 ・さまざまなクライアントに対応:データ受信者は、特定のコンピューティングプラットフォームを事前導入しなくても、Pandas、Apache Spark™、Rust、その他のシステムから Delta Sharing に直接アクセスできるため、データ送信における摩擦が軽減されます。 ・セキュリティとガバナンス: Delta Sharing では、共有データセットへのアクセスの管理、追跡、監査を容易に行うことができます。 ・スケーラビリティ:S3、ADLS、GCS などのクラウドストレージシステムを活用することで、大規模なデータセットを確実かつ効率的に共有できます。
Delta Sharing
closed_qa
https://www.databricks.com/jp/glossary
メダリオンアーキテクチャとは、レイクハウスのデータを論理的に整理するために用いられるデータ設計を意味します。データがアーキテクチャの 3 つのレイヤー(ブロンズ → シルバー → ゴールドのテーブル)を流れる際に、データの構造と品質を増分的かつ漸次的に向上させることを目的としています。メダリオンアーキテクチャは、「マルチホップ」アーキテクチャとも呼ばれます。
メダリオンアーキテクチャとは?
closed_qa
https://www.databricks.com/jp/glossary
レイクハウスは、データレイクとデータウェアハウスの優れた要素を取り入れた新しいデータプラットフォームアーキテクチャです。モダンレイクハウスは、拡張性と性能に優れたデータプラットフォームです。未加工データと準備済みデータの両方をホストし、ビジネスにおける迅速な消費、高度な知見や意思決定を促進します。データサイロを解消し、企業全体の認証済ユーザーによる、単一プラットフォームでのシームレスかつセキュアなデータアクセスを可能にします。
レイクハウスとは?
closed_qa
https://www.databricks.com/jp/glossary
レイクハウスアーキテクチャのメリットはたくさんあります。1. シンプルなデータモデル, 2. わかりやすく、導入が容易, 3. 増分 ETL が可能, 4. 未加工データからのテーブル再作成がいつでも可能, 5. ACID トランザクション、タイムトラベル
レイクハウスアーキテクチャのメリットは何?
closed_qa
https://www.databricks.com/jp/glossary
ブロンズレイヤーでは、外部ソースシステムからのあらゆるデータを格納します。ブロンズレイヤーのテーブル構造は、ロード日時、プロセス ID などの付加的な行のメタデータに加えて、ソースシステムの「そのまま」のテーブル構造に対応します。このレイヤーは、変更データの迅速な取得、ソースの履歴アーカイブ(コールドストレージ)、データリネージ、監査性の機能を備えており、ソースシステムからデータの再読み込みなしで、必要に応じた再処理を行います。
ブロンズレイヤー(未加工データ)は何?
closed_qa
https://www.databricks.com/jp/glossary
レイクハウスのシルバーレイヤーでは、ブロンズレイヤーのデータをマッチング、マージ、フィルタリング、クレンジング(適度なレベル)し、あらゆる主要なビジネスエンティティ、コンセプト、トランザクションの「エンタープライズビュー」を提供します。(顧客マスターテーブル、店舗マスターテーブル、重複を排除したトランザクションテーブル、相互参照テーブルなど) シルバーレイヤーでは、異なるソースからのデータをエンタープライズビューに取り込み、アドホックレポート、高度な分析、機械学習などのセルフサービス分析を可能にします。シルバーレイヤーのデータは、アナリスト、データエンジニア、データサイエンティストによるプロジェクトや分析のソースとなり、ゴールドレイヤーの企業や部門のデータプロジェクトにおいて、ビジネス上の課題の解決を支援します。 レイクハウスのデータエンジニアリングでは、一般的に、ETL ではなく ELT 処理が行われます。これは、シルバーレイヤーにデータがロードされる際に、最小限、あるいは「適度な」変換およびデータクレンジングルールのみが適用されることを意味します。データレイクでのデータの取り込みや供給における迅速性と俊敏性が優先され、シルバーレイヤーからゴールドレイヤーにデータがロードされる際には、プロジェクト特有の複雑な変換やビジネスルールが多く適用されます。データモデリングに関しては、シルバーレイヤーは第 3 正規形に近いデータモデルを備えています。このレイヤーでは、Data Vault のような書き込み可能なデータモデルを使用できます。
シルバーレイヤー(クレンジング・適合済みデータ)は何?
closed_qa
https://www.databricks.com/jp/glossary
レイクハウスのゴールドレイヤーにあるデータは、通常、消費可能な「プロジェクト専用」データベースに整理されています。ゴールドレイヤーはレポート作成に適しています。結合が少なく、より非正規化され、読み取りが最適化されたデータモデルを使用しています。データ変換とデータ品質ルールの最終レイヤーです。顧客分析、製品品質分析、インベントリ分析、顧客セグメンテーション、商品推薦、マーキング/販売分析などのプロジェクトにおける最終プレゼンテーションレイヤーです。多くのキンボール式スタースキーマベースのデータモデル、またはインモン式データマートは、レイクハウスのこのゴールドレイヤーに適合します。 このように、データはレイクハウスの異なるレイヤーを移動する際に、キュレートされます。従来の RDBMS テクノロジースタックのデータマートや EDW をレイクハウスに取り込み、企業における初の「汎 EDW」の高度な分析や機械学習を可能にするケースもあります。従来のスタックでは不可能、あるいはコストがかかりすぎるため、実現されていなかったことです。(IoT/製造業データと営業・マーケティングデータを連携させ、欠陥分析やヘルスケアゲノミクス解析を行う、EMR/HL7 臨床データ市場と金融債権データの連携によりヘルスケアデータレイクを構築してタイムリーな患者ケアの分析や改善を行うなど)。
ゴールドレイヤー(ビジネスレベルのキュレート済みテーブル)は何?
closed_qa
https://www.databricks.com/jp/glossary
はい、メダリオンアーキテクチャは、データメッシュのコンセプトと互換性があります。ブロンズとシルバーのテーブルは「1 対多」方式で結合できるため、1 つのアップストリームテーブルのデータを使用して、複数のダウンストリームテーブルを生成できます。
メダリオンアーキテクチャとデータメッシュの互換性がありますか?
closed_qa