context
stringclasses 6
values | source
stringlengths 0
149
| response
stringlengths 4
1.6k
| instruction
stringlengths 5
137
| category
stringclasses 1
value |
---|---|---|---|---|
https://www.databricks.com/jp/glossary | 金融商品やサービスのコモディティ化が進み、メディアや小売業界がパーソナライズされた体験を好むようになったことで、消費者の目は肥えてきています。消費者から求められるものが日々変化していく中で、銀行がこれからも必要とされ続けるためには、パーソナライズされた知見やレコメンド、財務目標の設定、レポート機能といった従来の銀行業務を超えた魅力的な銀行体験を提供する必要があり、これらは全て地理空間や自然言語処理(NLP)などの高度な分析機能によって実現されます。金融サービスのパーソナライズは、オープンファイナンスとも呼ばれ、データ共有の原則に基づき、銀行が顧客のニーズに特化した幅広い可能性を提供できるようにするものです。金融サービスのパーソナライズは、オープンバンキング(次節参照)の標準採用と、世界中で変わり続ける規制によって実現されます。 | 金融サービスのパーソナライズとは? | closed_qa |
|
https://www.databricks.com/jp/glossary | データベースやデータストレージシステムにおけるトランザクションとは、1 つの作業単位として扱われるあらゆる操作のことです。トランザクションは、完全に実行される、もしくは全く実行されないかのいずれかで、ストレージシステムを一貫した状態に保ちます。トランザクションの典型的な例として、銀行の預金口座から現金を引き出す処理が挙げられます。この場合、預金口座から現金を引き出したか、もしくは全く引き出さなかったか、どちらかの処理が発生し、中間の状態はありません。 | データベースやデータストレージシステムにおけるトランザクションとは? | closed_qa |
|
https://www.databricks.com/jp/glossary | ACID とは、トランザクションを定義する4つの重要な特性、Atomicity(原子性)、Consistency(一貫性)、Isolation(独立性)、Durability(永続性)の頭文字をとった略語です。データベース操作にこれらの ACID 特性がある場合は、ACID トランザクションと呼ぶことができます。また、これらの操作を適用したデータストレージシステムは、トランザクションシステムと呼ばれます。ACID トランザクションにより、テーブルの読み取り、書き込み、変更の各処理で次の特性が保証されます。
・原子性(A):トランザクションの各ステートメント(データの読み取り、書き込み、更新、削除)は、1 つの単位として扱われます。ステートメントは、実行されるか、あるいは全く実行されないかのいずれかです。この特性は、ストリーミングデータソースがストリーミングの途中で障害が発生した場合などに、データの損失や破損が発生するのを防ぎます。
・一貫性(C):トランザクションがテーブルに、事前定義された予測可能な方法でのみ変更を加えることを保証します。トランザクションの一貫性により、データの破損やエラーが起きた場合でもテーブルの整合性を保ち、意図しない実行結果を防ぎます。
・独立性(I):複数のユーザーが同じテーブルで読み書きを同時に実行しても、トランザクションが分離され、同時進行のトランザクションが相互に干渉したり、影響を受けたりしないようにします。実際は、同時に発生していも、各要求は単独で発生しているように扱われます。
・永続性(D):システム障害が発生した場合でも、正常に実行されたトランザクションによるデータの変更が保存されることを保証します。 | ACID とは? | closed_qa |
|
https://www.databricks.com/jp/glossary | ACID トランザクションは、データの信頼性と整合性を最大限に高めます。部分的にしか操作を完了できなかった場合でも、データの一貫性を保つことができます。例えば、データベースのテーブルへの書き込み中に、予期せず電源が切れた場合、ACID トランザクションがなければ、データは一部のみ保存され、残りは保存されない可能性があります。その結果、データベースの一貫性は失われ、復旧は困難で時間のかかるものとなります。 | ACID トランザクションによるメリットは何ですか? | closed_qa |
|
https://www.databricks.com/jp/glossary | ACID トランザクションは、これまでデータウェアハウスのみが持つ特性でしたが、Delta Lakeは、データレイクにACID トランザクションを提供します。これにより、新たなデータがテーブルに書き込まれても、ユーザーは、データの一貫性のあるリアルタイムなビューを見ることができます。各書き込みは、順序付けられたトランザクションログに記録される独立したトランザクションとなるためです。Delta Lake は、最高レベルの独立性(直列化可能な独立性)を採用し、1 つのテーブルでの読み取り/書き込みの一貫性と信頼性を確保しています。ACID トランザクションの実装により、Delta Lake は、ラムダアーキテクチャの問題である複雑さ、データの誤表示、ラムダパイプラインが壊れた後に必要となるリワークや再処理などを効果的に解決します。また、ユーザーは、データに対して複数の同時トランザクションを実行できます。データソースやストリームでエラーが発生した場合でも、Delta Lake は、トランザクションの実行を中止し、データをクリーンで元の状態に保つことを保証します。ACID トランザクションによる大きなメリットは、ユーザーが Delta Lake のデータを信頼できることです。データアナリストは、ダッシュボードの準備の ETL 実行に Delta Lake を使用することで、データアナリストが見ている KPI が、データの実際の状況を表していることを信用できます。機械学習のエンジニアは、特徴量エンジニアリングに Delta Lake のテーブルを利用することで、変換や集約が意図したとおりに実行できているか、または全く実行できなかったかを確信できます(その場合、通知を受けます)。データに対して持っているメンタルモデルが、実際のデータに反映していると信頼できる価値は計り知れません。 | Delta Lakeはデータレイクにどういう特性を提供します? | closed_qa |
|
https://www.databricks.com/jp/glossary | AdaGradはAdaptive Gradient Algorithmの略です。Adaptive Gradient Algorithm (Adagrad)は勾配に基づいて最適化するアルゴリズムです。過去の観測データに関する情報を取り入れることで、学習率がベクトルの要素ごとにパラメータに適用されます。低頻度の特徴に関連するパラメータには更新量を増やし(高い学習率など)、高頻度の場合は更新量を減らします(低い学習率)。Adagradの更新量は小さいため、スパースデータ(NLPや画像認識)の処理に適しています。各パラメータには固有の学習率があり、スパースな勾配に伴う問題解決能力が向上します。 | AdaGradとは何ですか? | closed_qa |
|
https://www.databricks.com/jp/glossary | AdaGrad を使用するメリットはいくつあります。1. 手動による学習率のチューニングが不要。2.重みのスケーリングが異なる場合、シンプルな確率的勾配降下法と比較して収束が高速で確実。3. マスターステップのサイズの影響をあまり受けない | AdaGrad を使用するメリットは何? | closed_qa |
|
https://www.databricks.com/jp/glossary | Apache Hive は、Apache Hadoop 分散ファイルシステム (HDFS) から抽出された大規模なデータセットの読み取り、書き込み、および管理を行うために設計されたオープンソースのデータウェアハウスソフトウェアで、より規模の大きい Hadoop エコシステムの側面も持ち合わせています。
Apache Hiveの豊富なドキュメントと継続的なアップデートにより、Apache Hiveはアクセスしやすい方法でデータ処理に革新を起こし続けます。 | Apache Hive とは? | closed_qa |
|
https://www.databricks.com/jp/glossary | Apache Hive は、HDFS や Amazon S3、Azure Blob Storage、 Azure Data Lake Storage、Google Cloud Storage、Alluxio といった Hadoop 互換のファイルシステムに格納された大規模データの分析をサポートします。スキーマオンリードで HiveQL という SQL ライクなクエリ言語を提供し、クエリを Apache Spark、MapReduce、Apache Tez のジョブに透過的に変換します。
その他の Hive の特徴は以下のとおりです。1. Hive データ関数により、大規模なデータセットの処理やクエリをサポートします。これらの関数が提供する機能には、文字列操作、日付操作、型変換、条件演算子、数学関数などがあります。2. リレーショナルデータベース管理システム(RDBMS)にメタデータを格納します。3. Parquet、プレーンテキスト、RCFile、HBase、ORC(Optimized Row Columnar)といったさまざまなストレージタイプに対応しています。4. Hadoop エコシステムに格納された圧縮データをアルゴリズムで操作します。5. ユーザー定義関数(UDF)が組み込まれており、日付、文字列、その他のデータマイニングツールを操作します。Hive では、組み込み関数が用意されていないユースケースを処理するために、UDF セットの拡張をサポートしています。6. SQL ライクなクエリ言語の HiveQL が、内部的に MapReduce や Tez、Spark のジョブに変換されます。 | Hive の特徴は何? | closed_qa |
|
https://www.databricks.com/jp/glossary | Apache Hive インフラストラクチャの中心的なリポジトリであるメタストアには、Hive のすべてのメタデータが保存されています。メタストアでは、メタデータを Hive テーブル とパーティションにフォーマットして、リレーショナルデータベース間でデータを比較することも可能です。メタデータには、テーブル名、カラム名、データ型、パーティション情報、HDFS 上のデータ位置などが含まれます。 | Hive メタストアにどのような情報が保存されていますか? | closed_qa |
|
https://www.databricks.com/jp/glossary | Apache Hive のデータ型は、数値、日付/時間、文字列、複合データ、その他の5つのカテゴリで構成されています。
1. 数値データ型: その名前が示すとおり、このデータ型は整数データがベースとなっています。データ型の例としては、「TINYINT」や「SMALLINT」、「INT」、「BIGINT」があります。
2. 日付/時間データ型: このデータ型は、時刻と日付を入力するもので、「TIMESTAMP」や「DATE」、「INTERVAL」などのデータを入力できます。
3. 文字列データ型: このデータ型も非常にわかりやすく、入力されたテキストデータ、つまり「文字列」を処理するためのデータとして実装することができます。例えば、「STRING」や「VARCHAR」、「CHAR」などのデータを入力できます。
4. 複合データ型: より高度なデータ型の一つである複合データ型は、より精巧なデータを記録し、「STRUCT」や「MAP」、「ARRAY」、「UNION」などのデータから構成されています。
5. その他のデータ型: 他の4つのカテゴリーのどれにも当てはまらないデータ型をその他のデータ型と呼び、そこには「BOOLEAN」や「BINARY」などのデータを入力できます。 | Apache Hive で使用されるデータ型は何種類がありますか? | closed_qa |
|
https://www.databricks.com/jp/glossary | リレーショナルデータベース管理システム(RDBMS)は、行または列ベースのテーブルストラクチャにメタデータを格納することで動作するデータベースモデルであり、異なるデータセットを接続して比較することができます。
RDBMS を利用することで、 Apache Hive はすべてのデータを安全、確実、かつ正確に保存、処理することができます。これは、役割ベースのセキュリティや暗号化通信などの統合機能により、抽出した情報へのアクセス権限が適切な人のみに付与できることにより実現します。 | リレーショナルデータベース管理システム(RDBMS)とは何で、 Apache Hive はそれをどのように利用するのか | closed_qa |
|
https://www.databricks.com/jp/glossary | Apache Hive と RDBMS には、いくつかの重要な違いがあります。1. RDBMS の機能が何度も読み取り/書き込みを行うのに対し、Hive では一度だけ書き込み、何度も読み取りを行います。2. Hive は、スキーマオンリードのルールに従っており、データのチェックやパース、検証は行わず、ファイルのコピーや移動のみを行います。一方、従来のデータベースでは、スキーマオンライトのルールに従って、テーブルにスキーマが適用されます。3. Hive は Hadoop 上に構築されているため、Hadoop や MapReduce と同じ制限に準拠する必要があります。他の RDBMS は、その限りではありません。 | Apache Hive と従来の RDBMS の違いは何? | closed_qa |
|
https://www.databricks.com/jp/glossary | Apache Spark は、様々なデータセットの大量データを処理するために設計された分析フレームワークで、 R から Python まで様々な言語をサポートできる強力なユーザーインターフェースを提供します。
Hive は、データを行、列、データ型を持つテーブルとして表現し、HiveQL と呼ばれる SQL インターフェースを使ってクエリや分析を行うための抽象化レイヤーを提供します。また、Hive は、Hive LLAP による ACID トランザクションをサポートしています。トランザクションは、複数のユーザーやプロセスが同時にデータにアクセスし、CRUD(生成、読み取り、更新、削除)操作を行う環境において、データ表示の一貫性を保証します。
Databricks が提供する Delta Lake は、ACID トランザクションを保証するという点では Hive LLAP に似ていますが、オープンソースの Delta Lake には、データアクセス時の性能と信頼性を高める利点があります。Spark SQL は、行、列、データ型を持つテーブルとして表現される構造化データを操作するための Apache Spark のモジュールです。
Spark SQL は SQL 2003 に準拠しており、データ処理の分散エンジンとして Apache Spark を使用します。Spark SQL インターフェースに加えて、DataFrames API を使用して Java、Scala、Python、R を用いてデータを操作することが可能です。Spark SQL は、HiveQL に似ています。
どちらも ANSI SQL 構文を使用しており、Hive 関数の大部分は Databricks 上で実行されます。これらの Hive 関数には、日付/時刻の変換やパース、コレクション、文字列操作、数学演算、条件付き関数が含まれます。
ただし、Hive 特有の関数には、Spark SQL に相当するものに変換が必要な関数や、Databricks 上の Spark SQL には存在しない関数があります。ANSI SQL 構文を使用した全ての HiveQL は、Databricks 上の Spark SQL で動作すると考えてよいでしょう。
ANSI SQL の集計と分析関数も含まれます。Hive は、ORC ファイル形式に最適化されており、Parquet もサポートしています。Databricks は、Parquet と Delta に最適化されており、ORC もサポートしています。Databricks では、オープンソースの Parquet をファイル形式として使用する Delta の使用を推奨しています。 | Apache HiveとApache Sparkの関係を教えてください。 | closed_qa |
|
https://www.databricks.com/jp/glossary | PrestoDB 、通称 Presto は、もともとFacebookで立ち上げられたプロジェクトで、ペタバイト規模のデータを高速に処理・分析できる分散型 SQL クエリエンジンです。Presto のインフラストラクチャは、 MySQL や Teradata から MongoDB や Cassandra まで、リレーショナルデータベースと非リレーショナルデータベースの両方の統合をサポートしています。 | PrestoDBとは? | closed_qa |
|
https://www.databricks.com/jp/glossary | Apache Kudu とは、Apache Hadoop 向けに開発された無料のオープンソースの列指向ストレージシステムです。構造化データ用エンジンで、各行への低遅延でランダムなミリ秒スケールのアクセスに加えて、優れたアクセスパターン分析もサポートします。広く普及している Hadoop 分散ファイルシステム(HDFS)と NoSQL データベースの HBase 間をつなぐために作成されたビッグデータエンジンです。 | Apache Kudu とは? | closed_qa |
|
https://www.databricks.com/jp/glossary | Apache Kylin とは、ビッグデータの対話型分析のための分散型オープンソースのオンライン分析処理(OLAP)エンジンです。Apache Kylin は Hadoop や Spark でSQL インターフェイスと多次元分析(OLAP)を提供するよう設計されています。さらに、ODBC ドライバ、JDBC ドライバ、REST API を介して BI ツールと容易に統合します。2014年に eBay が構築した Apache Kylin は、わずか 1 年後の 2015年に Apache ソフトウェア財団(ASF)のトップレベルプロジェクトに進出し、「Best open Source Big Data Tool (最も優れたオープンソースのビッグデータツール)」を 2015 年から 2 年連続で受賞しています。現在は、ビッグデータ向けの極めて重要な分析アプリケーションとして、世界中にある数千もの企業で使用されています。他の OLAP エンジンがデータ量に苦戦している中、Kylin のクエリ応答はミリ秒単位で、データセット全体を1秒以内のクエリレイテンシでペタバイト規模にスケーリングします。Kylin は、Hive クエリ経由でさまざまな次元の組み合わせと集計測定値を事前計算し、HBase に結果を入力することで、高速化を実現しています。 | Apache Kylin とは? | closed_qa |
|
https://www.databricks.com/jp/glossary | Apache Spark は、ビッグデータのワークロードに使用するオープンソースの分析エンジンです。リアルタイム分析とデータ処理のワークロードに加えて、両方のバッチ処理が可能です。Apache Spark は 2009 年にカリフォルニア大学バークレー校の研究プロジェクトとして開発されました。それまで研究者は、Hadoop システムでのジョブ処理を高速化する方法を模索していました。Apache Spark は Hadoop MapReduce をベースとして、MapReduce モデルを拡張し、対話型クエリやストリーム処理など、より多くのタイプの計算に効率的に使用できるようになっています。プログラミング言語の Java、Scala、Python、R でバインディングをネイティブ機能として実装しています。さらに、機械学習(MLlib)、ストリーム処理(Spark Streaming)、グラフ処理(GraphX)用のアプリケーション構築を支援するライブラリもいくつか備えています。Apache Spark は Spark Core と一連のライブラリから構成され、Spark Core は Apache Spark の中核をなし、タスクの分散伝送、スケジューリング、I/O 機能を提供する役割を果たしています。また、Spark Core のエンジンは基本的なデータタイプである Resilient Distributed Dataset(RDD)の概念を使用し、その RDD は計算複雑性の大部分をユーザーから見えないように設計されています。Spark はデータ処理の方法に優れています。データとパーティションはサーバークラスタ全体で集約され、次に計算が行われて別のデータストアへ移動するか、分析モデルを使用して実行します。ファイルを保存・取得するために必要なファイルや計算リソースの保存先の指定は不要です。 | Apache Spark とは? | closed_qa |
|
https://www.databricks.com/jp/glossary | Apache Spark を使用するメリットはたくさんあります。
1. スピード。Spark では、複数の並列処理中にメモリにデータをキャッシュするため、動作が非常に高速です。Spark の主な特徴は、処理速度を高めるインメモリエンジンです。インメモリ処理での大規模なデータ処理に関しては、MapReduce と比較して最大 100 倍、ディスクでは 10 倍高速になります。Spark は、ディスク操作への読み取り/書き込み回数を減らすことによってこれを可能にします。
2. リアルタイムのストリーム処理。Apache Spark は、他のフレームワークの統合に加えて、リアルタイムのストリーミング処理を実行できます、Spark はミニバッチ単位でデータを取り込み、そのミニバッチのデータに対してRDD変換を行います。3. 複数のワークロードをサポート。Apache Spark は、対話型クエリ、リアルタイム分析、機械学習、グラフ処理など複数のワークロードを実行できます。複数のワークロードは、単一のアプリケーションにシームレスに統合可能です。
4. 操作性の向上。複数のプログラミング言語をサポートする機能により、操作が動的になります。Java、Scala、Python、R でアプリケーションを迅速に記述することができ、アプリケーション構築のための多様な言語を提供します。
5. 高度なアナリティクス。Spark は SQL クエリ、機械学習、ストリーム処理、グラフ処理をサポートしています。 | Apache Spark を使用するメリットは何? | closed_qa |
|
https://www.databricks.com/jp/glossary | Catalyst オプティマイザとは、Spark SQL で主要な役割を果たす最適化機能です。Scala のパターンマッチングや準クォートなどの高度なプログラミング言語の機能を斬新な方法で利用し、拡張可能なクエリオプティマイザを構築します。Catalyst は Scala の関数型プログラミング構造に基づいており、次の 2 つの主要な目的を想定して設計されています。1. Spark SQLへの新しい最適化技術と機能の追加を容易にする, 2. 外部の開発者でもオプティマイザの拡張を実行できるようにする(データソース特有のルール追加、新規データ型のサポートなど) | Catalyst オプティマイザとは? | closed_qa |
|
https://www.databricks.com/jp/glossary | 深層学習において、畳み込みニューラルネットワーク(CNN または ConvNet)はディープニューラルネットワークの1つの手法です。画像内のパターン認識に通常使用されますが、空間データ分析、コンピュータビジョン、自然言語処理、信号処理などさまざまな用途に対する導入事例もあります。畳み込みネットワークのアーキテクチャは人間の脳内のニューロン結合パターンに類似し、視覚野の組織構造に着想を得ました。人工ニューラルネットワーク関連のこのタイプは、ネットワークの最も重要な操作の一つである「畳み込み」から名付けられています。 | 畳み込みニューラルネットワーク(CNN または ConvNet)とは? | closed_qa |
|
https://www.databricks.com/jp/glossary | 畳み込みとは、2つの情報源が組み合わさった系統的な手法で、ある関数を別のものに変える操作です。一般的に、畳み込みは画像をぼかしたり鮮明にしたりする効果を得るために画像処理で長らく使用されてきましたが、エッジやエンボスの高度化などその他の処理にも使用されてきました。CNNは隣接する層のニューロン間における局所結合パターンを強化します。 | 畳み込みとは | closed_qa |
|
https://www.databricks.com/jp/glossary | 畳み込みニューラルネットワークの第1層は常に畳み込み層です。畳み込み層は、畳み込み演算を入力に適用し、次の層に結果を渡します。畳み込みは、その受容フィールド内の全てのピクセルを単一の値に変換します。たとえば、畳み込みを画像に適用した場合、画像サイズが縮小すると共に単一のピクセルに受容フィールド内の全情報をまとめます。畳み込み層の最終出力はベクトルです。解決すべき問題のタイプと注視している特微量の種類に基づき、各種の畳み込みを使用できます。 | 畳み込み層とは? | closed_qa |
|
https://www.databricks.com/jp/glossary | Databricks ランタイムは、データブリックスが管理するマシンのクラスタ上で実行されるソフトウェアアーティファクトのセットです。Spark はもちろん、ビッグデータ分析の操作性やパフォーマンス、セキュリティなどを大幅に向上させるコンポーネントや更新プログラムも数多く追加されています。 | Databricks ランタイム(Runtime)とは? | closed_qa |
|
https://www.databricks.com/jp/glossary | Databricks ランタイムが他のランタイムよりも優れている点は次のとおりです。
1. 優れたパフォーマンス:Databricks I/Oモジュール(DBIO)は、垂直統合スタックを活用してクラウドでのSparkのパフォーマンスを大幅に向上させます。
2. セキュリティの強化:データブリックスのエンタープライズセキュリティ(DBES)モジュールは、静止時と移動時におけるデータの暗号化、きめ細かなデータアクセス制御、監査機能を追加し、標準コンプライアンス(HIPAA、SOC2など)や大企業に求められる厳しいセキュリティ要件を満たします。
3. 運用の複雑さを大幅に低減:計算リソースやローカルストレージの自動スケーリングなどの機能により、Sparkを「自動運転」にして、運用の複雑さと管理コストを大幅に低減します。
4. 迅速なリリースと新機能への早期アクセス:オープンソースのアップストリームリリースに比べて、データブリックスの SaaS では、リリースサイクルを短縮化し、オープンソースのリリースにはまだ利用できない最新機能やバグフィックスをユーザーに提供します。 | Databricks ランタイムが他のランタイムよりも優れている点は何ですか? | closed_qa |
|
https://www.databricks.com/jp/glossary | DataFrame の概念は、多くの言語やフレームワークで共通しています。DataFrame は、柔軟かつ直感的にデータの保存や操作ができるため、最新のデータ分析で最も一般的に使用されるデータ構造の 1 つです。DataFrame にはスキーマと呼ばれる青写真が含まれており、各列の名前とデータタイプが定義されています。DataFrame の概念は、多くの言語やフレームワークで共通しています。DataFrame は、 Python のデータ分析ライブラリである pandas で主に使用されているデータ構造で、R や Scala、その他の言語でも使用されています。 | DataFrame とは? | closed_qa |
|
https://www.databricks.com/jp/glossary | DNA シーケンスとは、DNA(デオキシリボ核酸)のヌクレオチドの正確な配列を決定するプロセスです。塩基としても知られる4つの化学構成要素(アデニン、グアニン、シトシン、チミン)の順序のDNAシーケンシングは、DNA分子内で発生します。DNA シーケンシングの最初の手法は、1970年代半ばにフレッド・サンガー(Fred Sanger)、ウォルター・ギルバート(Walter Gilbert)、アラン・マクサム(Allan Maxam)によって開発されました。配列決定された最初の DNA 断片は、大腸菌にのみ感染する T4 バクテリオファージというウイルスのものでした。ヒトゲノム計画の完了以来、大規模シーケンシングのための新しい手法が数多く開発されてきました。技術の改善と自動化により、研究室で、年間100兆をはるかに超える塩基をシーケンシングできる基準に達しています。大規模シーケンシングのために、多くの新しい方法が開発されています。これらの新しい方法は、多数の短い DNA 断片、または染色体全体を対象とすることができます。 | DNA シーケンスとは? | closed_qa |
|
https://www.databricks.com/jp/glossary | ETL は Extract(抽出)、Transform(変換)、Load(ロード)の頭文字をとった略語です。ETL とは、データエンジニアがさまざまなソースからデータを抽出し、そのデータを使用可能で信頼できるリソースに変換し、エンドユーザーがアクセスできるシステムにロードするプロセスです。これにより、ダウンストリームでビジネス上の問題解決にデータを活用できるようになります。 | ETL とは? | closed_qa |
|
https://www.databricks.com/jp/glossary | ETL パイプライン(またはデータパイプライン)とは、ETL 処理を行うための仕組みのことです。データパイプラインは、データを保存・処理するシステムから、保存・管理方法が異なる別のシステムにデータを移動させるための一連のツールとアクティビティです。パイプラインを使用することで、さまざまなソースから情報を自動的に取得し、単一の高性能なデータストレージに変換して統合できます。 | ETL パイプラインとは? | closed_qa |
|
https://www.databricks.com/jp/glossary | Delta Live Tables(DLT)は、Delta Lake に高品質データをもたらす信頼性の高いデータパイプラインの構築と管理を容易にします。DLT の宣言型パイプラインの開発、データテストの自動化、監視とリカバリの詳細な視覚化は、データエンジニアリングのチームによる ETL の開発と管理をシンプルにします。 | Delta Lake でどのように信頼性の高い ETL を自動化するのか? | closed_qa |
|
https://www.databricks.com/jp/glossary | 特徴量エンジニアリングは、データを使用してモデルをトレーニングするために使用される機械学習アルゴリズムのパフォーマンスを向上させるために、データを変換および強化するプロセスです。
特徴量エンジニアリングには、データのスケーリングまたは正規化、非数値データ (テキストや画像など) のエンコード、時間またはエンティティによるデータの集約、さまざまなソースからのデータの結合、さらには他のモデルからの知識の転送などの手順が含まれます。これらの変換の目的は、機械学習アルゴリズムがデータセットから学習する能力を高め、より正確な予測を行うことです。 | 特徴量エンジニアリングとは? | closed_qa |
|
https://www.databricks.com/jp/glossary | Hadoop は、High Availability Distributed Object Oriented Platform の略です。そして、これこそが Hadoop テクノロジーが開発者に提供するものです。オブジェクト指向タスクの並列分散による高可用性を実現します。
Apache Hadoop とは、オープンソースの Java ベースのソフトウェアプラットフォームで、ビッグデータアプリケーションのデータ処理とストレージを管理します。プラットフォーム は、コンピューティングクラスタ内のノード間で Hadoop ビッグデータセットと分析ジョブを分散させ、並列実行できる小さなワークロードに分割します。
また、構造化データと非構造化データの両方を処理し、1 台のサーバーから数千台のマシンまで、確実にスケールアップします。 | Hadoop とは? | closed_qa |
|
https://www.databricks.com/jp/glossary | Hadoop フレームワークでは、コードのほとんどは Java で書かれていますが、C ベースのネイティブコードもあります。Hadoop MapReduce では、Java が最もよく使われますが、Hadoop streaming などのモジュールを通じて、ユーザーは自分の好きなプログラミング言語を使って、マップとリデュースの機能を実装することができます。 | Hadoop プログラミングとは? | closed_qa |
|
https://www.databricks.com/jp/glossary | Hadoop は、データストレージやリレーショナルデータベースのためのソリューションではありません。その代わり、オープンソースのフレームワークとして、大量のデータを同時にリアルタイムに処理することを目的としています。
データは HDFS に格納されますが、これは非構造化データベースとみなされ、リレーショナルデータベースには該当しません。実際、Hadoop では、データは非構造化、半構造化、構造化のいずれの形でも保存できます。これにより、企業は自社のビジネスニーズやその先にあるものに合わせて、より柔軟にビッグデータを処理することができるようになります。 | Hadoop データベースとは? | closed_qa |
|
https://www.databricks.com/jp/glossary | 技術的には、Hadoop はそれ自体が SQL や RDBMS のようなデータベースの一種ではありません。その代わり、Hadoop のフレームワークは、幅広い種類のデータベースに対する処理ソリューションをユーザーに提供します。
Hadoop は、企業が膨大な量のデータを短時間で処理できるようにするためのソフトウェアエコシステムです。これは、大規模なコンピュータの並列処理を容易にすることで実現されています。Apache HBase などの各種データベースは、数百台、数千台のコモディティサーバに搭載されたデータノードクラスタに分散させることができます。 | Hadoop はどのようなデータベースなのですか? | closed_qa |
|
https://www.databricks.com/jp/glossary | Hadoop は、巨大なデータセットをコモディティハードウェアのクラスタに分散して配置することを可能にするフレームワークです。Hadoop の処理は、同時に複数のサーバーで並列に行われます。
クライアントは Hadoop にデータやプログラムを投入します。簡単に言うと、HDFS(Hadoop のコアコンポーネント)がメタデータと分散ファイルシステムを処理します。次に、Hadoop MapReduce が入出力データの処理と変換を行います。最後に、YARN がクラスタ間でタスクを分割します。
Hadoop を利用することで、お客様はコモディティリソースをより効率的に利用することができ、高可用性と内蔵の障害点検知機能を期待することができます。また、接続された業務システムに対して問い合わせを行う際にも、迅速なレスポンスが期待できます。
Hadoop は、ビッグデータの活用を目指す企業にとって、比較的容易なソリューションといえます。 | Hadoop はどのように機能するのか? | closed_qa |
|
https://www.databricks.com/jp/glossary | Hadoop のフレームワーク自体は、ほとんどが Java で構築されています。その他のプログラミング言語としては、C 言語のネイティブコードやコマンドライン用のシェルスクリプトがいくつかあります。しかし、Hadoop のプログラムは、Python や C++ など、他の多くの言語で書くことができます。そのため、プログラマーは自分が最も慣れ親しんだツールを使って柔軟に作業することができます。 | Hadoop はどのような言語で書かれているのですか? | closed_qa |
|
https://www.databricks.com/jp/glossary | Hadoop はビッグデータを管理する必要がある組織にとって、簡単なソリューションを生み出します。しかし、だからといって、常にわかりやすい使い方ができるわけではありません。上記のユースケースから分かるように、Hadoopフレームワークをどのように実装するかはかなり柔軟性があります。
ビジネスアナリスト、データサイエンティスト、開発者がどのように Hadoop を使用するかは、全て組織とその目標によって決まります。
Hadoop は全ての企業に適しているわけではありませんが、ほとんどの企業は Hadoop との関係を再評価する必要があります。.ビジネスがコアプロセスの一部として大量のデータを扱う場合、Hadoopはニーズに合った、柔軟でスケーラブルかつ手頃な価格のソリューションを提供します。ここから先は、あなたとあなたのチームの想像力と技術力次第です。 | Hadoop の使い方を知りたい。 | closed_qa |
|
https://www.databricks.com/jp/glossary | Hadoop のコアモジュールは4つあります。HDFS:Hadoop 分散ファイルシステム。HDFS は Java ベースのシステムで、クラスタ内のノード間で、フォールトトレラント方式で大規模なデータセットを格納できます。
YARN:YARN は、Yet Another Resource Negotiator(もう一つのリソースネゴシエーター)。YARN は、Hadoop 上で実行されるクラスタリソース管理、タスクの計画、およびジョブのスケジューリングに使用されます。
MapReduce:MapReduce は、大規模なデータセットの並列処理に使用されるプログラミングモデルおよびビッグデータ処理エンジンです。もともと、MapReduce は Hadoop で利用可能な唯一の実行エンジンでしたが、その後、Hadoop は Apache Tez、Apache Spark を含む他のシステムのサポートも追加しています。
Hadoop Common:Hadoop Common は、ライブラリやユーティリティにまたがるサービスを提供し、他の Hadoop モジュールをサポートします。 | Hadoop のコアモジュールとは何か? | closed_qa |
|
https://www.databricks.com/jp/glossary | MapReduce は、Hadoop の別のデータ処理層です。大規模な構造化データと非構造化データを処理する機能を備えている他、ジョブを独立したタスク (サブジョブ) のセットに分割して、非常に大きなデータファイルを並行して管理できます。 | Hadoop MapReduce は? | closed_qa |
|
https://www.databricks.com/jp/glossary | Hadoop 分散ファイルシステム(HDFS)は、最も大きい Apache プロジェクトと Hadoop のプライマリストレージシステムの 1 つで、ネームノードとデータノードのアーキテクチャを採用しています。コモディティハードウェアのクラスタ上で実行されている大きなファイルを格納できる分散ファイルシステムです。
Hadoop 分散ファイルシステムは、全てのデータストレージの始まりと終わりの場所です。このコンポーネントは、さまざまな構造化および非構造化データノードにまたがる大規模なデータセットを管理します。同時に、ログファイルの形でメタデータを維持します。HDFS には、NameNode と DataNode という 2 つの副次的なコンポーネントがあります。 | Hadoop 分散ファイルシステム(HDFS)は何? | closed_qa |
|
https://www.databricks.com/jp/glossary | NameNode はHadoop HDFS のマスターDaemonです。このコンポーネントは、ファイルシステムの名前空間を維持し、当該ファイルへのクライアントアクセスを制御します。マスターノードとも呼ばれ、ブロック数や位置などの Metadata を保存します。主にファイルとディレクトリで構成され、ファイルの命名、クローズ、オープンなどのファイルシステム実行を行います。 | NameNodeとは? | closed_qa |
|
https://www.databricks.com/jp/glossary | YARN は、Yet Another source Navigator の頭字語をとった略語です。リソース管理に適したオープンソース Apache Hadoop のコアコンポーネントの 1 つであり、ワークロードの管理、監視、およびセキュリティ制御の実装を担当します。また、Hadoop クラスタで実行されているさまざまなアプリケーションにシステムリソースを割り当てると同時に、各クラスタノードで実行するタスクを割り当てます。YARN には、2 つの主要なコンポーネントがあります。1. リソースマネージャー, 2. ノードマネージャー | Hadoop YARNとは? | closed_qa |
|
https://www.databricks.com/jp/glossary | Apache ImpalaとはApache Hadoop のためのオープンソースでネイティブな分析データベースです。 | Apache Impalaとは? | closed_qa |
|
https://www.databricks.com/jp/glossary | Pig は、Hadoop 内で使用される大規模なデータセットのクエリを実行するために使用される、高レベルスクリプト言語です。Pig の単純な SQL のようなスクリプト言語は Pig Latin と呼ばれ、その主な目的は、必要な演算を実行し、最終的な出力を目的の形式で準備することです。 | Apache Pigとは? | closed_qa |
|
https://www.databricks.com/jp/glossary | Apache Zookeeperは、信頼性の高い分散処理を実現するための集中型サービス。 | Apache Zookeeperとは | closed_qa |
|
https://www.databricks.com/jp/glossary | Apache Sqoopは、Apache Hadoop とリレーショナルデータベースなどの構造化データストア間でバルクデータを効率的に転送するために設計されたツール。 | Apache Sqoopとは? | closed_qa |
|
https://www.databricks.com/jp/glossary | Apache Hadoop のジョブを管理するためのワークフロースケジューラーシステム。Oozie ワークフローのジョブは、アクションの順番を指定する有向非巡回グラフ(DAG: Directed Acyclical Graph)で実行されます。 | Apache Oozieとは? | closed_qa |
|
https://www.databricks.com/jp/glossary | Hadoopに主に3つのメリットがあります。
1. スケーラビリティ:Hadoop は、従来のシステムのようなデータストレージの制限がなく、分散環境で動作するため、スケーラブルです。初期のデータレイクが Hadoop 上に構築された理由は、この特長にありました。詳しくはデータレイクの歴史と進化をご覧ください。
2. レジリエンス:Hadoop 分散ファイルシステム (HDFS) は基本的に復元力が備わっています。Hadoop クラスタの任意のノードに格納されたデータは、ハードウェアまたはソフトウェアの障害の可能性に備えて、クラスタの他のノードにもレプリケートされます。この意図的に冗長な設計により、フォールトトレランスが保証され、1 つのノードがダウンしても、クラスタ内で利用可能なデータのバックアップが常に存在します。
3. 柔軟性:従来のリレーショナルデータベース管理システムとは異なり、Hadoop を使用する場合は、半構造化形式や非構造化形式を含む任意の形式でデータを格納できます。Hadoop を使用することで、新しいデータソースに簡単にアクセスしてさまざまな種類のデータを活用できます。 | Hadoop のメリットは何? | closed_qa |
|
https://www.databricks.com/jp/glossary | Hadoop アーキテクチャに多く3つの課題があります。
1. 複雑さ:Hadoop は、低レベルの Java ベースのフレームワークであり、エンドユーザーが作業するには複雑で困難です。Hadoop アーキテクチャには、セットアップ、保守、およびアップグレードに関する重要な専門知識とリソースが必要になる場合もあります。
2. パフォーマンス:Hadoop は、ディスクに対する頻繁な読み取りと書き込みを使用して計算を実行します。これは Apache Spark などの可能な限りメモリ内にデータを格納して処理することを目的とするフレームワークと比較すると、時間がかかり非効率です。
3. 長期的な実現性:Hadoop を取り巻く環境は 2019 年に大きく変わりました。Google は、2004 年にMapReduce に関する論文を発表し、Apache Hadoop の開発を支えてきましたが、Google テクニカルインフラストラクチャ担当 SVP のウルス・ヘルツル(Urs Hölzle)氏がツイートで、MapReduce の使用を全面的に中止したことを投稿しました。また、Hadoop の世界では、極めて注目度の高い合併や買収が行われました。Hadoop の大手プロバイダは、 Hadoop を技術ではなく哲学とみなすようになり、2020 年には Hadoop 中心の製品群からの転換を図っています。そして、2021 年はさらなる変化の年となりました。 4 月に ASF による Hadoop エコシステムの 10 のプロジェクトの終了の発表があり、同年の 6 月に、Cloudera が非公開化に合意しています。この決定が Hadoop ユーザーに与える影響は未だ不明ですが、増加する懸念事項と加速するデジタル化の必要性により、多くの企業が Hadoop の利用を見直しています。 | Hadoop アーキテクチャの課題は何? | closed_qa |
|
https://www.databricks.com/jp/glossary | Apache Hadoop エコシステムとは、Apache Hadoop ソフトウェアライブラリのさまざまなコンポーネントを指します。オープンソースプロジェクトだけでなく、補足ツールの全てが含まれます。Hadoop エコシステムの最もよく知られているツールには、HDFS、Hive、Pig、YARN、MapReduce、Spark、HBase Oozie、Sqoop、Zookeeper、などがあります。開発者が頻繁に使用する主要な Hadoop エコシステムコンポーネントは次のとおりです。 | Hadoop エコシステムとは? | closed_qa |
|
https://www.databricks.com/jp/glossary | Apache Hadoop とは、オープンソースの Java ベースのソフトウェアフレームワークで、並列データ処理エンジンです。アルゴリズム(MapReduce アルゴリズムなど)を使用してビッグデータ分析処理タスクを並列実行できる小さなタスクに分割し、Hadoop クラスタ全体に分散させることができます。Hadoop クラスタとは、ビッグデータセットに対してこのような並列計算を実行するためにネットワーク化された、ノードと呼ばれるコンピュータの集合体です。Hadoop クラスタは、他のコンピュータクラスタとは異なり、分散コンピューティング環境で大量の構造化・非構造化データを格納および分析するために特別に設計されています。Hadoop エコシステムが他のコンピュータクラスタと異なる点は、独自の構造とアーキテクチャです。Hadoop クラスタは、高可用性、低コストのコモディティハードウェアを利用する、接続されたマスターノードとスレーブノードのネットワークから構成されます。ボリュームの要求に応じてノードを直線的にスケーリングし、素早く加算または減算する機能により、データセットのサイズの変化が大きいビッグデータ分析に適しています。 | Hadoop クラスタとは? | closed_qa |
|
https://www.databricks.com/jp/glossary | Hiveでは、データの処理や照会を行う際に役立つ多くの組み込み関数を提供しています。これらの関数が提供する機能には、文字列操作、日付操作、型変換、条件演算子、数学関数などがあります。 | Hive 日付関数とは? | closed_qa |
|
https://www.databricks.com/jp/glossary | Jupyter Notebook は、オープンソースで提供された Web アプリケーションであり、プログラムや数式、その他のマルチメディアリソースを含むドキュメントを作成・共有する目的で、主にデータサイエンティストに利用されています。 | Jupyter Notebook とは? | closed_qa |
|
https://www.databricks.com/jp/glossary | はい、サポートしています。Databricks クラスタは、Jupyter エコシステムのオープンソースツール(表示・出力ツールなど)を利用するために IPython カーネルを使用するよう設定できます。また、.ipynb ファイルのインポート/エクスポートをサポートしており、Databricks 上においても Jupyter Notebook で中断したところから容易に再開できます。Databricks では、 Databricks 機械学習のランタイム内において、オープンソースの Jupyter のライブラリを長年サポートしています。 | Databricks でJupyter Notebook の利用をサポートしていますか? | closed_qa |
|
https://www.databricks.com/jp/glossary | Keras とは、Theano と Tensorflow 上に構築された深層学習のためのハイレベルのライブラリです。Keras は、Python で記述され、深層学習モデルの範囲を作成するためのクリーンで便利な方法を提供します。Keras は、ニューラルネットワークの開発とテストに関して最も使用されている高レベルのニューラルネットワーク API の 1 つです。現在では、ニューラルネットワークのレイヤーの作成や複雑なアーキテクチャの設定が、Keras の高レベル API により簡単に行われています。Keras モデルは、シーケンスまたはスタンドアロングラフで構成されます。完全に構成可能なモジュールがいくつかあり、それらを組み合わせて新しいモデルを作成できます。これらの構成可能なモジュールの中には、ニューラルレイヤー、コスト関数、オプティマイザ、初期化スキーム、ドロップアウト、ロス、活性化関数、および正規化スキームがあります。新たな機能を別々のモジュールとして容易に追加できることは、モジュール化によってもたらされるメリットの 1 です。Keras の高い柔軟性は、革新的な研究に適しています。Keras モデルを開発する方法には、Sequential と Functional があります。 | Keras モデルとは? | closed_qa |
|
https://www.databricks.com/jp/glossary | Sequential API モデルは、極めてシンプルなモデルであり、ほとんどの問題に対してレイヤーごとにモデルを構成できるようにする線形のレイヤーの積み重ねで構成されています。Sequential モデルは非常に簡単に使えますが、トポロジでは制限されています。この制限は、共有レイヤーを使用したモデルの構成や、複数の入力または出力を持つモデルを構成できないことから生じています。 | Sequential API モデルは何? | closed_qa |
|
https://www.databricks.com/jp/glossary | Functional API は、柔軟性を高める複雑なモデルを作成するのに最適です。Functional API により、フィーチャレイヤーが前後のレイヤー以外の複数のレイヤーに接続するモデルを定義できます。モデルとは、レイヤーのインスタンスを作成し、それらを直接ペアで接続することで定義されます。実際、このモデルを使用することで他のレイヤーにレイヤーを接続することが可能です。このモデを用いることで、シャムネットワーク、残余ネットワーク、マルチ入力/マルチ出力モデル、有向非巡回グラフ(DAG)、共有レイヤーを持つモデルなどの複雑なネットワークを作成することが可能になります。 | Functional APIとは? | closed_qa |
|
https://www.databricks.com/jp/glossary | MLOps は、Machine Learning Operations(機械学習オペレーション)の略語です。機械学習エンジニアリングの中核となる MLOps は、機械学習モデルを本番環境に移行し、維持・監視のプロセスを効率化することに重点を置いています。MLOps は、多くの場合、データサイエンティスト、DevOps エンジニア、IT 部門で構成されるチーム間のコラボレーションを担います。 | MLOps とは? | closed_qa |
|
https://www.databricks.com/jp/glossary | 機械学習のライフサイクルは、データ取り込み、データ準備、モデルのトレーニング、チューニング、デプロイメント、監視、説明可能性といった多くの複雑な要素で構成されており、機械学習の製品化は容易ではありません。また、データエンジニア、データサイエンティスト、機械学習エンジニアからなるチーム間の連携や引き継ぎも必要です。これら全てのプロセスを同期、連動させるためには、厳格な運用が必須となります。MLOps の概念は、機械学習のライフサイクルにおける実験フェーズ、反復、継続的な改善を包括しています。 | MLOpsはなぜ必要なのですか? | closed_qa |
|
https://www.databricks.com/jp/glossary | MLOps の主なメリットは、機械学習のライフサイクルにおける効率性、拡張性、リスク軽減です。
1. 効率性:データチームは、MLOps によりモデル開発の迅速化、高品質な機械学習モデルの提供、迅速なデプロイメントと製品化が可能になります。
2. 拡張性:MLOps は、広範なスケーラビリティと管理を可能にし、継続的インテグレーション、継続的デリバリー、継続的デプロイメントを目的として、数千のモデルを監督、制御、管理、監視できます。具体的には、MLOps が機械学習パイプラインの再現性を確保し、データチーム間の緊密なコラボレーションを可能にするため、DevOps や IT 部門との衝突を減らし、リリースサイクルを高速化します。
3. リスク軽減:機械学習モデルは、規制の精査やドリフトチェックが必要になるケースが多々あります。MLOps により、こうした要求に対するより高い透明性と迅速な対応が可能になり、組織や業界のポリシーへの準拠が確実になります。 | MLOps のメリットは何? | closed_qa |
|
https://www.databricks.com/jp/glossary | 機械学習プロジェクトにおける MLOps は、プロジェクトに応じて範囲を絞ることも、拡大することも可能です。例えば、データパイプラインからモデル作成までの全てを網羅する場合もあれば、他のプロジェクトでは、モデルのデプロイメントプロセスのみの実装が必要な場合もあります。多くの企業では、次の領域に MLOps の原則を導入しています。1. 探索的データ解析(EDA), 2. データ準備と特徴量エンジニアリング, 3. モデルのトレーニングとチューニング, 4. モデルのレビューとガバナンス, 5. モデル推論とサービング, 5. モデル監視, 6. モデル再トレーニングの自動化 | MLOps の構成要素は何? | closed_qa |
|
https://www.databricks.com/jp/glossary | MLOps のベストプラクティスは、MLOps の原則が適用される段階によって区別できます。
1. 探索的データ解析(EDA):再現性、編集性、共有性のあるデータセット、表、可視化方法を作成することで、機械学習のライフサイクルにおいてデータを繰り返し探索、共有、準備できます。
2. データ準備と特徴量エンジニアリング:データの変換、集約、重複排除を繰り返すことで、洗練された特徴量を作成できます。特徴量ストアを活用して、データチーム間で特徴量を可視化し、共有することが重要です。
3. モデルのトレーニングとチューニング:scikit-learn や Hyperopt などの一般的なオープンソースライブラリを使用して、モデルのトレーニングと性能の改善ができます。より簡潔な方法として、AutoML などの自動機械学習ツールを使ってテストを実行し、レビューやデプロイが可能なコードを作成します。
4. モデルのレビューとガバナンス:モデルの系統、モデルのバージョンを追跡し、ライフサイクルを通じてモデルの成果物および移行を管理します。MLflow のようなオープンソースの MLOps プラットフォームを使用して、機械学習モデルの発見、共有、コラボレーションを行うことも可能です。
5. モデル推論とサービング:モデルの更新頻度、推論要求時間などの本番環境に特化した管理を、テストと QA で行います。DevOps の原則を取り入れたリポジトリやオーケストレータなどの CI/CD ツールを利用して、本番前のパイプラインを自動化します。
6. モデルのデプロイと監視:パーミッションの設定やクラスタの作成を自動化し、登録されたモデルを本番稼動に備えます。REST API モデルのエンドポイントを有効にしてください。
7. モデル再トレーニングの自動化:トレーニングデータと推論データの違いによるモデルドリフトが発生した場合、アラートと自動化により是正措置を講じます。 | MLOps のベストプラクティスを教えてください。 | closed_qa |
|
https://www.databricks.com/jp/glossary | MLOps は、機械学習プロジェクトに特化したエンジニアリングプラクティスのセットです。ソフトウェアエンジニアリングで広く採用されている DevOps の原則が基になっています。一方、DevOps は、アプリケーションの出荷に対して迅速かつ継続的な反復アプローチを提供します。MLOps では、DevOps の原則をベースに機械学習モデルを本番環境に導入します。どちらもソフトウェアの品質改善、パッチやリリースの迅速化、顧客満足度の向上という成果をもたらします。 | MLOps と DevOps の違いについて教えてください。 | closed_qa |
|
https://www.databricks.com/jp/glossary | MLOps プラットフォームは、データサイエンティストやソフトウェアエンジニアに反復的なデータ探索、実験追跡、特徴量エンジニアリング、モデル管理のためのリアルタイムな共同編集機能、制御されたモデルの移行、デプロイメント、監視を促進するコラボレーション環境を提供します。MLOps は、機械学習のライフサイクルにおける運用と同期の両側面を自動化します。MLflow のフルマネージド環境であり、世界をリードするオープンな MLOps プラットフォームの Databricks はこちらからお試いただけます。 | MLOps プラットフォーム | closed_qa |
|
https://www.databricks.com/jp/glossary | プログラミング言語 Python でデータ分析を行うためのオープンソースのライブラリでで、高速で適応性の高いデータ構造を提供します。この使いやすいデータ操作ツールは、ウェス・マッキニー氏が開発したものでNumPy パッケージ上に構築されています。その主要なデータ構造は DataFrame と呼ばれています。 | pandas とは? | closed_qa |
|
https://www.databricks.com/jp/glossary | Pandas DataFrame とは、表形式のデータを表示、操作する方法の一つです。二次元のデータ構造で、データを行と列に整理してテーブルとして表示します。DataFrame は、ゼロから作成することも、NumPy 配列のような他のデータ構造を利用することも可能です。 | pandas DataFrame って何? | closed_qa |
|
https://www.databricks.com/jp/glossary | DataFrame の行を削除する方法を紹介します。
df.drop_duplicates( ) を実行すると、行ラベルに指定した条件に応じて重複している行が削除されます。列に対して動作するのと同じ .drop() メソッドを使用することもできますが、その場合は行のインデックスを指定してドロップします。この場合、必ずインデックスをリセットしてください。
具体的に欠損値を持つ行を削除するには、DataFrame.dropna(axis=0, how='any', thresh=None, subset=None, inplace=False) を使用できます。これは、Null 値を持つ行を自動的に取り出します。また、関数のパラメータを調整して、特定のデータセクションにおいて欠損値を削除するかどうかを決定することもできます。
Null 値を特定の値に置き換えたい場合は、.dropna() で削除するのではなく、 .fillna() コマンドを使用します。 | pandas DataFrame の行をどうやって削除するか? | closed_qa |
|
https://www.databricks.com/jp/glossary | DataFrame の列の削除は簡単です。ドロップ( )方式で、列を取り出すことができます。この場合、削除したい列のラベルを入力する必要がありますので、ドロップ( )コマンドを実行する前に、正しい列名をメモしておいてください。また、引数 inplace を True にすると、 DataFrame を再割り当てせずに列を削除できるようになります。 | pandas DataFrame の列をどうやって削除するか? | closed_qa |
|
https://www.databricks.com/jp/glossary | DataFrame は常に何らかのインデックスを持つため、インデックスを完全に削除することは困難ですが、インデックスラベルの変更やその名前を完全に削除することは可能です。名前の削除は、 del df.index.name コマンドを実行することで実施可能です。
また、DataFrame のインデックスをリセットすることも可能です。これは、インデックス値が重複している場合に役立ちます。必要なのは、インデックスをリセットし、重複を削除し、重複のない新しい列インデックスを復活させることです。 | pandas DataFrame のインデックスをどうやって削除するか? | closed_qa |
|
https://www.databricks.com/jp/glossary | pandas DataFrame のインデックスや列の名前を変更する方法を紹介します。インデックスや列の名前の変更は、削除するよりも簡単でわかりやすいです。これらのオブジェクトの名前を変更するために必要なことは、 .rename( ) メソッドを使用し、新しい値を与えたいインデックス(または列)を記入することだけです。
リネームタスクで引数 inplace を False に変更すると、列の名前を変更しても DataFrame が再アサインされなくなります。 | pandas DataFrame のインデックスや列の名前をどうやって変更するか? | closed_qa |
|
https://www.databricks.com/jp/glossary | pandas DataFrame のデータをフォーマットする方法を紹介します。文字列のすべてのインスタンスを置換したい場合は、 .replace() コマンドを使い、(変更する値、変更先の値)のフォーマットで隙間を埋めることができます。そして、変更したい文字列や値のすべてのインスタンスを、変更する項目に自動的に置換します。
もう一つ必要なのは、文字列から不要な部分を取り除くフォーマット機能です。map ()コマンドは、 result 列で使用すると、その列の各要素に選択したラムダ関数を適用します。また、列のテキストを複数の行に分割することもできますが、これは少し複雑なので、簡単なチュートリアルを紹介します。まず、長すぎる行を特定し、どの行を分割すべきかをわかるようにします。行を特定後、その列の中にある文字列をスペースで囲みます。次のステップは、行をまたいで分割される値を受け取り、 Series オブジェクトに入れることです。もし、 Series に NaN 値があったとしても、問題ありません。Series を積み上げるだけで、最終的な Series のコピーには不要な NaN 値が含まれないことが保証されます。積み上げた Series を希望のフォーマットにするためには、 DataFrame と並ぶようにレベルを落とす必要があります。その後、 Series を DataFrame に変換し、元の DataFrame に戻し、元の DataFrame から問題のある列を削除します。最後のステップ(列の削除)により、重複の発生を防ぐことができます。
DataFrame のデータに適用可能な最後のフォーマットは、 DataFrame の行または列に関数を適用する形です。まず、 .loc[ ] または .iloc[ ] を用いて作業したい行を選択します。しかし、ここでは DataFrame を使用しているので、より具体的には df.loc と df.iloc を使うことになるでしょう。そして、正しい行を選択した後、 apply() を使い、行または列に doubler のような機能を適用することができます。 | pandas DataFrame のデータをどうやってフォーマットするか | closed_qa |
|
https://www.databricks.com/jp/glossary | 空の DataFrame を作るには、 pandas DataFrame() 関数を使います。 | 空の DataFrame を作る関数は何? | closed_qa |
|
https://www.databricks.com/jp/glossary | 原則的にはそうで、実際にはもう少し複雑です。
pandas は日付が入力されていることを認識できますが、正しい方向に少し誘導することでうまく機能します。具体的には、 CSV ファイルや類似ファイルなどからデータを取り込む際に、 parse_dates 引数を追加します。CSV ファイルからデータを取り込む場合、以下のようになります。pd.read_csv('yourFile', parse_dates=True)。この方法は、数値書式を使用する日付に最も適しています。しかし、すべての日付がこのような形式を取るわけではありません。
変わった日付形式や、 DataFrame が認識しにくい日付形式の場合は、独自のパーサーを作成します。これらは、日付と時刻の入力認識を制御するためのフォーマット文字列を使用するラムダ関数の形式をとる場合があります。
pandas は、どのような方法でナッジを与えても、完了後に日時を認識できます。つまり、最小限の入力で、 DataFrame に日付ベースの情報を取り込むように指示することができます。 | pandas はデータをインポートする際に日付を認識するのか? | closed_qa |
|
https://www.databricks.com/jp/glossary | pandasGUI は、データ操作や要約統計を支援するために作成された Python ベースのライブラリです。これらは、 GUI (グラフィカル・ユーザー・インターフェース)を使い DataFrame ライブラリのデータに適用され、インターフェース上で意図した操作を行うことになります。pandasGUI は、 UI (ユーザーインターフェース)でコマンドを入力すると、プログラムがそのコマンドを pandas 本体で実行するように設計されています。 | pandasGUIとは? | closed_qa |
|
https://www.databricks.com/jp/glossary | Tabloo は自らを「表形式データを視覚化するためのミニマルなダッシュボードアプリ」と表現しています。Python から実行できるので、 pandas とも完全な互換性があります。 | Tablooとは? | closed_qa |
|
https://www.databricks.com/jp/glossary | D-Tale は、 Tabloo と同様に Flask のバックエンドと、React のフロントエンドを使用しており、 D-Tale で使用できる豊富なオプションを最大限に活用することができます。 | D-Tale? | closed_qa |
|
https://www.databricks.com/jp/glossary | Apache Parquet は、効率的なデータの保存と検索のために設計された、オープンソースの列指向データファイル形式です。複雑なデータを一括処理するための効率的なデータ圧縮と符号化方式を提供し、パフォーマンスを向上させます。Apache Parquet は、バッチとインタラクティブの両方のワークロードで共通の交換形式となるように設計されており、Hadoop で利用可能な他の列指向ストレージファイル形式である RCFile や ORC に似ています。 | Parquet とは? | closed_qa |
|
https://www.databricks.com/jp/glossary | Parquet の特徴は以下6点あります。
1. コスト不要のオープンソースのファイル形式, 2. あらゆる言語に対応, 3. 列ベースのフォーマット:ファイルは行ではなく列ごとに整理されるため、ストレージ容量を節約し、分析クエリを高速化します。4. 分析(OLAP)のユースケースに使用:通常は、従来の OLTP データベースと組み合わせて使用します。5. 高効率なデータ圧縮と解凍, 6. 複雑なデータタイプ、高度にネストされたデータ構造をサポート | Parquet の特徴は何か? | closed_qa |
|
https://www.databricks.com/jp/glossary | Parquet を使用するメリットは主に以下3点あります。1. ビッグデータの保存に最適:構造化データ、テーブル、画像、動画、ドキュメントなど、あらゆる種類のデータを保存できます。2. クラウドストレージを節約:高効率なカラム単位の圧縮と、異なるデータの種類の列に対応する柔軟な符号化方式を採用しています。3. データのスループットとパフォーマンスの向上:データスキッピングなどの技術を用いて、特定の列の値を取得するクエリによるデータの行全体の読み取りを不要にします。 | Parquet を使用するメリットは何? | closed_qa |
|
https://www.databricks.com/jp/glossary | CSV は、Excel や Google スプレッドシートなどの多くのツールで使用されており、他にも多数のツールで使用されているシンプルで一般的なフォーマットです。Parquet により、大規模なデータセットのストレージ必要量は少なくとも 3 分の 1 削減され、スキャンとデシリアライゼーションに必要な時間の大幅な改善で、全体のコストが削減されています。 | Parquet と CSV の違いは何? | closed_qa |
|
https://www.databricks.com/jp/glossary | オープンソースの Delta Lake プロジェクトは、Parquet 形式に基づいて構築され、さまざまな機能の追加により拡張されています。追加機能には、クラウドオブジェクトストレージの ACID トランザクション、タイムトラベル、スキーマの拡張、シンプルな DML コマンド(CREATE、UPDATE、INSERT、DELETE、MERGE)などがあります。Delta Lake は、順序付けられたトランザクションログを使用してこれらの重要な機能の多くを実装しています。これにより、クラウドのオブジェクトストレージ上におけるデータウェアハウス機能が可能になります | Parquet と Delta Lakeの関連を教えてください。 | closed_qa |
|
https://www.databricks.com/jp/glossary | Apache Spark は、プログラミング言語 Scala で記述されています。PySpark とは、Spark を実行するための Python API です。PySpark は、Apache Spark とプログラミング言語 Python での Resilient Distributed Dataset(RDD)とのインターフェイスもサポートしており、これは Py4J ライブラリを活用することで実現しています。Py4J は、PySpark に組み込まれた定評のあるライブラリで、Python の JVM 上のオブジェクトとの動的なインターフェースを可能にします。PySpark には、効率的にプログラミングするためのライブラリが数多く実装されており、互換性のある外部ライブラリもあります。 | PySpark とは? | closed_qa |
|
https://www.databricks.com/jp/glossary | PySparkSQL は、膨大な量の構造化・半構造化データにSQLライクな分析を行うPySparkライブラリです。PySparkSQL を使用して SQL クエリを実行することができ、Apache Hive との連携や、HiveQL の適用も可能です。さらに、PySparkSQL は、Pyspark Core のラッパーです。PySparkSQL では、リレーショナルデータベース管理システムのテーブルと類似の表形式で構造化データを表現する DataFrame を導入しています。 | PySparkSQLとは? | closed_qa |
|
https://www.databricks.com/jp/glossary | MLlib は、PySpark のラッパーで、Spark の機械学習(ML)ライブラリです。このライブラリは、データの蓄積および集計に並列処理を行います。MLlib ライブラリが提供する機械学習APIは、簡単に利用することができます。MLlib は、分類、回帰、クラスタリング、協調フィルタリング、次元削減、基礎となる最適化プリミティブのための多くの機械学習アルゴリズムをサポートしています。 | MLlibとは? | closed_qa |
|
https://www.databricks.com/jp/glossary | GraphFrames は、グラフデータ処理ライブラリで、PySpark Coreと PySparkSQL を使用して、グラフ分析を効率的に行うためのAPIセットを提供します。また、高速な分散コンピューティングに最適化されています。 PySpark を使用するメリット。
・Python の学習や実装は極めて容易
・シンプルで包括的な API を提供
・Python の使用で、コードの可読性、保守性、使いやすさが向上
・Scala やJava では困難なデータ可視化に多くの選択肢が充実 | GraphFramesとは? | closed_qa |
|
https://www.databricks.com/jp/glossary | レジリエントな分散データセット(RDD)は、分散コンピューティングを用いたレコードコレクションです。フォールトトレラントで不変な性質を有しています。RDDは、低レベルAPIとの並列操作が可能で、遅延機能によりSparkの操作を迅速化します。 | レジリエントな分散データセット(RDD)とは? | closed_qa |
|
https://www.databricks.com/jp/glossary | Spark Elasticsearch とは、ドキュメント指向および半構造化データを格納、取得、管理する NoSQL 分散データベースです。GitHub オープンソースである Elasticsearch は、Apache Lucene をベースに構築され、Apache ライセンスの条件下でリリースされた RESTful な検索エンジンでもあります。 | Spark Elasticsearch とは? | closed_qa |
|
https://www.databricks.com/jp/glossary | Spark SQL とは、構造化データ処理のためのSparkモジュールです。DataFrames と呼ばれるプログラミングの抽象化が可能で、分散型 SQL クエリエンジンとしても機能します。これにより、既存のデプロイやデータで未修正の Hadoop Hive クエリを最大 100 倍の速さで実行できるようになりました。また、他の Spark エコシステムとの統合も可能です。(例: SQL クエリ処理と機械学習の統合) | Spark SQL とは? | closed_qa |
|
https://www.databricks.com/jp/glossary | Sparklyr とは、R 言語と Apache Spark 間のインターフェースを提供するオープンソースのパッケージです。Spark では、分散データを低レイテンシで扱えるため、Spark の機能を最新のR環境で活用することができるようになりました。Sparklyr は、インタラクティブな環境にある大規模なデータセットと連動するための有効なツールです。これにより、Spark でデータを分析するために、R の使い慣れたツールを使用することが可能となり、R と Spark 両方のメリットを享受できます。 | Sparklyrとは? | closed_qa |
|
https://www.databricks.com/jp/glossary | SparkR とは、R 言語を Spark 上で動作させるためのツールです。Spark の他の言語バインディングと同じ原理に基づいています。SparkR を使用するには、環境にインポートしてコードを実行するだけです。Python ではなくR 言語の構文に従っていることを除けば、Python API と非常に類似しています。ほとんどの場合、Python で利用可能なものは、SparkR でも利用できます。 | SparkRとは? | closed_qa |
|
https://www.databricks.com/jp/glossary | Spark アプリケーションとは、ドライバプロセスと一連のエグゼキュータプロセスで構成されるアプリケーションプログラムです。ドライバプロセスは、main() 関数を実行し、クラスタのノード上で動作します。また、3 つの役割があり、Spark アプリケーションに関する情報管理、ユーザーのプログラムや入力への応答、およびエグゼキュータ(瞬間的に定義)全体におけるタスクの分析、分散、スケジューリングを行います。ドライバプロセスは必要不可欠です。Sparkアプリケーションの中心であり、アプリケーションのライフタイム全体にわたって全ての関連情報を保持します。エグゼキュータは、ドライバが割り当てたタスクを実行します。各エグゼキュータの役割としては、ドライバから割り当てられたコードの実行、およびそのエグゼキュータでの計算の進捗をドライバノードに報告するという2つがあります。 | Spark アプリケーションとは? | closed_qa |
|
https://www.databricks.com/jp/glossary | Apache Sparkストリーミングとは、スケーラブルで耐障害性に優れた特性を持つストリーミング処理システムです。バッチ処理とストリーミング処理のワークロードをネイティブにサポートしています。Spark ストリーミングは、コアのSpark APIを拡張したもので、データエンジニアやデータサイエンティストは、KafkaやFlume、Amazon Kinesisなどの複数のソースからリアルタイムデータを処理することが可能です。処理されたデータは、ファイルシステムやデータベース、ライブダッシュボードに出力することができます。その鍵となる抽象化は、小さなバッチに分割されたデータのストリームを表現する「離散ストリーム(DStream)」です。DStreamは、Sparkのコアなデータ抽象化機能であるRDD を基盤に構築されています。これにより、SparkストリーミングはMLlibやSpark SQLのような他のSparkコンポーネントとシームレスに統合することが可能となります。Sparkストリーミングは、ストリーミングのためだけに設計された処理エンジンを備えているシステムや、Sparkストリーミングと類似したバッチとストリーミングAPIを持ちながら、内部的には異なるエンジンにコンパイルされるシステムとは異なります。Sparkの単一実行エンジンと、バッチとストリーミングのための統合プログラミングモデルは、従来のストリーミングシステムにはないメリットをもたらします。 | Sparkストリーミングとは? | closed_qa |
|
https://www.databricks.com/jp/glossary | Spark ストリーミングの4つの特徴:1. 障害時における迅速なリカバリ, 2. 優れた負荷分散とリソース使用率, 3. ストリーミングデータと静的データセット、対話型クエリの統合, 4. 高度な処理ライブラリ(SQL、機械学習、グラフ処理)とのネイティブ統合。
このような異なるデータ処理機能の統合は、Sparkストリーミングを急速に普及させる大きな理由になりました。この統合により、開発者は単一のフレームワークを使用して、容易にあらゆる処理ニーズに対応できます。 | Spark ストリーミングの4つの特徴は何? | closed_qa |
|
https://www.databricks.com/jp/glossary | Sparkパフォーマンスチューニングとは、システムが使用するメモリやコア、インスタンスなどを記録するための設定を調整する処理のことです。この処理により、Sparkは優れた性能を発揮し、リソースのボトルネックの防止も可能になります。 | Sparkパフォーマンスチューニングとは? | closed_qa |
|
https://www.databricks.com/jp/glossary | メモリ使用量を削減するために、Spark RDDをシリアル化して格納する必要があります。また、データのシリアライズは、ネットワークのパフォーマンスにも影響します。Sparkの性能を向上させるには、次のような処理が挙げられます。
長時間実行されているジョブを終了
適切な実行エンジンでジョブを実行
全てのリソースを効率的に使用
システムがパフォーマンスに要する時間を改善。
Sparkは、次の2つのシリアライズライブラリをサポートしています。1. Javaのシリアライズ, 2. Kryoのシリアライズ | データのシリアライズとは? | closed_qa |
|
https://www.databricks.com/jp/glossary | メモリ使用量の調整には、次の3つの留意点があります。1. データセットは全てメモリに収める必要があるため、オブジェクトによって使用されるメモリ量の考慮が不可欠になること。 2. オブジェクトの回転率の上昇により、ガベージコレクションのオーバーヘッドが必要になること。3. オブジェクトにアクセスするコスト | メモリ使用量の調整に注意点が何? | closed_qa |
|
https://www.databricks.com/jp/glossary | メモリの消費量を削減するためには、オーバーヘッドになりうるJava機能を避けるという選択肢があります。具体的な方法は次のとおりです。
1. RAMサイズが32GB未満の場合、JVMフラグを–xx:+ UseCompressedOopsに設定し、ポインタを8バイトから4バイトにする
2. 複数の小さなオブジェクトとポインタを使用し、入れ子構造を避ける。
3. キーに文字列を使用する代わりに、数値IDまたは列挙型オブジェクトを使用する | データ構造のチューニングとは? | closed_qa |
|
https://www.databricks.com/jp/glossary | プログラムが以前確保した不要なRDDがメモリ領域を占有するのを避けるため、Javaは古いオブジェクトを削除し、新しいオブジェクトにスペースを割り当てます。一方、オブジェクトの少ないデータ構造を使用することで、コストは大きく削減されます。例として、LinkedListの代わりにIntの配列を使用することが挙げられます。または、シリアル化されたオブジェクトを使用することで、オブジェクトはRDDパーティションごとに1つのみとなります。 | ガベージコレクションのチューニングとは? | closed_qa |
|
https://www.databricks.com/jp/glossary | 優れた性能を発揮するには、メモリの効果的な使用が必要不可欠です。Sparkでは、主に保存と実行のためにメモリを使用します。保存メモリは、後に再利用するデータをキャッシュするために使用されます。一方、実行メモリは、シャッフル、ソート、結合、集約などの計算に使用されます。Apache Sparkが解決しなくてなならないメモリの競合の課題は次の3つです。1. 実行メモリと保存メモリのアービトレート。 2. 同時に実行しているタスクのメモリのアービトレート。3. 同一タスク内で実行しているオペレータのメモリのアービトレート。
事前にメモリの静的確保を避けるのではなく、メモリからデータを強制的に解放し、発生したメモリの競合に対応することが可能です。 | メモリ管理とは? | closed_qa |
Subsets and Splits