context
stringclasses
6 values
source
stringlengths
0
149
response
stringlengths
4
1.6k
instruction
stringlengths
5
137
category
stringclasses
1 value
Resilient Distributed Dataset (RDD) は、Spark クラスターによって処理されるデータセットの低レベルのものです。 Spark の初期のバージョンでは、RDD を直接操作するコードを書く必要がありました。 最新バージョンのSpark では、代わりに高レベルの DataFrame API を使用する必要があります。Spark は自動的に低レベルの RDD 操作にコンパイルします。
Resilient Distributed Dataset (RDD) は?
closed_qa
SparkSession クラスは、DataFrame API を使用する Spark のすべての機能への唯一のエントリです。 Databricks ノートブックでは、既にSparkSession が作成され、 spark という変数に格納されています。
SparkSession クラスは?
closed_qa
Transformationsは DataFrame を操作して返すため、変換メソッドを連鎖させて新しい DataFrame を構築できます。 ただし、変換メソッドは 遅延評価されるため、これらの操作は単独では実行できません。
DataFrameの変換メソッドは?
closed_qa
DataFrame アクションは、計算をトリガーするメソッドです。 DataFrame 変換の実行をトリガーするには、アクションが必要です。
DataFrame のアクションメソッドは?
closed_qa
createOrReplaceTempView でDataFramesをSQLで使うビューに変換します。createOrReplaceTempViewは、DataFrame に基づいて一時的なビューを作成します。一時ビューの有効期間は、DataFrame の作成に使用された SparkSession に関連付けられています。
DataFramesとSQL間の変換はどうしたらいいですか?
closed_qa
カラム は式を使用してDataFrameのデータに基づいて計算される論理構造です。
DataFrameのカラムは?
closed_qa
Dataframeの列に別名を付ける列演算子です。
aliasは?
closed_qa
列の昇順に'asc', 降順に'desc'を使います。
列の昇順/降順に基づいてソート式を返すのに使うメソッドは何ですか?
closed_qa
列の名前が変更された新しい DataFrame を返すのに'withColumnRenamed'を使います。
列の名前が変更された新しい DataFrame を返すのに使うメソッドは何ですか?
closed_qa
'dropDuplicates'や'distinct'を使って重複する行が削除された新しい DataFrame を返すことができます。
どのメソッドを使って重複する行が削除された新しい DataFrame を返すか?
closed_qa
DataFrame 変換メソッド'select'は各要素に対して与えられた式を計算して新しい DataFrame を返します。
DataFrame 変換メソッド'select'を使って何かできるか?
closed_qa
DataFrame 変換メソッド'drop'は列が削除された新しい DataFrame を返します。
DataFrame 変換メソッド'drop'を使って何かできるか?
closed_qa
DataFrame 変換メソッド'withColumnRenamed'は列の名前が変更された新しい DataFrame を返します。
DataFrame 変換メソッド'withColumnRenamed'を使って何かできるか?
closed_qa
DataFrame 変換メソッド'filter'は指定された条件を使用して行をフィルタリングする。
DataFrame 変換メソッド'filter'を使って何かできるか?
closed_qa
DataFrame 変換メソッド'where'は指定された条件を使用して行をフィルタリングする。
DataFrame 変換メソッド'where'を使って何かできるか?
closed_qa
DataFrame 変換メソッド'withColumn'は列を追加するか、同じ名前の既存の列を置き換えて、新しい DataFrame を返します。
DataFrame 変換メソッド'withColumn'を使って何かできるか?
closed_qa
DataFrame 変換メソッド'sort'(別名:'orderBy')は指定された式でソートされた新しい DataFrame を返します。
DataFrame 変換メソッド'sort'を使って何かできるか?
closed_qa
DataFrame 変換メソッド'limit'は最初の n 行を取って新しい DataFrame を返します。
DataFrame 変換メソッド'limit'を使って何かできるか?
closed_qa
集計対象列について、集約処理を計算するのに'agg'メソッドを使います。
グループ化されたデータオブジェクト においては集約処理を計算する際にどの集計関数(Aggregation methods)を使ったらいいですか?
closed_qa
数学関数 'cos' では指定した値の余弦(Cosine)値を計算することができます。
数学関数 'cos' を使って何かできるか?
closed_qa
数学関数 'log' では指定した値の自然対数(the natural logarithm)を計算することができます。
数学関数 'log' を使って何かできるか?
closed_qa
数学関数 'ceil' では指定した列の切り上げ値を計算することができます。
数学関数 'ceil' を使って何かできるか?
closed_qa
数学関数 'round' ではHALF_UPの丸めモードで、列eの値を小数点以下0桁に丸めた値を返すことができます。
数学関数 'round' を使って何かできるか?
closed_qa
数学関数 'sqrt' では指定された浮動小数点数の平方根(the square root)を計算することができます。
数学関数 'sqrt' を使って何かできるか?
closed_qa
グループ化データオブジェクトを作成するためには、DataFrameの groupBy メソッドを使用します。
グループ化データオブジェクトを作成するのにどのメソッドを使うか?
closed_qa
文字列関数 'translate' では 指定した文字を他のの文字へ変換することができます。
文字列関数 'translate' を使って何かできるか?
closed_qa
コレクション関数 'array_contains' では 配列がNULL の場合はNULL、配列に指定値が含まれる場合はtrue、それ以外の場合はfalse を返すことができます。
コレクション関数 'array_contains' を使って何かできるか?
closed_qa
文字列関数 'ltrim' では 指定した文字列の列から先頭の空白文字を削除することができます。
文字列関数 'ltrim' を使って何かできるか?
closed_qa
文字列関数 'regexp_extract' では 指定した文字列の列から、Java 正規表現でマッチした特定のグループを抽出することができます。
文字列関数 'regexp_extract' を使って何かできるか?
closed_qa
文字列関数 'regexp_replace' では regexp に一致する指定した文字列値の部分文字列をすべてrep に置き換えることができます。
文字列関数 'regexp_replace' を使って何かできるか?
closed_qa
コレクション関数 'element_at' では 指定したインデックスで配列の要素を返します。配列要素には、1で始まる番号が付けられることができます。
コレクション関数 'element_at' を使って何かできるか?
closed_qa
コレクション関数 'explode' では 指定した配列またはマップ列の要素ごとに新しい行を作成することができます。
コレクション関数 'explode' を使って何かできるか?
closed_qa
コレクション関数 'collect_set' では 重複要素を取り除いたオブジェクトの集合を返すことができます。
コレクション関数 'collect_set' を使って何かできるか?
closed_qa
DataFrame のunion メソッドは、標準SQLのように、列の位置によってデータをユニオンします。2 つのDataFrame のスキーマが、列の順序も含めてまったく同じである場合にのみ使用してください。これに対して、DataFrame unionByName メソッドは、列の名前によってデータをユニオンします。 これは、SQLのUNION ALLと同じです。 どちらも重複を削除しません。
union メソッドはどの場合に使うか?
closed_qa
データフレームのjoinメソッドにより、与えられた結合条件に基づいて2つのデータフレームを結合することができます。 いくつかの異なるタイプのjoinがサポートされています: 'name'という共通の列の値が等しい場合に内部結合(inner join)する(つまり、等結合) df1.join(df2, 'name') 'name'と'age'という共通の列の値が等しい場合に内部結合する df1.join(df2, ['name', 'age']) 'name'という共通の列の値が等しい場合に完全外部結合(Full outer join)する df1.join(df2, 'name', 'outer') 明示的な列の等式に基づいて左外部結合(Left outer join)する df1.join(df2, df1['customer_name'] == df2['account_name'], 'left_outer')
データフレームの結合に使うメソッドを教えてください。
closed_qa
ユーザー定義関数 (User-Defined Function、UDF)はカスタマイズされた列変換の関数です。いくつの特徴があります。 Catalystオプティマイザでは最適化されない 関数はシリアライズされてエグゼキューターに送信される 行のデータはSparkのネイティブフォーマットからデシリアライズされてUDFに渡され、その結果はSparkのネイティブフォーマットにシリアアイズされる Python UDFでは、各ワーカーノードでエグゼキューターとPythonインタプリタの間でのプロセス間通信のオーバーヘッドが追加で発生する。
ユーザー定義関数 (User-Defined Function、UDF)は何?
closed_qa
UDFをspark.udf.registerを使って登録することで、SQL内でも利用できるようになります。
SQLでPythonのUDFをどのように適用するか?
closed_qa
'Pandas UDF'はベクトル化されたUDFともいいます。Pandas UDFは、UDFの効率を向上させるために利用することができます。Pandas UDFは計算処理を高速化するためにApache Arrowを使っています。
'Pandas UDF'は?
closed_qa
Pandas UDFは以下を利用して動作します: Apache Arrowは、 Sparkで使われるオンメモリの列指向データフォーマットで、JVMとPythonの間のシリアライズ/デシリアライズの処理時間をほぼ0にすることでデータ転送を効率化します。 関数内ではPandasとして動作し、PandasのインスタンスやAPIが使われます。
Pandas UDFの裏の仕組みは何?
closed_qa
デフォルトで、データフレームのデータは、クエリーのデータ処理がされている間しかSparkクラスター上に存在しません。クエリーの後に自動的にクラスター上に保持されることはありません。(Sparkはデータ処理のエンジンでありデータストレージのシステムではないので。) cache メソッドを実行することにより、Sparkに対してデータフレームを保持するように明示的にリクエストすることができます。もしデータフレームをキャッシュした後、それ以上必要なくなったらunpersistを実行することにより常に明示的にそれをキャッシュから削除すべきです。
Dataframeのキャッシング (Cashing)は何ですか?
closed_qa
データフレームの再パーティショニングのためのメソッドとしてこの2つがあります: repartition、coalesce。
データフレームの再パーティショニングの場合はどのメソッドを使うか?
closed_qa
'repartition'では正確にn個のパーティションを持つ新しいデータフレームを返します。 ワイドトランスフォーメーション 長所: パーティションの大きさを均等にできる 短所: 全てのデータをシャッフルする必要がある。
'repartition'はどういう機能ですか?
closed_qa
coalescesではより少ない数のパーティションが要求された場合、正確にn個のパーティションを持つ新しいデータフレームを返します。 より大きな数のパーティションが要求された場合、現在のパーティション数のままになります。 ナロートランスフォーメーションであり、いくつかのパーティションが効果的に結合されます 長所: シャッフルが必要ない 短所: パーティション数を増やすことはできない パーティションの大きさが不均等になることがある。
'coalesce'はどういう機能ですか?
closed_qa
パーティショニングの指針です。 パーティション数がコア数の倍数になるようにします 約200MBが、パーティションの推奨サイズです デフォルトのシャッフルパーティション数を決めるために、最大のシャッフルステージのインプットを、目標とするパーティションサイズで割ります (例: 4TB / 200MB = 2万 シャッフルパーティション数)
パーティショニングの数とサイズをどうやって決めますか?
closed_qa
AQEは実行時にシャッフルパーティションを動的に減少させることができます。これはspark.sql.shuffle.partitionsをアプリケーションが処理する最大のデータセットに基づいて決めることができ、処理するデータ数がより少ない場合はAQEが自動的にパーティション数を減少させることができることを意味します。
アダプティブ・クエリー・エグゼキューション (Adaptive Query Execution)でシャッフルパーティションに関して何かできるか?
closed_qa