context
stringclasses
6 values
source
stringlengths
0
149
response
stringlengths
4
1.6k
instruction
stringlengths
5
137
category
stringclasses
1 value
Delta tableは、新しいデータが書き込まれるたびに自動的にバージョン管理されます。旧バージョンのテーブルへのアクセスは、 display(spark.sql(f'DESCRIBE HISTORY delta.{delta_path}')) を使って戻してほしいバージョンを見つけ、そのバージョンのデータをロードするぐらいに簡単にできます。タイムスタンプを使用して以前のバージョンに戻すこともできます。
Delta tableでデータのバージョンをどのように管理するのですか?
closed_qa
MLパイプラインの開発によく直面する重要な課題は、特徴量の再現性とデータの共有です。Feature Storeを利用することで、組織内のユーザーが同じ特徴量計算コードを使用できるようになります。
Feature Storeはどのような課題を解決するのに役立ちますか?
closed_qa
2つのデータセットが同じかどうかを確認するのに役立ちます。これはデータの再現性の確認に役立ちます。ただし、2つのデータセットの完全な差分を示すことはできず、スケーラブルなソリューションでもありません。
データセットのハッシュ化は何に役立ちますか?
closed_qa
Himanshu Rajによるこの講演をチェックしてください。https://www.youtube.com/watch?v=DVUwIpIlNss
Delta tableの詳細を知りたいですが、どこを見ればいいですか?
closed_qa
このドキュメント(https://docs.databricks.com/machine-learning/feature-store/index.html)では、Feature Storeを利用してパイプラインに対して何ができるかを詳しく説明しています。
Feature Storeの詳細を知りたいですが、どこを見ればいいですか?
closed_qa
Mary Grace MoestaとSrijith Rajamohanによるこのブログ記事は、再現可能なデータとモデルを作成するための基礎知識を提供します。https://www.databricks.com/blog/2021/04/26/reproduce-anything-machine-learning-meets-data-lakehouse.html
データとMLの再現性とその重要性についてもっと知りたいですが、どこを見ればいいですか?
closed_qa
MLflow Trackingとは、 1. 機械学習に特有のLogging API。 2. トレーニングを行うライブラリや環境に縛られない。 3 データサイエンスコードの実行であるrunの概念を中心に整備されている。 4 Runは実験(Experiments)の中に集約され、一つの実験に多数のrunが含まれます。 5 MLflow Serverは多数の実験をホストできます。
MLflow Trackingとは?
closed_qa
MLflow Trackingで各runに関して次の情報を記録できます。 ・Parameters: 入力パラメータのキーと値のペア。例:ランダムフォレストモデルの木の本数。 ・Metric: 評価指標。例:RMSE、AUC。 ・Artifacts: 任意形式の任意の出力ファイルで、実験の過程で出力された作成物。 例:画像、モデルのpickleファイル、データファイル。 ・Source: runした時のソースコード。
MLflow Trackingでどういう情報が記録されるか?
closed_qa
ログデータをPythonで再利用するために、過去のrunをプログラム的にクエリします。 クエリするには、 MlflowClient オブジェクトを利用します。
MLflowで過去の実験と実行をどのように検索するか?
closed_qa
MLflowは以下のものをログとして取得できます。 ・Parameter(パラメータ): モデルへの入力  ・Metrixs(評価指標): モデルのパフォーマンス  ・Artifact(作成物): データ、モデル、画像などあらゆるオブジェクト  ・Source(ソースコード): runした時のコード。gitにリンクされている場合はコミットハッシュを含む
MLflow trackingでは何をログとして記録できますか?
closed_qa
実験では、まずrunを作成し、そのrunオブジェクトにLogging method(例えば run.log_param('MSE', .2) ) を使用することによってログを取得できます。
実験はどのようにLogをとることができますか?
closed_qa
ログとして出力されたartifactは、選択したディレクトリに保存されます。 Databricksでは、DBFS (Databricks ファイルシステム) に保存されます。
ログとして出力されたartifactはどこに保存されますか?
closed_qa
MlflowClient オブジェクトを使用して照会できます。 これでUIでできることはすべてプログラム的に実行できるため、プログラミング環境から出る必要はありません。
過去のrunを照会するにはどうしたらいいですか?
closed_qa
2019年のSpark SummitでのSparkとMLflowのクリエイターであるMatei Zahariaの講演を見てください。https://www.youtube.com/watch?v=QJW_kkRWAUs
MLflowのハイレベルな説明がありますか?
closed_qa
Roaring Elephantポッドキャストのこのエピソードをチェックしてください。https://roaringelephant.org/2019/06/18/episode-145-alex-zeltov-on-mlops-with-mlflow-kubeflow-and-other-tools-part-1/#more-1958
様々な機械学習ツールのより大きな背景に関する情報ソースはありますか?
closed_qa
ドキュメントはここにあります。https://www.mlflow.org/docs/latest/index.html
MLflowに関連するドキュメントはどこにありますか?
closed_qa
An Introduction to Statistical Learning (和訳:Rによる統計的学習入門)は、機械学習のテーマと基本的なアプローチを理解する入門書としてお薦めします。https://www.statlearning.com/
機械学習を学ぶために一般的な学習材料はありますか?
closed_qa
機械学習に特化したDatabricks Blogをご覧ください。https://www.databricks.com/blog/category/engineering/data-science-machine-learning
Sparkを使った機械学習に関する詳細情報はどこで入手できますか?
closed_qa
Hyperoptはハイパーパラメーターチューニングを自動化するためのツールです。以下のものを介してApache Sparkと統合できるようになりました。 ・Trials: シングルノードまたは分散のMLモデルの逐次トレーニング (例:MLlib) ・SparkTrials: シングルノードモデルの並列トレーニング (例: sklearn)。並列処理の数は、 parallelism パラメータで制御されます。
Hyperoptとは?
closed_qa
MLflowが Nested Run という便利な実行の整理機能を提供しています。Nested Runは、親Runと子Runをツリー構造で整理します。MLflow UIでは、親Runをクリックして展開したら、子Runが表示されます。
MLflowでどのように実行を階層的に管理するか?
closed_qa
MLflow Autologgingを使って自動的に記録することができます。オートロギングを使用すると、明示的なログステートメントを必要とせずに、メトリック、パラメータ、およびモデルをログに記録できます。
どうやって自動的にメトリック、パラメータおよびモデルをログに記録するか?
closed_qa
オートロギングを有効にするには、次の2つの方法があります。1. トレーニングコードの前にmlflow.autolog()を呼び出します。これにより、インストールしたサポート対象のライブラリをインポートするとすぐに、オートロギングが有効になります。サポートされているライブラリのリストはここにあります。2. コードで使用するライブラリごとに、ライブラリ固有のオートロギング機能を使用します。例えば、 mlflow.sklearn.autolog() を使用してsklearnのMLflow Autologging 機能を有効にします。
オートロギングをどうやって有効にするか?
closed_qa
MLflow modelsは、機械学習モデルをパッケージングするための約束事のようなものであり、自己完結するコード、環境、モデルを提供します。 このパッケージに主な抽象化されたのはフレーバーという概念です。フレーバーとはモデルの異なる使い方です。たとえば、TensorFlowモデルはTensorFlow DAG またはPython関数として読み込むことができます。MLflow modelsとして使用すると、両方のフレーバーが利用可能になります。 python_functionまたはpyfuncというモデルのフレーバーは、モデルを使用する一般的な方法を提供します。 これにより、モデルのフォーマットを気にせず、Python関数を使用してモデルをデプロイできます。
MLflowモデルのフレーバーは何ですか?
closed_qa
MLflow projectの役割は、runの再現性とコードのパッケージ化です。 MLflow modelsは、さまざまな環境へデプロイする役割を持っています。
MLflow projectはモデルとどう違うのですか?
closed_qa
フレーバーは、デプロイツールがモデルを理解するために使用する約束事です。これらフレーバーにより、各ライブラリを実装しなくても、任意のMLライブラリのモデルを適用できるデプロイツールを開発できます。 各トレーニング環境をデプロイ環境にマッピングする代わりに、MLモデルフレーバーがこのマッピングを管理・実施してくれます。
ML モデルフレーバーって何ですか?
closed_qa
mlflow.pyfunc.PythonModel を使って拡張したモデルクラスでは、データのロード、前処理、および後処理のロジックを実装することが可能です。
どうやってモデルに前処理と後処理ロジックを追加すればいいですか?
closed_qa
MLflow のドキュメントをチェックしてください。https://www.mlflow.org/docs/latest/models.html
MLflow modelsの詳細情報はどこで入手できますか?
closed_qa
MLflow Model Registry (モデル・レジストリ)は、MLflow Modelの完全なライフサイクルを共同で管理するための一元化されたモデルストア、APIのセット、およびUIを揃えているコンポーネントです。モデル・リネージ(どのMLflow Experiment、どのRunで構築されたモデルか)、モデルのバージョン管理、ステージの移行(「Staging」から「Production」への移行など)、アノテーション(コメント、タグなど)、デプロイ管理(どの本番用ジョブが特定のモデルバージョンをリクエストしたかなど)を提供します。
MLflow Model Registry (モデル・レジストリ)は何?
closed_qa
モデルレジストリには以下の機能があります。 ・中央リポジトリ: モデルをMLflowモデル・レジストリに登録します。登録済みモデルには、一意の名前、バージョン、ステージ、およびその他のメタデータがあります。 ・モデルのバージョン管理: 更新時に、登録済みモデルのバージョンを自動的に追跡します。 ・モデルのステージ: モデルのライフサイクルを表す「Staging」や「Production」など、各モデルバージョンに割り当てられたものです。 ・モデルステージの移行: モデルを別のステージへ変更することです。その際に、新しいモデルの登録またはモデルのステージの変更を行動履歴として記録し、ユーザー名、変更点、およびコメントなどの追加メタデータを自動的にログに記録します。 ・CI/CDワークフロー統合: より良い制御とガバナンスを行うため、ステージの移行・変更・レビュー・承認をCI/CDパイプラインの一部として記録します。
モデル・レジストリの機能を教えてください。
closed_qa
MLflow model registryでは、 None , Staging , Production と Archived という4つのモデルステージが定義されています。各ステージには固有の意味があります。例えば、 Staging はモデルテスト用、 Production はテストまたはレビュープロセスを完了し、アプリケーションにデプロイされたモデル用です。
モデルステージはいつく定義されているか。それぞれの意味は何か?
closed_qa
トラッキングは、実験と開発のプロセスの追跡です。 モデル・レジストリは、トラッキングからモデルを取得し、ステージングを経て本番稼働に移行するように設計されています。 これは、データエンジニアや機械学習エンジニアがよくデプロイプロセスに担当することです。
MLflow tracking (モデル・トラッキング)とモデル・レジストリはどこか違いますか?
closed_qa
MLflow trackingが機械学習トレーニング・プロセスのエンドツーエンドの再現性を提供するのと同じように、モデル・レジストリはデプロイプロセスの再現性とガバナンスを提供します。 本番システムはミッションクリティカルなので、コンポーネントはACLで分離できるため、特定のユーザーしかが本番モデルを変更できません。 バージョン管理とCI/CDワークフロー統合は、モデルを本番環境にデプロイする際の重要な役割でもあります。
モデル・レジストリが必要なのはなぜですか?
closed_qa
ほとんどの操作はUIまたは純粋なPythonで行うことができます。 モデルのトラッキングはPythonで実施する必要がありますが、それ以降の処理はどちらの方法でも実行できます。 例えば、MLflow tracking APIを使用してログに記録されたモデルをUIで登録し、「Production」にプロモートすることができます。
UIを使用する場合と比較して、プログラム的に何を実行できますか?
closed_qa
MLflowのドキュメントをチェックしてください。https://www.mlflow.org/docs/latest/models.html
MLflow modelの詳細情報はどこで入手できますか?
closed_qa
Webhookとは、イベントが発生した際に、HTTP リクエストを介してアクションを呼び出す一般的なメカニズムです。
Webhookとは?
closed_qa
モデル・レジストリのWebhookにより、テストやデプロイ・パイプラインの実行、通知を送信するプッシュメカニズムの提供が可能になり、CI/CDプロセスを円滑に実行できます。モデルレジストリのWebhookは、新たなモデルバージョンの作成、新規コメントの追加、モデルバージョンのステージ移行などによって起動します。
モデル・レジストリのWebhookでできることは?
closed_qa
MLflowモデル・レジストリのWebhookは以下2つのタイプがあります。1. ジョブトリガー付きのWebhook: Databricksワークスペースでジョブをトリガーします。2. HTTPエンドポイントを持つWebhook: 任意のHTTPエンドポイントにトリガーを送信します。
MLflowモデル・レジストリのWebhookは何種類あるか?
closed_qa
以下の事項か、推論結果をバッチ処理でデプロイする最適な方法を決定するのに役に立ちます。1. データがどのようにクエリされるか。 2. データがどのように書き込まれるか。3. トレーニングとデプロイ環境。4. 最終モデルがどのようなデータでトレーニングされるか
モデルのバッチ・デプロイにおけて、考慮する必要な事項はなんでしょうか?
closed_qa
書き込みは並列分散することで最適化することができます。 Sparkでは、これは、DataFrameのパーティションを管理することを意味しており、作業が均等に分散され、書き込み先のデータベースに最も効率的に接続します。
推論の読み込みと書き込みはどのように最適化することができますか?
closed_qa
モデルをデプロイする方法はいくつもあります。1. 多くはRESTを使用。2. 基本的なプロトタイプの場合、MLflowは開発時のデプロイ用のサーバーとし利用することができます。MLflowの実装はPythonのライブラリであるFlaskによって支えられています。本番環境での利用を想定したものではありません。 さらに、Databricksはマネージドなサービスとして MLflow Model Serving を提供しています。このソリューションでは、モデルのバージョンとそのステージの可用性に基づいて自動的に更新されるRESTエンドポイントとして、Model Registryから機械学習モデルをホストすることができます。
モデルのリアルタイム・デプロイの方法は何?
closed_qa
これは、何を望むかに大きく依存します。 考慮すべき主なツールは、コードをコンテナ化する方法と、RESTエンドポイントまたは埋め込みモデルのいずれかです。 これらの方法で、リアルタイムのデプロイメントオプションの大部分をカバーしています。
リアルタイム・デプロイに最適なツールは何ですか?
closed_qa
主要なクラウドプロバイダーはすべて、それぞれのデプロイに関する選択肢を持っています。 Azure環境では、Azure MLは、Dockerイメージを使用してデプロイメントを管理します。これは、あなたのインフラの様々なサブシステムから問い合わせることができるRESTエンドポイントを提供します。
最適なRESTfulサービスは何ですか?
closed_qa
応答時間は、いくつかの要因の関数と考えられます。 バッチ予測は、REST接続のオーバーヘッドを下げることによってスループットを向上させるので、必要なときに使用されるべきです。 地理的な位置も、サーバーの負荷と同様に問題です。 これは、どの地理的場所にデプロイするかと、より多くのリソースによるロードバランシングで対処できます。
RESTデプロイのレイテンシーに影響を与える要因は何ですか?
closed_qa
ドリフトを監視するためには、ドリフトの原因毎にを監視する必要があります。ドリフトはいくつかの種類があります。1. データのドリフト:データ変化、特徴量のドリフト、ラベルのドリフト、予測値のドリフト。2. コンセプトのドリフト: 入力変数と目的変数ラベルの相関の変化、P(Y∣X)の分布の変化、現行モデルが無効になる可能性が高い
機械学習モデルのドリフト監視で何を監視すべきか?
closed_qa
継続的インテグレーションと継続的デプロイは、一般的にCI/CDと呼ばれ、開発と運用の間のギャップを埋めるものです。
CI/CDとは?
closed_qa
機械学習でCI/CDを実践すると、完全に自動化された開発とデプロイのループを閉じることができ、様々な利点が得られます。1. 時間短縮 (Time Savings)。CI/CDがなければ、本番の機械学習アプリケーションの更新は、時間がかかり、人に依存したプロセスになります。 ・データサイエンティストが新しいモデルを構築することを決定します。 ・データサイエンティストが手作業で新しいモデルを構築します。 ・データサイエンティストによるモデルの性能評価を行います。 ・データサイエンティストが新しいモデルを本番に稼動させるべきと判断します。 ・データサイエンティストは、機械学習エンジニアに新しいモデルを本番稼動させるべきと伝えます。 ・機械学習エンジニアが手作業でモデルをテスト環境に移動させます。 ・機械学習エンジニアがテスト環境内にモデルをデプロイします。 ・機械学習エンジニアは、テスト環境内でモデルに対して一連の手動テストを実行します。 ・機械学習エンジニアが手動でモデルを本番環境に移行させます。 ・機械学習エンジニアが本番環境にモデルを展開します。 ・データサイエンティストは、モデルのパフォーマンスを繰り返しテストし、アップデートが必要なタイミングを判断します。 これには、工数がかかります。CI/CDプロセスに従うことで、この時間のかかるワークフローを自動化することができます。これにより、より速いアップデートサイクルができるようになります。 ・もっと多い最新モデル。 ・モデル不良などの不具合による悪影響を抑えることができます。 2. 一貫性 (Consistency)。自動化された統合とデプロイに従うことで、プロセスの決定ポイントは、一貫性と再現性になります。これはつまり、 ・各モデルは同じターゲットで作られています。 ・各モデルに全く同じテストを実施します。 ・各モデルは、ステージング環境と本番環境に同じように統合されます。 ・各モデルは全く同じ方法でデプロイされます。 ・各モデルは、ドリフトを検出するために同じ基準で継続的に評価されます。 これにより、担当のデータサイエンティストと機械学習エンジニアが異なる(または同じ担当者で工数が異なる)ことによるバイアスが、機械学習アプリケーションに悪影響を与えないようにすることができます。 3. ホットフィックスとロールバック (Hotfixes and Rollbacks)  ・新コードの統合とデプロイを継続的に行うことのもう一つの利点は、ミスや問題を迅速に修正できることです。これには2つの方法があります。 ・ホットフィックス(Hotfixes): 実稼働中のソフトウェアアプリケーションのバグを迅速に修正するために書かれた小さなコードの断片。 ・ロールバック(Rollbacks):ソフトウェアアプリケーションを、正しく機能した最後のバージョンに戻すこと。
機械学習におけるCI/CDのメリットは何ですか?
closed_qa
機械学習にCI/CDを採用する場合、役立つツールがいろいろとあります。一般に、次のようなカテゴリに分類されます。 ・オーケストレーション:アプリケーションのフローを制御します。 ・Git Hooks: Gitリポジトリで特定のイベントが発生したときに自動的にコードを実行します。 ・アーティファクト管理:パッケージソフトや機械学習モデルなどのアーティファクトを管理します。 ・環境管理:アプリケーションで利用可能なソフトウェアリソースを管理します。 ・テスト:モデルの妥当性と有効性を評価するためのテストを開発します。 ・アラート:特定のイベントやテスト結果が発生したときに、該当のステークホルダーに通知します。
モデルCI/CDのため役に立つツールはどんなものですか?
closed_qa
アラートツールには、さまざまなレベルのものがあります。1. PagerDuty。本番システムの停止を監視する最も人気なツールの1つです。テキストメッセージや電話で問題をチーム間にエスカレーションすることができます。2. SlackまたはMicrosoft。3. Teams。4. Twilio。5. メール通知。ほとんどのアラートフレームワークは、REST統合によってカスタムアラートを出すことができます。
アラートに使用するツールはどういうものがありますか?
closed_qa
PagerDutyは、本番環境で最も使用されるツールである傾向があります。 また、アラートをメールで送信するSMTPサーバーや、テキストメッセージでアラートを送信するTwilioも人気があります。 Slackのwebhookやbotも簡単に作ることができます。
アラートツールの代表的なものは何ですか?
closed_qa
Spark Streamingでできることは主に以下の2つです。1. スケーラブルかつ耐障害性な運用により、入力データに対して継続的に推論を行います。2. ストリーミングアプリケーションは、ETLやその他のSparkの機能を組み込んで、リアルタイムにアクションを起こすことも可能です。
Spark Streamingでできることを教えてください。
closed_qa
ストリーミングには、特別な課題がいくつもあります。具体的には次のようなものがあります。1. エンドツーエンドの信頼性と正確性: ネットワークの問題、トラフィックの急増、および/またはハードウェアの誤動作によって引き起こされるパイプラインの任意の要素の障害に対する回復力がなければなりません。2. 複雑な変換を処理する: よく複雑なビジネスロジックかつ形式の異なるデータを入力として処理しなければなりません。3. データの遅延と到着順序の外れ: ネットワークの問題により、データの到着が遅れたり、意図した順序から外れたりすることがあります。4. 他のシステムとの統合: アプリケーションは、データインフラストラクチャの他の部分と統合する必要があります。
ストリーミングに関する特別な課題が何か?
closed_qa
Apache Kafkaや、AWS KinesisやAzure Event Hubsなどのクラウド管理型ソリューションが一般的なデータストリームです。 さらに、受信ファイルが入ってくるディレクトリを監視するのもよくあります。 新しいファイルが入ると、そのファイルをストリームに取り込んで処理します。
一般的なデータストリームは何でしょうか?
closed_qa
チェックポイントは、クラスターの状態を維持する能力を通じ、耐障害性を実現します。
SparkはどのようにExactly Once(厳密に1回)」のデータ配信を行い、ストリームのメタデータを維持するのでしょうか?
closed_qa
Spark Streamingはバッチ処理と同じDataFrame APIを使用しているため、他のSpark機能との統合が容易に行えます。
Sparkのストリーミングは、他のSparkの機能とどのように統合されているのですか?
closed_qa
Databricks AutoML は、UIとプログラムのいずれで機械学習モデルを自動的に構築するのに役立ちます。モデル トレーニング用のデータセットを準備し、一連の試行 (HyperOpt を使用して) を実行して記録し、複数のモデルを作成、チューニング、および評価します。
Databricks AutoMLについて
closed_qa
Databricks File System (DBFS) は、クラウド オブジェクト ストレージをクラスター上のローカル ファイルおよびディレクトリであるように扱うことができる仮想ファイル システムです。
Databricks File System (DBFS)とは?
closed_qa
SparkSession クラスは、DataFrame API を使用する Spark のすべての機能への唯一のエントリです。Databricks ノートブックでは、既にSparkSession が作成され、 spark という変数に格納されています。
SparkSessionとは?
closed_qa
DataFrame は、名前付き列にグループ化されたデータの分散コレクションです。
DataFramesとは?
closed_qa
DataFrameの結果を表示するのにdisplay()を使います。
DataFrameの結果を表示するのに使うメソッドは何?
closed_qa
データフレームのスキーマを表示するのにprintSchema() メソッドを使用します。データフレームのschema属性を使用して、DataFrameのスキーマにもアクセスできます。
データフレームのスキーマを表示するのに使うメソッドは何?
closed_qa
データフレームのTransformationsは DataFrame を操作して返すため、変換メソッドを連鎖させて新しい DataFrame を構築できます。 ただし、変換メソッドは 遅延評価されるため、これらの操作は単独では実行できません。
データフレームのTransformationsは何?
closed_qa
DataFrame アクションは、計算をトリガーするメソッドです。 DataFrame 変換の実行をトリガーするには、アクションが必要です。
DataFrameActions(アクション)
closed_qa
一つの方法はcreateOrReplaceTempViewで、DataFrame (データフレーム)から一時的なビューを作成します。一時ビューの有効期間は、DataFrame の作成に使用された SparkSession に関連付けられています。
DataFramesとSQL間の変換はどうすればいいですか?
closed_qa
一言で言えば、Delta Lakeは、データレイクに信頼性とパフォーマンスをもたらす、オープンソースのストレージレイヤーです。Delta Lakeは、ACIDトランザクション、スケーラブルなメタデータ処理を提供し、ストリーミングとバッチデータを統一的に処理します。
なぜDelta Lakeなのか?
closed_qa
DeltaのTransaction Logは、ユーザーがDelta Lakeテーブルを作成すると、そのテーブルのトランザクションログは自動的に_delta_logというサブディレクトリに作成されるものです。そのテーブルを変更すると、全ての変更はトランザクションログとして、順序付きでアトミックにコミットとして記録されます。各コミットは、000000.jsonで始まるJSONファイルとして書き出されます。テーブルを追加変更すると、さらにJSONファイルが生成されます。
DeltaのTransaction Log(トランザクション・ログ)は何?
closed_qa
Delta Time Travelを使用して、デルタテーブルの以前のバージョンにアクセスすることができます。Delta Lakeは、デフォルトで30日間のバージョン履歴を保持しますが、必要であればより長い履歴を保持することもできます。
Delta Time Travelを使用して何かできるか?
closed_qa
データフレームの要約統計を出力する2つのメソッドがあります。1. describe : count, mean, stddev, min, max 。2. summary : 上記のdescribeの項目 + 四分位範囲(IQR : interquartile range)
データフレームの要約統計を出力するのに使うメソッドは何?
closed_qa
欠損を処理するいくつかの方法があります。1. 欠損を含むレコードはすべて削除する。2. 数値型の場合は平均値/中央値/ゼロ/その他で置き換える。3. カテゴリカル変数の場合は最頻値に置き換えるか欠損を表す表現を用意する。4. 欠損値補完のために設計された ALS (Alternating Least Squares) のようなテクニックを使用する。
欠損値を扱うには、どうな方法がありますか?
closed_qa
Sparkでは、データは行で分割されます。そのため、分割を行う必要がある場合、各Workerは分割点ごとに各特徴の要約統計量を計算する必要があります。そして、分割するためにこれらの統計情報を(tree reduceによって)集約する必要があります。考えてみてください。Worker1が値 32 を持っているが、他のどのWorkerもその値を持っていなかったとしたらどうなるでしょうか。どれだけ良い分割になるのかどうやって分かりますか。そこで、Sparkには連続変数を離散化してバケットにするためのmaxBinsパラメータを使います。しかし、バケット数は最も基数の多いカテゴリ型変数と同じ大きさでなければなりません。
maxBins は、どのようなパラメータでしょうか?
closed_qa
Hyperoptは、「実数値、離散、条件付き次元を含む、厄介な探索空間上でのシリアルおよびパラレル最適化」のためのPythonライブラリです。機械学習ワークフローにおいて、hyperoptは、他のライブラリで利用可能なものより高度な最適化戦略を用いてハイパーパラメータ最適化プロセスを分散/並列化するために使用することができます。
Hyperoptとは?
closed_qa
Apache Sparkでhyperoptをスケールさせるには、2つの方法があります。1. シングルマシンのhyperoptで、分散学習アルゴリズム(MLlibなど)を使う。2. 分散hyperoptで、SparkTrialsクラスと一緒にシングルマシンの学習アルゴリズム(scikit-learnなど)を使う。
Apache Sparkでhyperoptをスケールさせる方法を教えてください。
closed_qa
Hyperoptでは、ランダムサーチまたはTree of Parzen Estimators(TPE)を用いて、ハイパーパラメータのチューニングを並行して行うことができます。TPEはハイパーパラメータ空間を繰り返し探索します。テストされる新しいハイパーパラメータ設定は、過去の結果に基づいて選択される。なのでtpe.suggest はベイジアンの探索方法です。
hyperoptのハイパーパラメータ探索アルゴリズムは何か?
closed_qa
はい、MLflowはHyperoptと統合されているため、ハイパーパラメータのチューニングの一環として、学習させたすべてのモデルの結果とその結果を追跡することができます。
hyperoptでのハイパーパラメータ・チューニングをMLflowで追跡することができますか?
closed_qa
Feature Storeに登録したMLflowモデルを使ってバッチ推論をするために、score_batchを使用します。
Feature storeのバッチ推論メソッドは何?
closed_qa
はい、できます。overwrite(上書き)で新規特徴量の追加が可能です。
Feature Storeの既存特徴量テーブルにカラムを追加することができるか?
closed_qa
Apache Arrowは、Sparkで使用されてJVM と Python プロセス間のデータをほぼゼロの(デ)シリアライズコストで効率的に転送するためのインメモリ列型データ形式です。詳しくはこちらをご覧ください。https://spark.apache.org/docs/latest/sql-pyspark-pandas-with-arrow.html
Apache Arrowは何?
closed_qa
はい、MLflow Model Serving機能を提供しています。MLflowでは、モデルをリアルタイムのREST APIとしてデプロイすることができます。
MLflowでモデルのサービング機能を提供していますか?
closed_qa
pandas API on Sparkプロジェクトは、Apache Sparkにおけるpandas DataFrame APIを実装することにより、データサイエンティストがビッグデータを扱う際の生産性を高めることを目的としています。2つのエコシステムを使い慣れたAPIに統一することで、pandas API on Sparkは小規模データと大規模データの間のシームレスな切り替えを提供します。PySpark 3.2にマージされたKoalasプロジェクトについてご存知の方もいるかもしれません。Apache Spark 3.2以降では、スタンドアローンのKoalasプロジェクトがメンテナンスモードに入ったため、PySparkを直接ご利用ください。
SparkにおけるPandas API (Pandas API on Spark)は何?
closed_qa
Pandas DataFrames は ミュータブル(変更可能) で、強制的に評価され、行の順序を維持します。これらは1台のマシンに限定され、a)に示すようにデータセットが小さい場合に非常に高い性能を出します。 Spark DataFrameは、分散的、遅延評価され、不変であり、行の順序を維持しません。b)とc)に示したように、大規模データの場合の性能は非常に高いです。 Pandas API on Sparkは、pandas APIとSparkの性能上の利点という、両者の利点を提供します。しかし、Sparkでネイティブにソリューションを実装するのに比べれば、速度は劣ります。
Pandas DataFrames、Spark DataFrame、Pandas API on Spark DataFrameの違いは?
closed_qa
PySpark DataFrameからpandas API on Spark DataFrameに変換するのは、spark_df.to_pandas_on_spark()とps.DataFrame(spark_df)の2つ方法があります。 Pandas API on Spark DataFrameからSpark DataFrameへ変換するには'df.to_spark()'を使用します。
Spark DataFrameとpandas API on Spark DataFrameの変換方法を教えてください。
closed_qa
はい、あります。Pandas API on Sparkでは、可視化の種類に応じて、プロットの実行方法が最適化されています。
Pandas API on Sparkデータフレームの可視化機能は特別なところがありますか?
closed_qa
pandas API on Spark DataFramesをSQLで操作する場合、以下の例のように実施することができます。例:「ps.sql('SELECT distinct(property_type) FROM {df}')」
pandas API on Spark DataFramesをSQLでどのように操作するか?
closed_qa
モデルのデプロイ方法は主に4つあります。1. バッチ・プリ・コンピュート, 2. 構造化ストリーミング, 3.低レイテンシーモデルサービング, 4. モバイル/エッジ推論
モデルの主なデプロイ方法は何種類がありますか?
closed_qa
時系列とは、時間順に索引付け(またはリスト化、グラフ化)された一連のデータポイントのことです。最も一般的な時系列は、時間的に等間隔に連続して取得されたデータ系列です。したがって、これは離散時間データのシーケンスです。時系列の例:海洋潮汐の高さ、太陽黒点の数、ダウ・ジョーンズ工業の平均株価の日次終値
時系列 (Time Series)とは?
closed_qa
ProphetはFacebookのProphetパッケージです。Prophetは、ユーザーに代わってヘビーな作業を行ってくれるため、時系列予測タスクによく採用されています。
Prophetとは?
closed_qa
ARIMAとは、Auto-Regressive (AR) Integrated (I) Moving Average (MA)の略です。ARIMAモデルは回帰分析の一種で、データ系列のある点とその直近時点の値との関係性を分析する手法です。 ARIMAは、Prophetと同様に、データセットの過去の値に基づいて将来の値を予測します。ARIMAはプロフェットと違い、設定作業が多くなりますが、様々な時系列に適用することが可能です。 ARIMAモデルを作成するために、以下のパラメータを求める必要があります。 ・p (自己回帰パラメータ) :モデルに含まれるラグ観測の数で、ラグ次数とも呼ばれる。 ・d (差分の階数):生の観測値が差分される回数で、差分化の度合いとも呼ばれます。 ・q (移動平均パラメータ):移動平均の窓の大きさで、移動平均の次数とも呼ばれる。
ARIMAとは?
closed_qa
指数平滑化とは、指数窓関数を用いて時系列データを平滑化する経験則の手法です。単純移動平均では過去の観測値が均等に重み付けされるのに対し、指数関数は時間の経過とともに指数的に減少する重みを割り当てるために使用されます。季節性など、ユーザーによる事前の想定に基づいて何らかの判断を行うための手順で、簡単に習得でき、簡単に適用できます。時系列データの解析には、指数平滑化がよく使われます。
指数平滑化 (Exponential Smoothing)
closed_qa
指数平滑化には3つのタイプがあります。1. 単純指数平滑化(SES), トレンドや季節性のないデータセットに使用します。2. 二重指数平滑化(別名:ホルトの線形平滑化), トレンドはあるが季節性がないデータセットに使用します。3. 三重指数平滑化(ホルト・ウィンタース指数平滑化とも呼ばれる), トレンドと季節性の両方を持つデータセットに使用されます。
指数平滑化には何種類がありますか?
closed_qa
ジョブの実行速度が遅い場合の最も一般的な要因:1. Spill (スピル、メモリ溢れ): メモリーからディスクにデータが溢れること。解決策:より多くのメモリを持つクラスタを使用する。2. Shuffle : 大量データがクラスタ間で転送されていること。 解決策:Joinを最適化するか、シャッフルを回避するためにコードをリファクタリングする。3. スキュー/ストラグラー : パーティショニングされたデータ(ファイルまたはメモリ内)が均等に分散されていない、一部のパーティションの実行に時間がかかる「最後のreducerの呪い」が発生します。 解決策:使用可能なコアの倍数に再分割するか、スキューヒントを使用する。4. Small/Large Files : 小さなファイルが多すぎて、各ファイルの読み込みに専用のスレッドが必要なため、クラスタのリソースが枯渇しているか、大きなファイルのせいで未使用のスレッドが発生しています。 解決策:より最適な方法でデータを書き直すか、Deltaファイルのコンパクションを実行する。
ジョブの実行速度が遅い場合はどういう原因がありますか?
closed_qa
ジョブの実行速度が遅いなどの場合のデバックツールはいくつあります。1. CPU、ネットワーク、メモリのリソースをクラスタまたはノードレベルで管理するGanglia, 2. その他を監視するSpark UI(特にストレージとエグゼキュータータブ), 3. ドライバやワーカーのログにエラーがないか(特にバックグラウンドプロセスの場合), 4. クラスタ・セクションのノートブックタブで、インターンが再びクラスタを占拠しているかどうか
ジョブの実行速度が遅いなどの場合のデバッグのツールは何?
closed_qa
クタスターの構成について一般的な経験則は以下です。1. 機械学習用に大きなマシンタイプの小型クラスタ, 2. 本番ワークロードごとに1クラスタ, 3. ML学習用のクラスタを共有しない(開発中であっても)。詳しくはドキュメントをご覧ください。https://docs.databricks.com/clusters/configure.html
クラスタータイプをどう選択するか?
closed_qa
以下はライブラリインストールのベストプラクティスです。1. Notebook-scoped Python libraries は、同じクラスタのユーザが異なるライブラリを持つことができることを保証します。 また、ライブラリに依存するノートブックを保存するのにも便利です。2. 初期化スクリプトは、JVMの起動前にコードが実行されることを保証します(特定のライブラリまたは環境構成に適しています)。3. いくつかの構成変数は、クラスタ起動時に設定する必要があります。
ライブラリインストールのベストプラクティスを教えてください。
closed_qa
以下はジョブのベストプラクティスです。1. ノートブックワークフローを使用します。2. ウィジェットはパラメータ渡しのために使用します。3. jars や wheelsも実行することができます。4. オーケストレーションツール(Airflowなど)のCLIを利用します。5. 詳しくはドキュメントをご覧ください。https://docs.databricks.com/workflows/jobs/jobs.html 6. 無限にジョブが実行されるのを防ぐため、必ずタイムアウト時間を指定します。
ジョブのベストプラクティスを教えてください。
closed_qa
Gitの統合は、いくつかの方法で実現できます:1. CLIを使ってノートブックをインポート/エクスポートし、gitに手動でチェックインする。2. ビルドインの git統合機能を使用する。3. プロジェクト統合の代替に次世代ワークスペースを使用する。
Gitの統合方法は?
closed_qa
Databricks File System (DBFS) は、クラウド オブジェクト ストレージをクラスター上のローカル ファイルおよびディレクトリであるように扱うことができる仮想ファイル システムです。
Databricks File System (DBFS) は?
closed_qa
マジックコマンド %fs を使ってDBFS上でファイルシステムコマンドを実行します。あるいは、Databricks ユーティリティ を直接使用して DBFS 上でファイルシステムコマンドを実行します。
DBFSのファイルへのアクセスはどのコマンドを実行するか?
closed_qa
Databricks display関数を使ってテーブルの結果を可視化します。
ノートブックでテーブルの結果を可視化する際にどの関数を使うか?
closed_qa
SQLコマンドでPython変数を直接使用できませんが、Python変数をSQLコマンドがアクセスできるsparkコンテキストの変数として宣言するとできます。
SQLクエリでPython変数を使用できるか。
closed_qa
ウィジェットを使用して、ノートブックに入力パラメータを追加します。
ノートブックに入力パラメータをどのように追加するか?
closed_qa
Spark SQL は、複数のインターフェイスを備えた構造化データ処理用のモジュールです。 Spark SQLモジュールとやり取りするには、次の2つの方法があります。 SQL クエリの実行 DataFrame APIの利用
Spark SQLモジュールの使い方は?
closed_qa