iris-s-coon
📝 [docs] リリース後のREADME更新 (v0.7.0)
d62ede2

A newer version of the Streamlit SDK is available: 1.44.1

Upgrade
metadata
title: Llama-finetune-sandbox
emoji: 🦙
colorFrom: blue
colorTo: purple
sdk: streamlit
sdk_version: 1.39.0
app_file: app.py
pinned: false
license: mit

🌟 Llama-finetune-sandbox 🌟

GitHub Repo License GitHub stars GitHub release

~ Llamaモデルのファインチューニング実験環境 ~

Python PyTorch HuggingFace Docker CUDA

🚀 プロジェクト概要

Llama-finetune-sandboxは、Llamaモデルのファインチューニングを実験的に学習・検証できる環境です。様々なファインチューニング手法を試し、モデルのカスタマイズや性能評価を行うことができます。初学者から研究者まで、幅広いユーザーのニーズに対応します。バージョン0.7.0では、ドキュメントの更新と、Unslothを用いた高速推論実装ガイドの追加を行いました。

✨ 主な機能

  1. 多様なファインチューニング手法:

    • LoRA (Low-Rank Adaptation)
    • QLoRA (Quantized LoRA)
  2. 柔軟なモデル設定:

    • カスタム可能な最大シーケンス長
    • 多様な量子化オプション
    • 複数のアテンションメカニズム
  3. 実験環境の整備:

    • メモリ使用量の最適化
    • 実験結果の可視化
  4. コンテキストアウェアリフレクティブQA生成システム:

    • Wikipediaデータから高品質なQ&Aデータセットを生成します。
    • LLMを活用し、文脈を考慮した質問と回答の生成、品質評価、段階的な改善を自動で行います。
    • 事実性、質問の質、回答の完全性を数値化して評価し、段階的に改善を行うリフレクティブなアプローチを採用しています。
    • 環境構築、モデル選択、データ前処理、Q&Aペア生成、品質評価、改善プロセスを網羅したコードと解説を提供しています。
    • litellm, wikipedia, transformersなどのライブラリを使用しています。
    • 出力されたQ&AペアはJSON形式で保存され、Hugging Face Hubへのアップロードも容易に行えます。
  5. LLM評価システム:

    • LLMの回答品質を自動的に評価するシステムです。
    • 質問、模範解答、LLMの回答を4段階で評価し、詳細な評価レポートを生成します。
    • エラーハンドリング、リトライ機能、ログ機能、カスタマイズ可能な評価基準、CSVとHTML形式でのレポート生成機能を備えています。
    • HuggingFace Hubへのアップロード機能も備えています。

🔧 使用方法

本リポジトリ内のノートブックを参照してください。

📦 インストール手順

requirements.txtを参照し、必要なパッケージをインストールしてください。

📚 実装例

本リポジトリには以下の実装例が含まれています:

Unslothを使用した高速ファインチューニング

Unslothを使用した高速推論

OllamaとLiteLLMを使用した効率的なモデル運用

WikipediaデータからのQ&Aデータセット生成(センテンスプールQA方式)

  • センテンスプールQA方式による高品質Q&Aデータセット生成
    • → 句点区切りの文をプールして文脈を保持しながらQ&Aペアを生成する新しいデータセット作成手法
    • → チャンクサイズを柔軟に調整可能(デフォルト200文字)で、用途に応じた最適な文脈範囲でQ&Aペアを生成
    • → 詳細は wikipedia-qa-dataset-generator.md をご参照ください。
  • 📒ノートブックはこちら

コンテキストアウェアリフレクティブQA生成システム

  • リフレクティブな品質改善を行うQ&Aデータセット生成
    • → 生成したQ&Aペアの品質を自動評価し、段階的に改善を行う新方式
    • → 事実性、質問品質、回答の完全性を数値化して評価
    • → 文脈情報を活用した高精度な質問生成と回答の整合性チェック
    • → 詳細は context_aware_Reflexive_qa_generator_V2.md をご参照ください。
  • 📒ノートブックはこちら

LLM評価システム (LLMs as a Judge)

  • LLMを評価者として活用する高度な品質評価システム
    • → 質問、模範解答、LLMの回答を4段階スケールで自動評価
    • → エラーハンドリングとリトライ機能による堅牢な設計
    • → CSV、HTML形式での詳細な評価レポート生成
    • → 詳細は LLMs_as_a_Judge_TOHO_V2.md をご参照ください。
  • 📒ノートブックはこちら

🆕 最新情報 (v0.7.0)

  • Unslothを用いた高速推論実装ガイドの追加: Llama-3.2モデルとLLM-JPモデルの高速推論実装に関する情報、各モデルの使用方法、Colabノートブックへのリンクを追加しました。
  • ドキュメントの更新

🤝 コントリビューション

  • 新しいファインチューニング手法の実装
  • バグ修正や機能改善
  • ドキュメントの改善
  • 使用例の追加

📄 ライセンス

このプロジェクトはMITライセンスの下で公開されています。