chtgpt / README.md
amirbasim's picture
Update README.md
e66796d verified
metadata
license: apache-2.0
datasets:
  - HuggingFaceFW/fineweb-2
language:
  - fa
metrics:
  - bleu
  - brier_score
base_model:
  - uclanlp/plbart-multi_task-php
new_version: Qwen/QwQ-32B-Preview
library_name: flair
tags:
  - code
  - php
  - css
  - js
  - html

مدل کارت برای مدل برنامه نویسی Chtgpt

جزئیات مدل

توضیحات مدل

مدل Chtgpt یک مدل پردازش زبان طبیعی است که برای تولید، درک و بازنویسی کد به زبان فارسی توسعه یافته است. این مدل با هدف بهبود کارایی و خوانایی کدها طراحی شده است و قابلیت کار با زبان های برنامه نویسی وب مانند PHP, CSS, JS و HTML را دارا می باشد.

  • توسعه دهنده: [amirbasim]
  • زبان(های) (NLP): فارسی
  • مجوز: Apache 2.0
  • مدل پایه: uclanlp/plbart-multi_task-php
  • نسخه جدید: Qwen/QwQ-32B-Preview
  • کتابخانه: flair

منابع مدل

  • مخزن: [لینک به مخزن مدل در Hugging Face]
  • مقاله: [لینک به مقاله مربوط به مدل در صورت وجود]
  • دمو: [لینک به دموی آنلاین مدل در صورت وجود]

موارد استفاده

استفاده مستقیم

این مدل به صورت مستقیم برای موارد زیر قابل استفاده است:

  • تولید قطعه کد بر اساس توضیحات فارسی
  • بازنویسی کدها به منظور بهبود خوانایی و کارایی
  • اضافه کردن توضیحات و کامنت به کدهای موجود
  • تبدیل کدها بین زبان های مختلف (مانند PHP به JS)

استفاده در پایین دست

این مدل پس از آموزش بیشتر و با استفاده از تنظیم دقیق (Fine-tuning)، می تواند برای موارد زیر استفاده شود:

  • تکمیل خودکار کد
  • تشخیص خطاهای کد
  • توسعه ابزارهای برنامه نویسی

موارد خارج از محدوده استفاده

این مدل برای موارد زیر طراحی نشده است و ممکن است عملکرد درستی نداشته باشد:

  • تحلیل کدهای پیچیده و با معماری خاص
  • تولید کد برای زبان های برنامه نویسی غیر از موارد ذکر شده
  • استفاده در برنامه های حساس به امنیت

تعصب، ریسک ها و محدودیت ها

این مدل ممکن است تعصبات موجود در داده های آموزشی را منعکس کند و در برخی موارد نتایج نادرستی ارائه دهد. محدودیت های فنی مدل شامل موارد زیر است:

  • احتمال عدم درک صحیح ساختارهای پیچیده کد
  • ممکن است در برخی موارد کدهای بهینه تولید نکند.
  • وابستگی به داده‌های آموزشی برای تولید و بازنویسی کد

توصیه ها

کاربران باید از ریسک ها، تعصبات و محدودیت های فنی مدل آگاه باشند و نتایج را با دقت بررسی کنند. برای بهبود عملکرد مدل، پیشنهاد می شود از داده های آموزشی متنوع و با کیفیت استفاده شود.

نحوه شروع کار با مدل

برای شروع کار با مدل، از قطعه کد زیر استفاده کنید:

from transformers import AutoModelForSeq2SeqLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("path/to/your/model")
model = AutoModelForSeq2SeqLM.from_pretrained("path/to/your/model")
inputs = tokenizer("your code here", return_tensors="pt")
outputs = model.generate(**inputs)
result = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(result)