license: apache-2.0
datasets:
- HuggingFaceFW/fineweb-2
language:
- fa
metrics:
- bleu
- brier_score
base_model:
- uclanlp/plbart-multi_task-php
new_version: Qwen/QwQ-32B-Preview
library_name: flair
tags:
- code
- php
- css
- js
- html
مدل کارت برای مدل برنامه نویسی Chtgpt
جزئیات مدل
توضیحات مدل
مدل Chtgpt یک مدل پردازش زبان طبیعی است که برای تولید، درک و بازنویسی کد به زبان فارسی توسعه یافته است. این مدل با هدف بهبود کارایی و خوانایی کدها طراحی شده است و قابلیت کار با زبان های برنامه نویسی وب مانند PHP, CSS, JS و HTML را دارا می باشد.
- توسعه دهنده: [amirbasim]
- زبان(های) (NLP): فارسی
- مجوز: Apache 2.0
- مدل پایه:
uclanlp/plbart-multi_task-php
- نسخه جدید:
Qwen/QwQ-32B-Preview
- کتابخانه:
flair
منابع مدل
- مخزن: [لینک به مخزن مدل در Hugging Face]
- مقاله: [لینک به مقاله مربوط به مدل در صورت وجود]
- دمو: [لینک به دموی آنلاین مدل در صورت وجود]
موارد استفاده
استفاده مستقیم
این مدل به صورت مستقیم برای موارد زیر قابل استفاده است:
- تولید قطعه کد بر اساس توضیحات فارسی
- بازنویسی کدها به منظور بهبود خوانایی و کارایی
- اضافه کردن توضیحات و کامنت به کدهای موجود
- تبدیل کدها بین زبان های مختلف (مانند PHP به JS)
استفاده در پایین دست
این مدل پس از آموزش بیشتر و با استفاده از تنظیم دقیق (Fine-tuning)، می تواند برای موارد زیر استفاده شود:
- تکمیل خودکار کد
- تشخیص خطاهای کد
- توسعه ابزارهای برنامه نویسی
موارد خارج از محدوده استفاده
این مدل برای موارد زیر طراحی نشده است و ممکن است عملکرد درستی نداشته باشد:
- تحلیل کدهای پیچیده و با معماری خاص
- تولید کد برای زبان های برنامه نویسی غیر از موارد ذکر شده
- استفاده در برنامه های حساس به امنیت
تعصب، ریسک ها و محدودیت ها
این مدل ممکن است تعصبات موجود در داده های آموزشی را منعکس کند و در برخی موارد نتایج نادرستی ارائه دهد. محدودیت های فنی مدل شامل موارد زیر است:
- احتمال عدم درک صحیح ساختارهای پیچیده کد
- ممکن است در برخی موارد کدهای بهینه تولید نکند.
- وابستگی به دادههای آموزشی برای تولید و بازنویسی کد
توصیه ها
کاربران باید از ریسک ها، تعصبات و محدودیت های فنی مدل آگاه باشند و نتایج را با دقت بررسی کنند. برای بهبود عملکرد مدل، پیشنهاد می شود از داده های آموزشی متنوع و با کیفیت استفاده شود.
نحوه شروع کار با مدل
برای شروع کار با مدل، از قطعه کد زیر استفاده کنید:
from transformers import AutoModelForSeq2SeqLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("path/to/your/model")
model = AutoModelForSeq2SeqLM.from_pretrained("path/to/your/model")
inputs = tokenizer("your code here", return_tensors="pt")
outputs = model.generate(**inputs)
result = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(result)