A newer version of this model is available: Qwen/QwQ-32B-Preview

You need to agree to share your contact information to access this model

This repository is publicly accessible, but you have to accept the conditions to access its files and content.

Log in or Sign Up to review the conditions and access this model content.

مدل کارت برای مدل برنامه نویسی Chtgpt

جزئیات مدل

توضیحات مدل

مدل Chtgpt یک مدل پردازش زبان طبیعی است که برای تولید، درک و بازنویسی کد به زبان فارسی توسعه یافته است. این مدل با هدف بهبود کارایی و خوانایی کدها طراحی شده است و قابلیت کار با زبان های برنامه نویسی وب مانند PHP, CSS, JS و HTML را دارا می باشد.

  • توسعه دهنده: [amirbasim]
  • زبان(های) (NLP): فارسی
  • مجوز: Apache 2.0
  • مدل پایه: uclanlp/plbart-multi_task-php
  • نسخه جدید: Qwen/QwQ-32B-Preview
  • کتابخانه: flair

منابع مدل

  • مخزن: [لینک به مخزن مدل در Hugging Face]
  • مقاله: [لینک به مقاله مربوط به مدل در صورت وجود]
  • دمو: [لینک به دموی آنلاین مدل در صورت وجود]

موارد استفاده

استفاده مستقیم

این مدل به صورت مستقیم برای موارد زیر قابل استفاده است:

  • تولید قطعه کد بر اساس توضیحات فارسی
  • بازنویسی کدها به منظور بهبود خوانایی و کارایی
  • اضافه کردن توضیحات و کامنت به کدهای موجود
  • تبدیل کدها بین زبان های مختلف (مانند PHP به JS)

استفاده در پایین دست

این مدل پس از آموزش بیشتر و با استفاده از تنظیم دقیق (Fine-tuning)، می تواند برای موارد زیر استفاده شود:

  • تکمیل خودکار کد
  • تشخیص خطاهای کد
  • توسعه ابزارهای برنامه نویسی

موارد خارج از محدوده استفاده

این مدل برای موارد زیر طراحی نشده است و ممکن است عملکرد درستی نداشته باشد:

  • تحلیل کدهای پیچیده و با معماری خاص
  • تولید کد برای زبان های برنامه نویسی غیر از موارد ذکر شده
  • استفاده در برنامه های حساس به امنیت

تعصب، ریسک ها و محدودیت ها

این مدل ممکن است تعصبات موجود در داده های آموزشی را منعکس کند و در برخی موارد نتایج نادرستی ارائه دهد. محدودیت های فنی مدل شامل موارد زیر است:

  • احتمال عدم درک صحیح ساختارهای پیچیده کد
  • ممکن است در برخی موارد کدهای بهینه تولید نکند.
  • وابستگی به داده‌های آموزشی برای تولید و بازنویسی کد

توصیه ها

کاربران باید از ریسک ها، تعصبات و محدودیت های فنی مدل آگاه باشند و نتایج را با دقت بررسی کنند. برای بهبود عملکرد مدل، پیشنهاد می شود از داده های آموزشی متنوع و با کیفیت استفاده شود.

نحوه شروع کار با مدل

برای شروع کار با مدل، از قطعه کد زیر استفاده کنید:

from transformers import AutoModelForSeq2SeqLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("path/to/your/model")
model = AutoModelForSeq2SeqLM.from_pretrained("path/to/your/model")
inputs = tokenizer("your code here", return_tensors="pt")
outputs = model.generate(**inputs)
result = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(result)
Downloads last month
0
Inference API
Unable to determine this model’s pipeline type. Check the docs .

Model tree for amirbasim/chtgpt

Finetuned
(1)
this model

Dataset used to train amirbasim/chtgpt