modelId
stringlengths 5
139
| author
stringlengths 2
42
| last_modified
timestamp[us, tz=UTC]date 2020-02-15 11:33:14
2025-07-28 06:27:55
| downloads
int64 0
223M
| likes
int64 0
11.7k
| library_name
stringclasses 534
values | tags
listlengths 1
4.05k
| pipeline_tag
stringclasses 55
values | createdAt
timestamp[us, tz=UTC]date 2022-03-02 23:29:04
2025-07-28 06:22:14
| card
stringlengths 11
1.01M
|
---|---|---|---|---|---|---|---|---|---|
dominics/trainer_output
|
dominics
| 2025-06-18T15:18:27Z | 10 | 0 |
peft
|
[
"peft",
"tensorboard",
"safetensors",
"mistral",
"generated_from_trainer",
"dataset:dominics/mixed_c16-markdown_and_sc16",
"base_model:openai-community/gpt2",
"base_model:adapter:openai-community/gpt2",
"license:mit",
"model-index",
"region:us"
] | null | 2025-06-10T14:44:45Z |
---
library_name: peft
license: mit
base_model: gpt2
tags:
- generated_from_trainer
datasets:
- dominics/mixed_c16-markdown_and_sc16
metrics:
- accuracy
model-index:
- name: trainer_output
results:
- task:
type: text-generation
name: Causal Language Modeling
dataset:
name: dominics/mixed_c16-markdown_and_sc16
type: dominics/mixed_c16-markdown_and_sc16
metrics:
- type: accuracy
value: 0.6695812110922468
name: Accuracy
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# trainer_output
This model is a fine-tuned version of [gpt2](https://huggingface.co/gpt2) on the dominics/mixed_c16-markdown_and_sc16 dataset.
It achieves the following results on the evaluation set:
- Loss: 1.8105
- Accuracy: 0.6696
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 2e-05
- train_batch_size: 1
- eval_batch_size: 8
- seed: 42
- optimizer: Use adamw_torch with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: linear
- num_epochs: 1
- mixed_precision_training: Native AMP
### Training results
### Framework versions
- PEFT 0.15.2
- Transformers 4.52.4
- Pytorch 2.7.1+cu126
- Datasets 3.6.0
- Tokenizers 0.21.1
|
Desalegnn/amharic-t5-LoRA-f
|
Desalegnn
| 2025-06-18T15:16:45Z | 73 | 0 |
transformers
|
[
"transformers",
"safetensors",
"t5",
"text2text-generation",
"arxiv:1910.09700",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] |
text2text-generation
| 2025-05-27T08:27:38Z |
---
library_name: transformers
tags: []
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed]
|
hyangilam/0.0.2
|
hyangilam
| 2025-06-18T15:14:36Z | 2 | 0 |
transformers
|
[
"transformers",
"tensorboard",
"safetensors",
"whisper",
"automatic-speech-recognition",
"generated_from_trainer",
"ko",
"dataset:mozilla-foundation/common_voice_17_0",
"base_model:openai/whisper-large-v3-turbo",
"base_model:finetune:openai/whisper-large-v3-turbo",
"license:mit",
"endpoints_compatible",
"region:us"
] |
automatic-speech-recognition
| 2025-06-18T05:46:15Z |
---
library_name: transformers
language:
- ko
license: mit
base_model: openai/whisper-large-v3-turbo
tags:
- generated_from_trainer
datasets:
- mozilla-foundation/common_voice_17_0
model-index:
- name: Whisper Turbo Ko v0.0.2
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# Whisper Turbo Ko v0.0.2
This model is a fine-tuned version of [openai/whisper-large-v3-turbo](https://huggingface.co/openai/whisper-large-v3-turbo) on the Common Voice 17.0 dataset.
It achieves the following results on the evaluation set:
- Loss: 0.5527
- Cer: 10.4193
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 1e-05
- train_batch_size: 16
- eval_batch_size: 8
- seed: 42
- distributed_type: multi-GPU
- num_devices: 2
- total_train_batch_size: 32
- total_eval_batch_size: 16
- optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: linear
- lr_scheduler_warmup_steps: 500
- training_steps: 4000
- mixed_precision_training: Native AMP
### Training results
| Training Loss | Epoch | Step | Validation Loss | Cer |
|:-------------:|:--------:|:----:|:---------------:|:-------:|
| 0.0024 | 43.4783 | 1000 | 0.5080 | 11.2617 |
| 0.0001 | 86.9565 | 2000 | 0.5336 | 10.3515 |
| 0.0001 | 130.4348 | 3000 | 0.5476 | 10.3031 |
| 0.0 | 173.9130 | 4000 | 0.5527 | 10.4193 |
### Framework versions
- Transformers 4.52.4
- Pytorch 2.7.1+cu126
- Datasets 3.6.0
- Tokenizers 0.21.1
|
AnubhavSC/MAYA-PJ3
|
AnubhavSC
| 2025-06-18T15:13:52Z | 0 | 0 | null |
[
"safetensors",
"unsloth",
"license:mit",
"region:us"
] | null | 2025-06-18T14:26:39Z |
---
license: mit
tags:
- unsloth
---
|
QuantFactory/Foundation-Sec-8B-GGUF
|
QuantFactory
| 2025-06-18T14:58:12Z | 0 | 1 |
transformers
|
[
"transformers",
"gguf",
"security",
"text-generation",
"en",
"arxiv:2504.21039",
"base_model:meta-llama/Llama-3.1-8B",
"base_model:quantized:meta-llama/Llama-3.1-8B",
"license:apache-2.0",
"endpoints_compatible",
"region:us"
] |
text-generation
| 2025-06-15T11:31:03Z |
---
base_model:
- meta-llama/Llama-3.1-8B
language:
- en
library_name: transformers
license: apache-2.0
pipeline_tag: text-generation
tags:
- security
---
[](https://hf.co/QuantFactory)
# QuantFactory/Foundation-Sec-8B-GGUF
This is quantized version of [fdtn-ai/Foundation-Sec-8B](https://huggingface.co/fdtn-ai/Foundation-Sec-8B) created using llama.cpp
# Original Model Card
# Foundation-Sec-8B - Model Card
## Model Information
Foundation-Sec-8B (Llama-3.1-FoundationAI-SecurityLLM-base-8B) is an open-weight, 8-billion parameter base language model specialized for cybersecurity applications. It extends Llama-3.1-8B model through continued pretraining on a curated corpus of cybersecurity-specific text, including threat intelligence reports, vulnerability databases, incident response documentation, and security standards. It has been trained to understand security concepts, terminology, and practices across multiple security domains. The model is designed to serve as a domain-adapted base model for use in applications such as threat detection, vulnerability assessment, security automation, and attack simulation. Foundation-Sec-8B enables organizations to build AI-driven security tools that can be deployed locally, reducing dependency on cloud-based AI services while maintaining high performance on security-related tasks.
- **Model Name:** Foundation-Sec-8B (Llama-3.1-FoundationAI-SecurityLLM-base-8B)
- **Model Developer:** Amin Karbasi and team at Foundation AI — Cisco
- **Technical Report:** [`https://arxiv.org/abs/2504.21039`](https://arxiv.org/abs/2504.21039)
- **Model Card Contact:** For questions about the team, model usage, and future directions, contact [`[email protected]`](mailto:[email protected]). For technical questions about the model, please contact [`[email protected]`](mailto:[email protected]).
- **Model Release Date:** April 28, 2025
- **Supported Language(s):** English
- **Model Architecture:** Auto-regressive language model that uses an optimized transformer architecture (Meta Llama-3.1-8B backbone)
- **Training Objective:** Continued pre-training on cybersecurity-specific corpus
- **Training Data Status:** This is a static model trained on an offline dataset. Future versions of the tuned models will be released on updated data.
- **License:** Apache 2.0
## Intended Use
### Intended Use Cases
Foundation-Sec-8B is designed for security practitioners, researchers, and developers building AI-powered security workflows and applications. Foundation-Sec-8B is optimized for three core use case categories:
- **SOC Acceleration**: Automating triage, summarization, case note generation, and evidence collection.
- **Proactive Threat Defense**: Simulating attacks, prioritizing vulnerabilities, mapping TTPs, and modeling attacker behavior.
- **Engineering Enablement**: Providing security assistance, validating configurations, assessing compliance evidence, and improving security posture.
The model is intended for local deployment in environments prioritizing data security, regulatory compliance, and operational control.
### Downstream Use
Foundation-Sec-8B can be used directly for security-related language tasks and serves as a strong starting point for fine-tuning across a variety of cybersecurity workflows. Example downstream applications include:
- Summarization
- Summarizing detection playbooks and incident reports
- Consolidating fragmented analyst notes into structured case summaries
- Classification
- Mapping threats to MITRE ATT&CK techniques
- Prioritizing vulnerabilities based on contextual risk
- Classifying security-relevant emails and leaked file contents
- Named Entity Recognition
- Extracting compliance evidence from documents
- Building network behavior profiles from technical manuals
- Question & Answer
- Assisting SOC analysts with alert triage and investigation
- Responding to cloud security and software compliance queries
- Reasoning and Text Generation
- Generating red-team attack plans and threat models
- Predicting attacker next steps in active investigations
- Enriching vulnerability scan results with contextual insights
For questions or assistance with fine-tuning Foundation-Sec-8B, please contact **Paul Kassianik** ([email protected]) or **Dhruv Kedia** ([email protected]).
### Out-of-Scope Use
The following uses are out-of-scope and are neither recommended nor intended use cases:
1. **Generating harmful content** - The model should not be used to:
- Generate malware or other malicious code
- Create phishing content or social engineering scripts
- Develop attack plans targeting specific organizations
- Design exploitation techniques for vulnerabilities without legitimate security research purposes
2. **Critical security decisions without human oversight** - The model should not be used for:
- Autonomous security decision-making without human review
- Critical infrastructure protection without expert supervision
- Final determination of security compliance without human verification
- Autonomous vulnerability remediation without testing
3. **Legal or medical advice** - The model is not qualified to provide:
- Legal advice regarding security regulations, compliance requirements, or intellectual property disputes
- Legal advice regarding security issues that would reference legal statutes, precedents, or case law necessary to provide legal advice
- Medical advice regarding health impacts of security incidents
4. **Non-security use cases** - The model is specifically optimized for cybersecurity and may not perform as well on general tasks as models trained for broader applications.
5. **Violation of Laws or Regulations** - Any use that violates applicable laws or regulations.
## How to Get Started with the Model
Use the code below to get started with the model.
```python
# Import the required libraries
import torch
from transformers import AutoTokenizer, AutoModelForCausalLM
# Load the model and tokenizer
tokenizer = AutoTokenizer.from_pretrained("fdtn-ai/Foundation-Sec-8B")
model = AutoModelForCausalLM.from_pretrained("fdtn-ai/Foundation-Sec-8B")
# Example: Matching CWE to CVE IDs
prompt="""CVE-2021-44228 is a remote code execution flaw in Apache Log4j2 via unsafe JNDI lookups (“Log4Shell”). The CWE is CWE-502.
CVE-2017-0144 is a remote code execution vulnerability in Microsoft’s SMBv1 server (“EternalBlue”) due to a buffer overflow. The CWE is CWE-119.
CVE-2014-0160 is an information-disclosure bug in OpenSSL’s heartbeat extension (“Heartbleed”) causing out-of-bounds reads. The CWE is CWE-125.
CVE-2017-5638 is a remote code execution issue in Apache Struts 2’s Jakarta Multipart parser stemming from improper input validation of the Content-Type header. The CWE is CWE-20.
CVE-2019-0708 is a remote code execution vulnerability in Microsoft’s Remote Desktop Services (“BlueKeep”) triggered by a use-after-free. The CWE is CWE-416.
CVE-2015-10011 is a vulnerability about OpenDNS OpenResolve improper log output neutralization. The CWE is"""
# Tokenize the input
inputs = tokenizer(prompt, return_tensors="pt")
# Generate the response
outputs = model.generate(
inputs["input_ids"],
max_new_tokens=3,
do_sample=True,
temperature=0.1,
top_p=0.9,
)
# Decode and print the response
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
response = response.replace(prompt, "").strip()
print(response)
```
## Training and Evaluation
### Training Data
Foundation-sec-8B was pretrained on approximately **5.1 billion tokens** of cybersecurity-specific data curated in-house by Cisco’s Foundation AI team. The dataset was meticulously collected from public sources on the web.
The pre-training corpus was built through a multi-stage pipeline that included large-scale web crawling, relevancy filtering, deduplication, and quality filtering.
**Data cutoff:** April 10th, 2025.
More detailed methodology is available in the technical report.
### Training Setup
Foundation-sec-8B is based on the **Llama 3.1 8B** architecture. Pre-training was performed on Cisco Foundation AI’s internal compute cluster.
Key training details:
- **Continued pretraining** for cybersecurity specialization
- **4096-token** sequence length
- **Optimizer:** AdamW
More detailed methodology is available in the technical report.
### Evaluation
Foundation-sec-8B was benchmarked on cybersecurity and general reasoning tasks, using a standardized 5-shot prompting setup (temperature = 0.3).
| **Benchmark** | **Foundation-sec-8B** | **Llama 3.1 8B** | **Llama 3.1 70B** |
| --- | --- | --- | --- |
| CTI-MCQA | 67.39 | 64.14 | 68.23 |
| CTI-RCM | 75.26 | 66.43 | 72.66 |
**Benchmark Overview:**
- **CTI-MCQA:** 2,500 multiple-choice questions testing cybersecurity knowledge across frameworks like MITRE ATT&CK, NIST, GDPR, and threat intelligence best practices.
- **CTI-RCM:** 900+ vulnerability root cause mapping examples linking CVEs to CWE categories, assessing deep understanding of security weaknesses.
**Key highlights:**
- **+3 to +9 point gains** over Llama-3.1-8B across security-specific benchmarks.
- **Comparable or better** performance than Llama-3.1-70B on cyber threat intelligence tasks.
- **Minimal drop (~2%)** in general language reasoning (MMLU) despite cybersecurity specialization.
For full benchmark details and evaluation methodology, please refer to the technical report.
## Limitations
Foundation-Sec-8B has several limitations that users should be aware of:
1. **Domain-specific knowledge limitations**:
- Foundation-Sec-8B may not be familiar with recent vulnerabilities, exploits, or novel attack vectors or security technologies released after its training cutoff date
- Knowledge of specialized or proprietary security systems or tools may be limited
2. **Potential biases**:
- The model may reflect biases present in security literature and documentation
- The model may be trained on known attack patterns and have difficulty recognizing novel attack vectors
- Security practices and recommendations may be biased toward certain technological ecosystems
- Geographic and cultural biases in security approaches may be present
3. **Security risks**:
- The model cannot verify the identity or intentions of users
- Adversarial prompting techniques might potentially bypass safety mechanisms
- The model may unintentionally provide information that could be misused if proper prompting guardrails are not implemented
4. **Contextual blindness:**
- The model may struggle to understand the complex interrelationships between systems, users, and data in order to provide accurate context.
5. **Technical limitations**:
- Performance varies based on how security concepts are described in prompts
- May not fully understand complex, multi-step security scenarios without clear explanation
- Cannot access external systems or actively scan environments
- Cannot independently verify factual accuracy of its outputs
6. **Ethical considerations**:
- Dual-use nature of security knowledge requires careful consideration of appropriate use cases
### Recommendations
To address the limitations of Foundation-Sec-8B, we recommend:
1. **Human oversight**:
- Always have qualified security professionals review model outputs before implementation
- Use the model as an assistive tool rather than a replacement for expert human judgment
- Implement a human-in-the-loop approach for security-critical applications
2. **System design safeguards**:
- Implement additional validation layers for applications built with this model
- Consider architectural constraints that limit the model's ability to perform potentially harmful actions (excessive agency)
- Deploy the model in environments with appropriate access controls
3. **Prompt engineering**:
- Use carefully designed prompts that encourage ethical security practices
- Include explicit instructions regarding responsible disclosure and ethical hacking principles
- Structure interactions to minimize the risk of inadvertently harmful outputs
4. **Knowledge supplementation**:
- Supplement the model with up-to-date security feeds and databases
- Implement retrieval-augmented generation for current threat intelligence sources
5. **Usage policies**:
- Develop and enforce clear acceptable use policies for applications using this model
- Implement monitoring and auditing for high-risk applications
- Create documentation for end users about the model's limitations
|
morturr/Llama-2-7b-hf-LOO_amazon-COMB_headlines-comb2-seed28-2025-06-18
|
morturr
| 2025-06-18T14:57:14Z | 0 | 0 |
peft
|
[
"peft",
"safetensors",
"trl",
"sft",
"generated_from_trainer",
"base_model:meta-llama/Llama-2-7b-hf",
"base_model:adapter:meta-llama/Llama-2-7b-hf",
"license:llama2",
"region:us"
] | null | 2025-06-18T14:56:51Z |
---
library_name: peft
license: llama2
base_model: meta-llama/Llama-2-7b-hf
tags:
- trl
- sft
- generated_from_trainer
model-index:
- name: Llama-2-7b-hf-LOO_amazon-COMB_headlines-comb2-seed28-2025-06-18
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# Llama-2-7b-hf-LOO_amazon-COMB_headlines-comb2-seed28-2025-06-18
This model is a fine-tuned version of [meta-llama/Llama-2-7b-hf](https://huggingface.co/meta-llama/Llama-2-7b-hf) on the None dataset.
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 8
- eval_batch_size: 8
- seed: 28
- gradient_accumulation_steps: 4
- total_train_batch_size: 32
- optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: linear
- num_epochs: 2
### Training results
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.1
- Pytorch 2.5.1+cu124
- Datasets 3.0.2
- Tokenizers 0.20.1
|
brunoyun/Llama-3.1-Amelia-AQA-8B-v1-GGUF
|
brunoyun
| 2025-06-18T14:52:15Z | 0 | 0 | null |
[
"gguf",
"base_model:meta-llama/Llama-3.1-8B-Instruct",
"base_model:quantized:meta-llama/Llama-3.1-8B-Instruct",
"license:llama3.1",
"endpoints_compatible",
"region:us",
"conversational"
] | null | 2025-06-17T11:59:51Z |
---
license: llama3.1
base_model:
- meta-llama/Llama-3.1-8B-Instruct
---
|
billjeremy/ppo-SnowballTarget
|
billjeremy
| 2025-06-18T14:34:49Z | 0 | 0 |
ml-agents
|
[
"ml-agents",
"tensorboard",
"onnx",
"SnowballTarget",
"deep-reinforcement-learning",
"reinforcement-learning",
"ML-Agents-SnowballTarget",
"region:us"
] |
reinforcement-learning
| 2025-06-18T14:34:46Z |
---
library_name: ml-agents
tags:
- SnowballTarget
- deep-reinforcement-learning
- reinforcement-learning
- ML-Agents-SnowballTarget
---
# **ppo** Agent playing **SnowballTarget**
This is a trained model of a **ppo** agent playing **SnowballTarget**
using the [Unity ML-Agents Library](https://github.com/Unity-Technologies/ml-agents).
## Usage (with ML-Agents)
The Documentation: https://unity-technologies.github.io/ml-agents/ML-Agents-Toolkit-Documentation/
We wrote a complete tutorial to learn to train your first agent using ML-Agents and publish it to the Hub:
- A *short tutorial* where you teach Huggy the Dog 🐶 to fetch the stick and then play with him directly in your
browser: https://huggingface.co/learn/deep-rl-course/unitbonus1/introduction
- A *longer tutorial* to understand how works ML-Agents:
https://huggingface.co/learn/deep-rl-course/unit5/introduction
### Resume the training
```bash
mlagents-learn <your_configuration_file_path.yaml> --run-id=<run_id> --resume
```
### Watch your Agent play
You can watch your agent **playing directly in your browser**
1. If the environment is part of ML-Agents official environments, go to https://huggingface.co/unity
2. Step 1: Find your model_id: billjeremy/ppo-SnowballTarget
3. Step 2: Select your *.nn /*.onnx file
4. Click on Watch the agent play 👀
|
MikeGreen2710/ner_land_dims
|
MikeGreen2710
| 2025-06-18T14:34:12Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"roberta",
"token-classification",
"arxiv:1910.09700",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] |
token-classification
| 2025-06-18T14:33:39Z |
---
library_name: transformers
tags: []
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed]
|
omkar334/lora_model
|
omkar334
| 2025-06-18T14:25:36Z | 0 | 0 |
transformers
|
[
"transformers",
"unsloth",
"arxiv:1910.09700",
"endpoints_compatible",
"region:us"
] | null | 2025-06-18T14:25:31Z |
---
library_name: transformers
tags:
- unsloth
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed]
|
3sara/version1_2-2epochs-checkpoint
|
3sara
| 2025-06-18T14:22:48Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"colpali-finetuned",
"generated_from_trainer",
"base_model:vidore/colpaligemma-3b-pt-448-base",
"base_model:finetune:vidore/colpaligemma-3b-pt-448-base",
"license:gemma",
"endpoints_compatible",
"region:us"
] | null | 2025-06-18T14:22:36Z |
---
library_name: transformers
license: gemma
base_model: vidore/colpaligemma-3b-pt-448-base
tags:
- colpali-finetuned
- generated_from_trainer
model-index:
- name: version1_2-2epochs-checkpoint
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# version1_2-2epochs-checkpoint
This model is a fine-tuned version of [vidore/colpaligemma-3b-pt-448-base](https://huggingface.co/vidore/colpaligemma-3b-pt-448-base) on the 3sara/validated_colpali_italian_documents_with_images dataset.
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 4
- eval_batch_size: 4
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 16
- optimizer: Use adamw_torch with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: linear
- lr_scheduler_warmup_steps: 100
- num_epochs: 2
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:------:|:----:|:---------------:|
| No log | 0.0103 | 1 | 0.3835 |
### Framework versions
- Transformers 4.51.3
- Pytorch 2.7.1+cu126
- Datasets 3.6.0
- Tokenizers 0.21.1
|
Mohamed264/VQA-LLava
|
Mohamed264
| 2025-06-18T14:16:39Z | 0 | 0 |
peft
|
[
"peft",
"safetensors",
"llama-factory",
"lora",
"generated_from_trainer",
"base_model:llava-hf/llava-1.5-7b-hf",
"base_model:adapter:llava-hf/llava-1.5-7b-hf",
"license:other",
"region:us"
] | null | 2025-06-18T14:16:25Z |
---
library_name: peft
license: other
base_model: llava-hf/llava-1.5-7b-hf
tags:
- llama-factory
- lora
- generated_from_trainer
model-index:
- name: vqa-llama
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# vqa-llama
This model is a fine-tuned version of [llava-hf/llava-1.5-7b-hf](https://huggingface.co/llava-hf/llava-1.5-7b-hf) on the medical_vqa_train dataset.
It achieves the following results on the evaluation set:
- Loss: 0.8505
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 1e-05
- train_batch_size: 2
- eval_batch_size: 4
- seed: 42
- gradient_accumulation_steps: 8
- total_train_batch_size: 16
- optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 100
- num_epochs: 3
- mixed_precision_training: Native AMP
### Training results
### Framework versions
- PEFT 0.15.2
- Transformers 4.52.4
- Pytorch 2.6.0+cu124
- Datasets 3.6.0
- Tokenizers 0.21.1
|
habdine/Qwen2.5-0.5B-EXED-IFT-lora
|
habdine
| 2025-06-18T14:16:39Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"arxiv:1910.09700",
"endpoints_compatible",
"region:us"
] | null | 2025-06-18T14:16:33Z |
---
library_name: transformers
tags: []
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed]
|
chutesai/MiniMax-M1-80k
|
chutesai
| 2025-06-18T14:15:33Z | 0 | 0 | null |
[
"safetensors",
"minimax_m1",
"text-generation",
"conversational",
"custom_code",
"arxiv:2506.13585",
"license:apache-2.0",
"region:us"
] |
text-generation
| 2025-06-17T14:39:03Z |
---
pipeline_tag: text-generation
license: apache-2.0
---
<div align="center">
<svg width="60%" height="auto" viewBox="0 0 144 48" fill="none" xmlns="http://www.w3.org/2000/svg">
<path d="M26.6782 7.96523C26.6782 7.02436 25.913 6.26087 24.9739 6.26087C24.0348 6.26087 23.2695 7.0261 23.2695 7.96523V36.2139C23.2695 38.4 21.4904 40.1791 19.3043 40.1791C17.1183 40.1791 15.3391 38.4 15.3391 36.2139V18.0904C15.3391 17.1496 14.5739 16.3861 13.6348 16.3861C12.6956 16.3861 11.9304 17.1513 11.9304 18.0904V25.7722C11.9304 27.9583 10.1513 29.7374 7.96518 29.7374C5.7791 29.7374 4 27.9583 4 25.7722V22.9878C4 22.3635 4.50609 21.8574 5.13043 21.8574C5.75478 21.8574 6.26087 22.3635 6.26087 22.9878V25.7722C6.26087 26.713 7.02605 27.4765 7.96518 27.4765C8.90431 27.4765 9.66954 26.7113 9.66954 25.7722V18.0904C9.66954 15.9044 11.4487 14.1252 13.6348 14.1252C15.8209 14.1252 17.6 15.9044 17.6 18.0904V36.2139C17.6 37.1548 18.3652 37.9183 19.3043 37.9183C20.2435 37.9183 21.0087 37.153 21.0087 36.2139V25.1322V7.96523C21.0087 5.77914 22.7878 4 24.9739 4C27.16 4 28.9391 5.77914 28.9391 7.96523V31.3565C28.9391 31.9809 28.433 32.487 27.8087 32.487C27.1843 32.487 26.6782 31.9809 26.6782 31.3565V7.96523ZM47.6539 14.1252C45.4678 14.1252 43.6887 15.9044 43.6887 18.0904V33.2296C43.6887 34.1704 42.9235 34.9339 41.9843 34.9339C41.0452 34.9339 40.28 34.1687 40.28 33.2296V7.96523C40.28 5.77914 38.5008 4 36.3148 4C34.1287 4 32.3496 5.77914 32.3496 7.96523V40.0348C32.3496 40.9756 31.5843 41.7391 30.6452 41.7391C29.7061 41.7391 28.9409 40.9739 28.9409 40.0348V36.0643C28.9409 35.44 28.4348 34.9339 27.8104 34.9339C27.1861 34.9339 26.68 35.44 26.68 36.0643V40.0348C26.68 42.2209 28.4591 44 30.6452 44C32.8313 44 34.6104 42.2209 34.6104 40.0348V7.96523C34.6104 7.02436 35.3756 6.26087 36.3148 6.26087C37.2539 6.26087 38.0191 7.0261 38.0191 7.96523V33.2296C38.0191 35.4156 39.7982 37.1948 41.9843 37.1948C44.1704 37.1948 45.9496 35.4156 45.9496 33.2296V18.0904C45.9496 17.1496 46.7148 16.3861 47.6539 16.3861C48.593 16.3861 49.3582 17.1513 49.3582 18.0904V31.3565C49.3582 31.9809 49.8643 32.487 50.4887 32.487C51.113 32.487 51.6191 31.9809 51.6191 31.3565V18.0904C51.6191 15.9044 49.84 14.1252 47.6539 14.1252Z" fill="url(#paint0_linear_17_483)"/>
<path d="M68.7671 16.5615H71.2541C71.3254 16.5615 71.3845 16.5859 71.435 16.6363C71.4836 16.6868 71.5097 16.7459 71.5097 16.8172V31.1824C71.5097 31.2537 71.4854 31.3128 71.435 31.3633C71.3845 31.4137 71.3254 31.4381 71.2541 31.4381H68.7671C68.6958 31.4381 68.6367 31.4137 68.5862 31.3633C68.5358 31.3146 68.5115 31.2537 68.5115 31.1824V21.812C68.5115 21.7563 68.4976 21.7268 68.4697 21.7268C68.4419 21.7268 68.4123 21.7476 68.3845 21.7911L66.1323 25.318C66.061 25.4311 65.9619 25.4885 65.8349 25.4885H64.581C64.4541 25.4885 64.3549 25.4328 64.2836 25.318L62.0315 21.7911C62.0036 21.7494 61.9741 21.7302 61.9462 21.7372C61.9184 21.7441 61.9045 21.7772 61.9045 21.8328V31.1824C61.9045 31.2537 61.8802 31.3128 61.8297 31.3633C61.7793 31.4137 61.7202 31.4381 61.6489 31.4381H59.1619C59.0906 31.4381 59.0315 31.4137 58.981 31.3633C58.9306 31.3146 58.9062 31.2537 58.9062 31.1824V16.8172C58.9062 16.7459 58.9306 16.6868 58.981 16.6363C59.0315 16.5859 59.0906 16.5615 59.1619 16.5615H61.6489C61.7758 16.5615 61.8749 16.6189 61.9462 16.732L65.1341 21.6833C65.1758 21.7685 65.2193 21.7685 65.261 21.6833L68.4697 16.732C68.541 16.6189 68.6402 16.5615 68.7671 16.5615Z" fill="currentColor"/>
<path d="M74.1764 31.3633C74.1259 31.3146 74.1016 31.2537 74.1016 31.1824V16.8172C74.1016 16.7459 74.1259 16.6868 74.1764 16.6363C74.2268 16.5859 74.2859 16.5615 74.3572 16.5615H76.8442C76.9155 16.5615 76.9746 16.5859 77.0251 16.6363C77.0737 16.6868 77.0998 16.7459 77.0998 16.8172V31.1824C77.0998 31.2537 77.0755 31.3128 77.0251 31.3633C76.9746 31.4137 76.9155 31.4381 76.8442 31.4381H74.3572C74.2859 31.4381 74.2268 31.4137 74.1764 31.3633Z" fill="currentColor"/>
<path d="M88.3066 16.6361C88.3553 16.5874 88.4162 16.5613 88.4875 16.5613H90.9744C91.0457 16.5613 91.1049 16.5857 91.1553 16.6361C91.204 16.6865 91.2301 16.7457 91.2301 16.817V31.1822C91.2301 31.2535 91.2057 31.3126 91.1553 31.363C91.1049 31.4135 91.0457 31.4378 90.9744 31.4378H88.5727C88.4301 31.4378 88.331 31.3822 88.2753 31.2674L82.771 22.1717C82.7431 22.13 82.7136 22.1109 82.6858 22.1178C82.6579 22.1248 82.644 22.1578 82.644 22.2135L82.6858 31.1805C82.6858 31.2518 82.6614 31.3109 82.611 31.3613C82.5606 31.4117 82.5014 31.4361 82.4301 31.4361H79.9431C79.8718 31.4361 79.8127 31.4117 79.7623 31.3613C79.7118 31.3126 79.6875 31.2518 79.6875 31.1805V16.8152C79.6875 16.7439 79.7118 16.6848 79.7623 16.6344C79.8127 16.5839 79.8718 16.5596 79.9431 16.5596H82.3449C82.4858 16.5596 82.5849 16.617 82.6423 16.73L88.124 25.7822C88.1518 25.8239 88.1797 25.8431 88.2092 25.8361C88.2371 25.8292 88.251 25.7978 88.251 25.7404L88.2301 16.8152C88.2301 16.7439 88.2545 16.6848 88.3049 16.6344L88.3066 16.6361Z" fill="currentColor"/>
<path d="M93.8951 31.3633C93.8446 31.3146 93.8203 31.2537 93.8203 31.1824V16.8172C93.8203 16.7459 93.8446 16.6868 93.8951 16.6363C93.9455 16.5859 94.0047 16.5615 94.076 16.5615H96.5629C96.6342 16.5615 96.6934 16.5859 96.7438 16.6363C96.7925 16.6868 96.8186 16.7459 96.8186 16.8172V31.1824C96.8186 31.2537 96.7942 31.3128 96.7438 31.3633C96.6934 31.4137 96.6342 31.4381 96.5629 31.4381H94.076C94.0047 31.4381 93.9455 31.4137 93.8951 31.3633Z" fill="currentColor"/>
<path d="M109.267 16.5615H111.754C111.825 16.5615 111.885 16.5859 111.935 16.6363C111.984 16.6868 112.01 16.7459 112.01 16.8172V31.1824C112.01 31.2537 111.985 31.3128 111.935 31.3633C111.885 31.4137 111.825 31.4381 111.754 31.4381H109.267C109.196 31.4381 109.137 31.4137 109.086 31.3633C109.036 31.3146 109.011 31.2537 109.011 31.1824V21.812C109.011 21.7563 108.998 21.7268 108.97 21.7268C108.942 21.7268 108.912 21.7476 108.885 21.7911L106.632 25.318C106.561 25.4311 106.462 25.4885 106.335 25.4885H105.081C104.954 25.4885 104.855 25.4328 104.784 25.318L102.531 21.7911C102.504 21.7494 102.474 21.7302 102.446 21.7372C102.418 21.7441 102.405 21.7772 102.405 21.8328V31.1824C102.405 31.2537 102.38 31.3128 102.33 31.3633C102.279 31.4137 102.22 31.4381 102.149 31.4381H99.6619C99.5906 31.4381 99.5315 31.4137 99.481 31.3633C99.4306 31.3146 99.4062 31.2537 99.4062 31.1824V16.8172C99.4062 16.7459 99.4306 16.6868 99.481 16.6363C99.5315 16.5859 99.5906 16.5615 99.6619 16.5615H102.149C102.276 16.5615 102.375 16.6189 102.446 16.732L105.634 21.6833C105.676 21.7685 105.719 21.7685 105.761 21.6833L108.97 16.732C109.041 16.6189 109.14 16.5615 109.267 16.5615Z" fill="currentColor"/>
<path d="M123.782 31.2241L123.144 29.1424C123.116 29.0867 123.079 29.0572 123.038 29.0572H117.81C117.768 29.0572 117.732 29.085 117.704 29.1424L117.088 31.2241C117.046 31.3668 116.954 31.4363 116.812 31.4363H114.112C114.027 31.4363 113.963 31.412 113.921 31.3615C113.879 31.3128 113.871 31.2381 113.9 31.1389L118.49 16.7737C118.532 16.6328 118.624 16.5615 118.766 16.5615H122.102C122.243 16.5615 122.335 16.6328 122.379 16.7737L126.968 31.1389C126.982 31.1668 126.989 31.2033 126.989 31.245C126.989 31.372 126.911 31.4363 126.756 31.4363H124.057C123.916 31.4363 123.824 31.365 123.78 31.2241H123.782ZM118.554 26.7407H122.295C122.38 26.7407 122.408 26.6989 122.38 26.6137L120.467 20.3024C120.453 20.2467 120.432 20.2207 120.403 20.2276C120.375 20.2346 120.352 20.2589 120.339 20.3024L118.469 26.6137C118.455 26.6989 118.483 26.7407 118.554 26.7407Z" fill="currentColor"/>
<path d="M128.222 31.353C128.18 31.2974 128.187 31.2261 128.243 31.1409L132.365 24.0643C132.393 24.0226 132.393 23.9791 132.365 23.9374L128.243 16.8609L128.201 16.7339C128.201 16.6209 128.28 16.5635 128.434 16.5635H131.133C131.274 16.5635 131.38 16.6209 131.452 16.7339L134.213 21.6C134.255 21.6852 134.299 21.6852 134.34 21.6L137.102 16.7339C137.173 16.6209 137.28 16.5635 137.42 16.5635H140.099C140.198 16.5635 140.269 16.5913 140.311 16.6487C140.353 16.7061 140.346 16.7756 140.29 16.8609L136.168 23.9374C136.154 23.9791 136.154 24.0226 136.168 24.0643L140.29 31.1409L140.332 31.2678C140.332 31.3809 140.253 31.4383 140.099 31.4383H137.42C137.278 31.4383 137.172 31.3826 137.102 31.2678L134.34 26.4226C134.299 26.3374 134.255 26.3374 134.213 26.4226L131.429 31.2678C131.358 31.3809 131.252 31.4383 131.111 31.4383H128.433C128.333 31.4383 128.262 31.4104 128.22 31.353H128.222Z" fill="currentColor"/>
<defs>
<linearGradient id="paint0_linear_17_483" x1="3.99826" y1="24" x2="51.6208" y2="24" gradientUnits="userSpaceOnUse">
<stop stop-color="#E21680"/>
<stop offset="1" stop-color="#FF633A"/>
</linearGradient>
</defs>
</svg>
</div>
<hr>
<div align="center" style="line-height: 1;">
<a href="https://www.minimax.io" target="_blank" style="margin: 2px;">
<img alt="Homepage" src="https://img.shields.io/badge/_Homepage-MiniMax-FF4040?style=flat-square&labelColor=2C3E50&logo=data:image/svg+xml;base64,PHN2ZyB4bWxucz0iaHR0cDovL3d3dy53My5vcmcvMjAwMC9zdmciIHhtbG5zOnhsaW5rPSJodHRwOi8vd3d3LnczLm9yZy8xOTk5L3hsaW5rIiB2aWV3Qm94PSIwIDAgNDkwLjE2IDQxMS43Ij48ZGVmcz48c3R5bGU+LmNscy0xe2ZpbGw6I2ZmZjt9PC9zdHlsZT48L2RlZnM+PHBhdGggY2xhc3M9ImNscy0xIiBkPSJNMjMzLjQ1LDQwLjgxYTE3LjU1LDE3LjU1LDAsMSwwLTM1LjEsMFYzMzEuNTZhNDAuODIsNDAuODIsMCwwLDEtODEuNjMsMFYxNDVhMTcuNTUsMTcuNTUsMCwxLDAtMzUuMDksMHY3OS4wNmE0MC44Miw0MC44MiwwLDAsMS04MS42MywwVjE5NS40MmExMS42MywxMS42MywwLDAsMSwyMy4yNiwwdjI4LjY2YTE3LjU1LDE3LjU1LDAsMCwwLDM1LjEsMFYxNDVBNDAuODIsNDAuODIsMCwwLDEsMTQwLDE0NVYzMzEuNTZhMTcuNTUsMTcuNTUsMCwwLDAsMzUuMSwwVjIxNy41aDBWNDAuODFhNDAuODEsNDAuODEsMCwxLDEsODEuNjIsMFYyODEuNTZhMTEuNjMsMTEuNjMsMCwxLDEtMjMuMjYsMFptMjE1LjksNjMuNEE0MC44Niw0MC44NiwwLDAsMCw0MDguNTMsMTQ1VjMwMC44NWExNy41NSwxNy41NSwwLDAsMS0zNS4wOSwwdi0yNjBhNDAuODIsNDAuODIsMCwwLDAtODEuNjMsMFYzNzAuODlhMTcuNTUsMTcuNTUsMCwwLDEtMzUuMSwwVjMzMGExMS42MywxMS42MywwLDEsMC0yMy4yNiwwdjQwLjg2YTQwLjgxLDQwLjgxLDAsMCwwLDgxLjYyLDBWNDAuODFhMTcuNTUsMTcuNTUsMCwwLDEsMzUuMSwwdjI2MGE0MC44Miw0MC44MiwwLDAsMCw4MS42MywwVjE0NWExNy41NSwxNy41NSwwLDEsMSwzNS4xLDBWMjgxLjU2YTExLjYzLDExLjYzLDAsMCwwLDIzLjI2LDBWMTQ1QTQwLjg1LDQwLjg1LDAsMCwwLDQ0OS4zNSwxMDQuMjFaIi8+PC9zdmc+&logoWidth=20" style="display: inline-block; vertical-align: middle;"/>
</a>
<a href="https://arxiv.org/abs/2506.13585" target="_blank" style="margin: 2px;">
<img alt="Paper" src="https://img.shields.io/badge/📖_Paper-MiniMax--M1-FF4040?style=flat-square&labelColor=2C3E50" style="display: inline-block; vertical-align: middle;"/>
</a>
<a href="https://chat.minimax.io/" target="_blank" style="margin: 2px;">
<img alt="Chat" src="https://img.shields.io/badge/_MiniMax_Chat-FF4040?style=flat-square&labelColor=2C3E50&logo=data:image/svg+xml;base64,PHN2ZyB4bWxucz0iaHR0cDovL3d3dy53My5vcmcvMjAwMC9zdmciIHhtbG5zOnhsaW5rPSJodHRwOi8vd3d3LnczLm9yZy8xOTk5L3hsaW5rIiB2aWV3Qm94PSIwIDAgNDkwLjE2IDQxMS43Ij48ZGVmcz48c3R5bGU+LmNscy0xe2ZpbGw6I2ZmZjt9PC9zdHlsZT48L2RlZnM+PHBhdGggY2xhc3M9ImNscy0xIiBkPSJNMjMzLjQ1LDQwLjgxYTE3LjU1LDE3LjU1LDAsMSwwLTM1LjEsMFYzMzEuNTZhNDAuODIsNDAuODIsMCwwLDEtODEuNjMsMFYxNDVhMTcuNTUsMTcuNTUsMCwxLDAtMzUuMDksMHY3OS4wNmE0MC44Miw0MC44MiwwLDAsMS04MS42MywwVjE5NS40MmExMS42MywxMS42MywwLDAsMSwyMy4yNiwwdjI4LjY2YTE3LjU1LDE3LjU1LDAsMCwwLDM1LjEsMFYxNDVBNDAuODIsNDAuODIsMCwwLDEsMTQwLDE0NVYzMzEuNTZhMTcuNTUsMTcuNTUsMCwwLDAsMzUuMSwwVjIxNy41aDBWNDAuODFhNDAuODEsNDAuODEsMCwxLDEsODEuNjIsMFYyODEuNTZhMTEuNjMsMTEuNjMsMCwxLDEtMjMuMjYsMFptMjE1LjksNjMuNEE0MC44Niw0MC44NiwwLDAsMCw0MDguNTMsMTQ1VjMwMC44NWExNy41NSwxNy41NSwwLDAsMS0zNS4wOSwwdi0yNjBhNDAuODIsNDAuODIsMCwwLDAtODEuNjMsMFYzNzAuODlhMTcuNTUsMTcuNTUsMCwwLDEtMzUuMSwwVjMzMGExMS42MywxMS42MywwLDEsMC0yMy4yNiwwdjQwLjg2YTQwLjgxLDQwLjgxLDAsMCwwLDgxLjYyLDBWNDAuODFhMTcuNTUsMTcuNTUsMCwwLDEsMzUuMSwwdjI2MGE0MC44Miw0MC44MiwwLDAsMCw4MS42MywwVjE0NWExNy41NSwxNy41NSwwLDEsMSwzNS4xLDBWMjgxLjU2YTExLjYzLDExLjYzLDAsMCwwLDIzLjI2LDBWMTQ1QTQwLjg1LDQwLjg1LDAsMCwwLDQ0OS4zNSwxMDQuMjFaIi8+PC9zdmc+&logoWidth=20" style="display: inline-block; vertical-align: middle;"/>
</a>
<a href="https://www.minimax.io/platform" style="margin: 2px;">
<img alt="API" src="https://img.shields.io/badge/⚡_API-Platform-FF4040?style=flat-square&labelColor=2C3E50" style="display: inline-block; vertical-align: middle;"/>
</a>
<a href="https://github.com/MiniMax-AI/MiniMax-MCP" style="margin: 2px;">
<img alt="MCP" src="https://img.shields.io/badge/🚀_MCP-MiniMax_MCP-FF4040?style=flat-square&labelColor=2C3E50" style="display: inline-block; vertical-align: middle;"/>
</a>
</div>
<div align="center" style="line-height: 1;">
<a href="https://huggingface.co/MiniMaxAI" target="_blank" style="margin: 2px;">
<img alt="Hugging Face" src="https://img.shields.io/badge/🤗_Hugging_Face-MiniMax-FF4040?style=flat-square&labelColor=2C3E50" style="display: inline-block; vertical-align: middle;"/>
</a>
<a href="https://github.com/MiniMax-AI/MiniMax-M1" target="_blank" style="margin: 2px;">
<img alt="GitHub" src="https://img.shields.io/badge/🐙_GitHub-MiniMax-FF4040?style=flat-square&labelColor=2C3E50" style="display: inline-block; vertical-align: middle;"/>
</a>
<a href="https://www.modelscope.cn/organization/MiniMax" target="_blank" style="margin: 2px;">
<img alt="ModelScope" src="https://img.shields.io/badge/🤖️_ModelScope-MiniMax-FF4040?style=flat-square&labelColor=2C3E50" style="display: inline-block; vertical-align: middle;"/>
</a>
<a href="https://github.com/MiniMax-AI/MiniMax-M1/blob/main/LICENSE" style="margin: 2px;">
<img alt="License" src="https://img.shields.io/badge/⚖️_License-Apache_2.0-FF4040?style=flat-square&labelColor=2C3E50" style="display: inline-block; vertical-align: middle;"/>
</a>
<a href="https://github.com/MiniMax-AI/MiniMax-01/blob/main/figures/wechat-qrcode.jpeg" target="_blank" style="margin: 2px;">
<img alt="WeChat" src="https://img.shields.io/badge/💬_WeChat-MiniMax-FF4040?style=flat-square&labelColor=2C3E50" style="display: inline-block; vertical-align: middle;"/>
</a>
</div>
# MiniMax-M1
## 1. Model Overview
We introduce MiniMax-M1, the world's first open-weight, large-scale hybrid-attention reasoning model.
MiniMax-M1 is powered by a hybrid Mixture-of-Experts (MoE) architecture combined with a lightning
attention mechanism. The model is developed based on our previous [MiniMax-Text-01 model](https://huggingface.co/MiniMaxAI/MiniMax-Text-01),
which contains a total of 456 billion parameters with 45.9 billion parameters activated
per token. Consistent with MiniMax-Text-01, the M1 model natively supports a context length of 1
million tokens, 8x the context size of DeepSeek R1. Furthermore, the lightning attention mechanism
in MiniMax-M1 enables efficient scaling of test-time compute – For example, compared to DeepSeek
R1, M1 consumes 25% of the FLOPs at a generation length of 100K tokens. These properties make M1
particularly suitable for complex tasks that require processing long inputs and thinking extensively.
MiniMax-M1 is trained using large-scale reinforcement learning (RL) on diverse problems ranging from
traditional mathematical reasoning to sandbox-based, real-world software engineering environments.
We develop an efficient RL scaling framework for M1 highlighting two perspectives: (1) We propose
CISPO, a novel algorithm that clips importance sampling weights instead of token updates, which
outperforms other competitive RL variants; (2) Our hybrid-attention design naturally enhances the
efficiency of RL, where we address unique challenges when scaling RL with the hybrid architecture. We
train two versions of MiniMax-M1 models with [40K](https://huggingface.co/MiniMaxAI/MiniMax-M1-40k) and
[80K](https://huggingface.co/MiniMaxAI/MiniMax-M1-80k) thinking budgets respectively. Experiments
on standard benchmarks show that our models outperform other strong open-weight models such as
the original DeepSeek-R1 and Qwen3-235B, particularly on complex software engineering, tool using,
and long context tasks. With efficient scaling of test-time compute, MiniMax-M1 serves as a strong
foundation for next-generation language model agents to reason and tackle real-world challenges.
<p align="center">
<img width="100%" src="figures/TextBench.png">
<br>
<small><em>Benchmark performance comparison of leading commercial and open-weight models across competition-level mathematics, coding, software engineering, agentic tool use, and long-context understanding tasks. We use the MiniMax-M1-80k model here for MiniMax-M1.</em></small>
</p>
## 2. Evaluation
**Performance of MiniMax-M1 on core benchmarks.**
| **Category** | **Task** | **MiniMax-M1-80K** | **MiniMax-M1-40K** | **Qwen3-235B-A22B** | **DeepSeek-R1-0528** | **DeepSeek-R1** | **Seed-Thinking-v1.5** | **Claude 4 Opus** | **Gemini 2.5 Pro (06-05)** | **OpenAI-o3** |
|:---|:---|:---:|:---:|:---:|:---:|:---:|:---:|:---:|:---:|:---:|
| | *Extended Thinking* | *80K* | *40K* | *32k* | *64k* | *32k* | *32k* | *64k* | *64k* | *100k* |
| ***Mathematics*** | AIME 2024 | 86.0 | 83.3 | 85.7 | 91.4 | 79.8 | 86.7 | 76.0 | 92.0 | 91.6 |
| | AIME 2025 | 76.9 | 74.6 | 81.5 | 87.5 | 70.0 | 74.0 | 75.5 | 88.0 | 88.9 |
| | MATH-500 | 96.8 | 96.0 | 96.2 | 98.0 | 97.3 | 96.7 | 98.2 | 98.8 | 98.1 |
| ***General Coding*** | LiveCodeBench *(24/8~25/5)* | 65.0 | 62.3 | 65.9 | 73.1 | 55.9 | 67.5 | 56.6 | 77.1 | 75.8 |
| | FullStackBench | 68.3 | 67.6 | 62.9 | 69.4 | 70.1 | 69.9 | 70.3 | -- | 69.3 |
| ***Reasoning & Knowledge***| GPQA Diamond | 70.0 | 69.2 | 71.1 | 81.0 | 71.5 | 77.3 | 79.6 | 86.4 | 83.3 |
| | HLE *(no tools)* | 8.4\* | 7.2\* | 7.6\* | 17.7\* | 8.6\* | 8.2 | 10.7 | 21.6 | 20.3 |
| | ZebraLogic | 86.8 | 80.1 | 80.3 | 95.1 | 78.7 | 84.4 | 95.1 | 91.6 | 95.8 |
| | MMLU-Pro | 81.1 | 80.6 | 83.0 | 85.0 | 84.0 | 87.0 | 85.0 | 86.0 | 85.0 |
| ***Software Engineering***| SWE-bench Verified| 56.0 | 55.6 | 34.4 | 57.6 | 49.2 | 47.0 | 72.5 | 67.2 | 69.1 |
| ***Long Context*** | OpenAI-MRCR *(128k)* | 73.4 | 76.1 | 27.7 | 51.5 | 35.8 | 54.3 | 48.9 | 76.8 | 56.5 |
| | OpenAI-MRCR *(1M)* | 56.2 | 58.6 | -- | -- | -- | -- | -- | 58.8 | -- |
| | LongBench-v2 | 61.5 | 61.0 | 50.1 | 52.1 | 58.3 | 52.5 | 55.6 | 65.0 | 58.8 |
| ***Agentic Tool Use***| TAU-bench *(airline)* | 62.0 | 60.0 | 34.7 | 53.5 | -- | 44.0 | 59.6 | 50.0 | 52.0 |
| | TAU-bench *(retail)* | 63.5 | 67.8 | 58.6 | 63.9 | -- | 55.7 | 81.4 | 67.0 | 73.9 |
| ***Factuality*** | SimpleQA | 18.5 | 17.9 | 11.0 | 27.8 | 30.1 | 12.9 | -- | 54.0 | 49.4 |
| ***General Assistant***| MultiChallenge | 44.7 | 44.7 | 40.0 | 45.0 | 40.7 | 43.0 | 45.8 | 51.8 | 56.5 |
\* conducted on the text-only HLE subset.
Our models are evaluated with `temperature=1.0`, `top_p=0.95`.
### SWE-bench methodology
We report results derived from the Agentless scaffold. Departing from the original pipeline, our methodology employs a two-stage localization process (without any embedding-based retrieval mechanisms): initial coarse-grained file localization followed by fine-grained localization to specific files and code elements. The values for our models are calculated on the subset of n=486 verified tasks which work on our infrastructure. The excluded 14 test cases that were incompatible with our internal infrastructure are:
`"astropy__astropy-7606"`,
`"astropy__astropy-8707"`,
`"astropy__astropy-8872"`,
`"django__django-10097"`,
`"matplotlib__matplotlib-20488"`,
`"psf__requests-2317"`,
`"psf__requests-2931"`,
`"psf__requests-5414"`,
`"pylint-dev__pylint-6528"`,
`"pylint-dev__pylint-7277"`,
`"sphinx-doc__sphinx-10435"`,
`"sphinx-doc__sphinx-7985"`,
`"sphinx-doc__sphinx-8269"`,
`"sphinx-doc__sphinx-8475"`
### TAU-bench methodology
We evaluate TAU-Bench with GPT-4.1 as user model and without any custom tools. The maximum number of interaction steps is 40.
Our general system prompt is:
```
- In each round, you need to carefully examine the tools provided to you to determine if any can be used.
- You must adhere to all of the policies. Pay attention to the details in the terms. Solutions for most situations can be found within these policies.
```
## 3. Deployment Guide
Download the model from HuggingFace repository:
- [MiniMax-M1-40k](https://huggingface.co/MiniMaxAI/MiniMax-M1-40k)
- [MiniMax-M1-80k](https://huggingface.co/MiniMaxAI/MiniMax-M1-80k)
For production deployment, we recommend using [vLLM](https://docs.vllm.ai/en/latest/) to serve MiniMax-M1. vLLM provides excellent performance for serving large language models with the following features:
- 🔥 Outstanding service throughout performance
- ⚡ Efficient and intelligent memory management
- 📦 Powerful batch request processing capability
- ⚙️ Deeply optimized underlying performance
For detailed vLLM deployment instructions, please refer to our [vLLM Deployment Guide](./docs/vllm_deployment_guide.md).
Alternatively, you can also deploy using Transformers directly. For detailed Transformers deployment instructions, you can see our [MiniMax-M1 Transformers Deployment Guide](./docs/transformers_deployment_guide.md).
## 4. Function Calling
The MiniMax-M1 model supports function calling capabilities, enabling the model to identify when external functions need to be called and output function call parameters in a structured format. [MiniMax-M1 Function Call Guide](./docs/function_call_guide.md) provides detailed instructions on how to use the function calling feature of MiniMax-M1.
## 5. Chatbot & API
For general use and evaluation, we provide a [Chatbot](https://chat.minimax.io/) with online search capabilities and the [online API](https://www.minimax.io/platform/) for developers. For general use and evaluation, we provide the [MiniMax MCP Server](https://github.com/MiniMax-AI/MiniMax-MCP) with video generation, image generation, speech synthesis, and voice cloning for developers.
## 6. Contact Us
Contact us at [[email protected]](mailto:[email protected]).
|
RoadQAQ/Qwen2.5-Math-1.5B-16k-think
|
RoadQAQ
| 2025-06-18T14:15:21Z | 144 | 0 |
transformers
|
[
"transformers",
"safetensors",
"qwen2",
"text-generation",
"conversational",
"arxiv:2506.07527",
"license:mit",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] |
text-generation
| 2025-06-08T07:45:59Z |
---
license: mit
library_name: transformers
pipeline_tag: text-generation
---
The base Qwen2.5-Math-1.5B model used by ReLIFT.
We change to rope_theta from 10000 to 40000 and extend the context window to 16k.
Also, we modify the chat_template for the system prompt and add <think>.
Github: https://github.com/TheRoadQaQ/ReLIFT
# Citation
If you find our model, data, or evaluation code useful, please kindly cite our paper:
```bib
@article{ma2025learning,
title={Learning What Reinforcement Learning Can't: Interleaved Online Fine-Tuning for Hardest Questions},
author={Ma, Lu and Liang, Hao and Qiang, Meiyi and Tang, Lexiang and Ma, Xiaochen and Wong, Zhen Hao and Niu, Junbo and Shen, Chengyu and He, Runming and Cui, Bin and others},
journal={arXiv preprint arXiv:2506.07527},
year={2025}
}
```
|
morturr/Llama-2-7b-hf-LOO_one_liners-COMB_dadjokes-comb2-seed28-2025-06-18
|
morturr
| 2025-06-18T14:15:17Z | 0 | 0 |
peft
|
[
"peft",
"safetensors",
"trl",
"sft",
"generated_from_trainer",
"base_model:meta-llama/Llama-2-7b-hf",
"base_model:adapter:meta-llama/Llama-2-7b-hf",
"license:llama2",
"region:us"
] | null | 2025-06-18T14:15:04Z |
---
library_name: peft
license: llama2
base_model: meta-llama/Llama-2-7b-hf
tags:
- trl
- sft
- generated_from_trainer
model-index:
- name: Llama-2-7b-hf-LOO_one_liners-COMB_dadjokes-comb2-seed28-2025-06-18
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# Llama-2-7b-hf-LOO_one_liners-COMB_dadjokes-comb2-seed28-2025-06-18
This model is a fine-tuned version of [meta-llama/Llama-2-7b-hf](https://huggingface.co/meta-llama/Llama-2-7b-hf) on the None dataset.
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0003
- train_batch_size: 16
- eval_batch_size: 16
- seed: 28
- gradient_accumulation_steps: 4
- total_train_batch_size: 64
- optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: linear
- num_epochs: 2
### Training results
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.1
- Pytorch 2.5.1+cu124
- Datasets 3.0.2
- Tokenizers 0.20.1
|
RoadQAQ/ReLIFT-Qwen2.5-7B-Zero
|
RoadQAQ
| 2025-06-18T14:14:48Z | 55 | 2 |
transformers
|
[
"transformers",
"safetensors",
"qwen2",
"text-generation",
"question-answering",
"arxiv:2506.07527",
"license:mit",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] |
question-answering
| 2025-06-07T06:10:14Z |
---
library_name: transformers
license: mit
pipeline_tag: question-answering
---
ReLIFT, a training method that interleaves RL with online FT, achieving superior performance and efficiency compared to using RL or SFT alone, as described in [Learning What Reinforcement Learning Can't: Interleaved Online Fine-Tuning for Hardest Questions](https://huggingface.co/papers/2506.07527).
Code: https://github.com/TheRoadQaQ/ReLIFT
Project page: https://github.com/TheRoadQaQ/ReLIFT
|
Puranjay14/check_gemma_3n_3p18b
|
Puranjay14
| 2025-06-18T14:09:00Z | 6 | 0 |
transformers
|
[
"transformers",
"safetensors",
"gemma3n",
"text2text-generation",
"matformer",
"arxiv:1910.09700",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] |
text2text-generation
| 2025-06-16T12:19:02Z |
---
library_name: transformers
tags:
- matformer
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed]
|
mradermacher/Oblivion2.5-1.5B-Instruct-v2-GGUF
|
mradermacher
| 2025-06-18T14:04:59Z | 0 | 0 |
transformers
|
[
"transformers",
"gguf",
"en",
"base_model:r1char9/Oblivion2.5-1.5B-Instruct-v2",
"base_model:quantized:r1char9/Oblivion2.5-1.5B-Instruct-v2",
"license:mit",
"endpoints_compatible",
"region:us"
] | null | 2025-06-18T13:53:49Z |
---
base_model: r1char9/Oblivion2.5-1.5B-Instruct-v2
language:
- en
library_name: transformers
license: mit
quantized_by: mradermacher
---
## About
<!-- ### quantize_version: 2 -->
<!-- ### output_tensor_quantised: 1 -->
<!-- ### convert_type: hf -->
<!-- ### vocab_type: -->
<!-- ### tags: -->
static quants of https://huggingface.co/r1char9/Oblivion2.5-1.5B-Instruct-v2
<!-- provided-files -->
weighted/imatrix quants seem not to be available (by me) at this time. If they do not show up a week or so after the static ones, I have probably not planned for them. Feel free to request them by opening a Community Discussion.
## Usage
If you are unsure how to use GGUF files, refer to one of [TheBloke's
READMEs](https://huggingface.co/TheBloke/KafkaLM-70B-German-V0.1-GGUF) for
more details, including on how to concatenate multi-part files.
## Provided Quants
(sorted by size, not necessarily quality. IQ-quants are often preferable over similar sized non-IQ quants)
| Link | Type | Size/GB | Notes |
|:-----|:-----|--------:|:------|
| [GGUF](https://huggingface.co/mradermacher/Oblivion2.5-1.5B-Instruct-v2-GGUF/resolve/main/Oblivion2.5-1.5B-Instruct-v2.Q2_K.gguf) | Q2_K | 0.8 | |
| [GGUF](https://huggingface.co/mradermacher/Oblivion2.5-1.5B-Instruct-v2-GGUF/resolve/main/Oblivion2.5-1.5B-Instruct-v2.Q3_K_S.gguf) | Q3_K_S | 0.9 | |
| [GGUF](https://huggingface.co/mradermacher/Oblivion2.5-1.5B-Instruct-v2-GGUF/resolve/main/Oblivion2.5-1.5B-Instruct-v2.Q3_K_M.gguf) | Q3_K_M | 0.9 | lower quality |
| [GGUF](https://huggingface.co/mradermacher/Oblivion2.5-1.5B-Instruct-v2-GGUF/resolve/main/Oblivion2.5-1.5B-Instruct-v2.Q3_K_L.gguf) | Q3_K_L | 1.0 | |
| [GGUF](https://huggingface.co/mradermacher/Oblivion2.5-1.5B-Instruct-v2-GGUF/resolve/main/Oblivion2.5-1.5B-Instruct-v2.IQ4_XS.gguf) | IQ4_XS | 1.0 | |
| [GGUF](https://huggingface.co/mradermacher/Oblivion2.5-1.5B-Instruct-v2-GGUF/resolve/main/Oblivion2.5-1.5B-Instruct-v2.Q4_K_S.gguf) | Q4_K_S | 1.0 | fast, recommended |
| [GGUF](https://huggingface.co/mradermacher/Oblivion2.5-1.5B-Instruct-v2-GGUF/resolve/main/Oblivion2.5-1.5B-Instruct-v2.Q4_K_M.gguf) | Q4_K_M | 1.1 | fast, recommended |
| [GGUF](https://huggingface.co/mradermacher/Oblivion2.5-1.5B-Instruct-v2-GGUF/resolve/main/Oblivion2.5-1.5B-Instruct-v2.Q5_K_S.gguf) | Q5_K_S | 1.2 | |
| [GGUF](https://huggingface.co/mradermacher/Oblivion2.5-1.5B-Instruct-v2-GGUF/resolve/main/Oblivion2.5-1.5B-Instruct-v2.Q5_K_M.gguf) | Q5_K_M | 1.2 | |
| [GGUF](https://huggingface.co/mradermacher/Oblivion2.5-1.5B-Instruct-v2-GGUF/resolve/main/Oblivion2.5-1.5B-Instruct-v2.Q6_K.gguf) | Q6_K | 1.4 | very good quality |
| [GGUF](https://huggingface.co/mradermacher/Oblivion2.5-1.5B-Instruct-v2-GGUF/resolve/main/Oblivion2.5-1.5B-Instruct-v2.Q8_0.gguf) | Q8_0 | 1.7 | fast, best quality |
| [GGUF](https://huggingface.co/mradermacher/Oblivion2.5-1.5B-Instruct-v2-GGUF/resolve/main/Oblivion2.5-1.5B-Instruct-v2.f16.gguf) | f16 | 3.2 | 16 bpw, overkill |
Here is a handy graph by ikawrakow comparing some lower-quality quant
types (lower is better):

And here are Artefact2's thoughts on the matter:
https://gist.github.com/Artefact2/b5f810600771265fc1e39442288e8ec9
## FAQ / Model Request
See https://huggingface.co/mradermacher/model_requests for some answers to
questions you might have and/or if you want some other model quantized.
## Thanks
I thank my company, [nethype GmbH](https://www.nethype.de/), for letting
me use its servers and providing upgrades to my workstation to enable
this work in my free time.
<!-- end -->
|
snezhanata/advertisment_alpaca_dev_v2
|
snezhanata
| 2025-06-18T14:04:07Z | 6 | 0 |
transformers
|
[
"transformers",
"safetensors",
"mistral",
"text-generation",
"llama-factory",
"conversational",
"arxiv:1910.09700",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] |
text-generation
| 2025-06-16T13:39:23Z |
---
library_name: transformers
tags:
- llama-factory
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed]
|
llava-hf/llava-onevision-qwen2-7b-ov-hf
|
llava-hf
| 2025-06-18T13:56:45Z | 41,694 | 30 |
transformers
|
[
"transformers",
"safetensors",
"llava_onevision",
"image-text-to-text",
"vision",
"conversational",
"en",
"zh",
"dataset:lmms-lab/LLaVA-OneVision-Data",
"arxiv:2408.03326",
"license:apache-2.0",
"endpoints_compatible",
"region:us"
] |
image-text-to-text
| 2024-08-13T08:35:25Z |
---
language:
- en
- zh
license: apache-2.0
tags:
- vision
- image-text-to-text
datasets:
- lmms-lab/LLaVA-OneVision-Data
library_name: transformers
pipeline_tag: image-text-to-text
arxiv: 2408.03326
---
# LLaVA-Onevision Model Card

Check out also the Google Colab demo to run Llava on a free-tier Google Colab instance: [](https://colab.research.google.com/drive/1-4AtYjR8UMtCALV0AswU1kiNkWCLTALT?usp=sharing)
Below is the model card of 7B LLaVA-Onevision model which is copied from the original LLaVA-Onevision model card that you can find [here](https://huggingface.co/lmms-lab/llava-onevision-qwen2-0.5b-si).
## Model details
**Model type:**
LLaVA-Onevision is an open-source multimodal LLM trained by fine-tuning Qwen2 on GPT-generated multimodal instruction-following data.
LLaVA-OneVision is the first single model that can simultaneously push the performance boundaries of open LMMs in three important computer
vision scenarios: single-image, multi-image, and video scenarios. Importantly, the design of LLaVA-OneVision allows strong transfer learning
across different modalities/scenarios, yielding new emerging capabilities. In particular, strong video understanding and cross-scenario
capabilities are demonstrated through task transfer from images to videos.
**Model date:**
LLaVA-Onevision-7b-si was added in August 2024.
**Paper or resources for more information:**
https://llava-vl.github.io/
- **Architecture:** SO400M + Qwen2
- **Pretraining Stage:** LCS-558K, 1 epoch, projector
- **Mid Stage:** A mixture of 4.7M high-quality synthetic data, 1 epoch, full model
- **Final-Image Stage:** A mixture of 3.6M single-image data, 1 epoch, full model
- **OneVision Stage:** A mixture of 1.6M single-image/multi-image/video data, 1 epoch, full model
- **Precision:** bfloat16
## How to use the model
First, make sure to have `transformers` installed from [branch](https://github.com/huggingface/transformers/pull/32673) or `transformers >= 4.45.0`.
The model supports multi-image and multi-prompt generation. Meaning that you can pass multiple images in your prompt. Make sure also to follow the correct prompt template by applyong chat template:
### Using `pipeline`:
Below we used [`"llava-hf/llava-onevision-qwen2-7b-ov-hf"`](https://huggingface.co/llava-hf/llava-onevision-qwen2-7b-ov-hf) checkpoint.
```python
from transformers import pipeline
pipe = pipeline("image-text-to-text", model="llava-onevision-qwen2-7b-ov-hf")
messages = [
{
"role": "user",
"content": [
{"type": "image", "url": "https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/transformers/tasks/ai2d-demo.jpg"},
{"type": "text", "text": "What does the label 15 represent? (1) lava (2) core (3) tunnel (4) ash cloud"},
],
},
]
out = pipe(text=messages, max_new_tokens=20)
print(out)
>>> [{'input_text': [{'role': 'user', 'content': [{'type': 'image', 'url': 'https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/transformers/tasks/ai2d-demo.jpg'}, {'type': 'text', 'text': 'What does the label 15 represent? (1) lava (2) core (3) tunnel (4) ash cloud'}]}], 'generated_text': 'Lava'}]
```
### Using pure `transformers`:
Below is an example script to run generation in `float16` precision on a GPU device:
```python
import requests
from PIL import Image
import torch
from transformers import AutoProcessor, LlavaOnevisionForConditionalGeneration
model_id = "llava-hf/llava-onevision-qwen2-7b-ov-hf"
model = LlavaOnevisionForConditionalGeneration.from_pretrained(
model_id,
torch_dtype=torch.float16,
low_cpu_mem_usage=True,
).to(0)
processor = AutoProcessor.from_pretrained(model_id)
# Define a chat history and use `apply_chat_template` to get correctly formatted prompt
# Each value in "content" has to be a list of dicts with types ("text", "image")
conversation = [
{
"role": "user",
"content": [
{"type": "text", "text": "What are these?"},
{"type": "image"},
],
},
]
prompt = processor.apply_chat_template(conversation, add_generation_prompt=True)
image_file = "http://images.cocodataset.org/val2017/000000039769.jpg"
raw_image = Image.open(requests.get(image_file, stream=True).raw)
inputs = processor(images=raw_image, text=prompt, return_tensors='pt').to(0, torch.float16)
output = model.generate(**inputs, max_new_tokens=200, do_sample=False)
print(processor.decode(output[0][2:], skip_special_tokens=True))
```
### Model optimization
#### 4-bit quantization through `bitsandbytes` library
First make sure to install `bitsandbytes`, `pip install bitsandbytes` and make sure to have access to a CUDA compatible GPU device. Simply change the snippet above with:
```diff
model = LlavaOnevisionForConditionalGeneration.from_pretrained(
model_id,
torch_dtype=torch.float16,
low_cpu_mem_usage=True,
+ load_in_4bit=True
)
```
#### Use Flash-Attention 2 to further speed-up generation
First make sure to install `flash-attn`. Refer to the [original repository of Flash Attention](https://github.com/Dao-AILab/flash-attention) regarding that package installation. Simply change the snippet above with:
```diff
model = LlavaOnevisionForConditionalGeneration.from_pretrained(
model_id,
torch_dtype=torch.float16,
low_cpu_mem_usage=True,
+ use_flash_attention_2=True
).to(0)
```
# Citation
```
@misc{li2024llavaonevisioneasyvisualtask,
title={LLaVA-OneVision: Easy Visual Task Transfer},
author={Bo Li and Yuanhan Zhang and Dong Guo and Renrui Zhang and Feng Li and Hao Zhang and Kaichen Zhang and Yanwei Li and Ziwei Liu and Chunyuan Li},
year={2024},
eprint={2408.03326},
archivePrefix={arXiv},
primaryClass={cs.CV},
url={https://arxiv.org/abs/2408.03326},
}
```
|
llava-hf/llava-onevision-qwen2-72b-ov-chat-hf
|
llava-hf
| 2025-06-18T13:56:10Z | 1,347 | 2 |
transformers
|
[
"transformers",
"safetensors",
"llava_onevision",
"image-text-to-text",
"vision",
"conversational",
"en",
"zh",
"dataset:lmms-lab/LLaVA-OneVision-Data",
"arxiv:2408.03326",
"license:apache-2.0",
"endpoints_compatible",
"region:us"
] |
image-text-to-text
| 2024-09-16T11:39:38Z |
---
language:
- en
- zh
license: apache-2.0
tags:
- vision
- image-text-to-text
datasets:
- lmms-lab/LLaVA-OneVision-Data
library_name: transformers
pipeline_tag: image-text-to-text
arxiv: 2408.03326
---
# LLaVA-Onevision Model Card
Check out also the Google Colab demo to run Llava on a free-tier Google Colab instance: [](https://colab.research.google.com/drive/1-4AtYjR8UMtCALV0AswU1kiNkWCLTALT?usp=sharing)
Below is the model card of 72B LLaVA-Onevision Chat model which is copied from the original LLaVA-Onevision model card that you can find [here](https://huggingface.co/lmms-lab/llava-onevision-qwen2-72b-ov-chat).
## Model details
**Model type:**
LLaVA-Onevision is an open-source multimodal LLM trained by fine-tuning Qwen2 on GPT-generated multimodal instruction-following data.
LLaVA-OneVision is the first single model that can simultaneously push the performance boundaries of open LMMs in three important computer
vision scenarios: single-image, multi-image, and video scenarios. Importantly, the design of LLaVA-OneVision allows strong transfer learning
across different modalities/scenarios, yielding new emerging capabilities. In particular, strong video understanding and cross-scenario
capabilities are demonstrated through task transfer from images to videos.
**Model date:**
LLaVA-Onevision-72B Chat was added in September 2024.
**Paper or resources for more information:**
https://llava-vl.github.io/
- **Architecture:** SO400M + Qwen2
- **Pretraining Stage:** LCS-558K, 1 epoch, projector
- **Mid Stage:** A mixture of 4.7M high-quality synthetic data, 1 epoch, full model
- **Final-Image Stage:** A mixture of 3.6M single-image data, 1 epoch, full model
- **OneVision Stage:** A mixture of 1.6M single-image/multi-image/video data, 1 epoch, full model
- **Precision:** bfloat16
## How to use the model
First, make sure to have `transformers` installed from [branch](https://github.com/huggingface/transformers/pull/32673) or `transformers >= 4.45.0`.
The model supports multi-image and multi-prompt generation. Meaning that you can pass multiple images in your prompt. Make sure also to follow the correct prompt template by applying the chat template:
### Using `pipeline`:
Below we used [`"llava-hf/llava-onevision-qwen2-72b-ov-chat-hf"`](https://huggingface.co/llava-hf/llava-onevision-qwen2-72b-ov-chat-hf) checkpoint.
```python
from transformers import pipeline
pipe = pipeline("image-text-to-text", model="llava-onevision-qwen2-72b-ov-chat-hf")
messages = [
{
"role": "user",
"content": [
{"type": "image", "url": "https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/transformers/tasks/ai2d-demo.jpg"},
{"type": "text", "text": "What does the label 15 represent? (1) lava (2) core (3) tunnel (4) ash cloud"},
],
},
]
out = pipe(text=messages, max_new_tokens=20)
print(out)
>>> [{'input_text': [{'role': 'user', 'content': [{'type': 'image', 'url': 'https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/transformers/tasks/ai2d-demo.jpg'}, {'type': 'text', 'text': 'What does the label 15 represent? (1) lava (2) core (3) tunnel (4) ash cloud'}]}], 'generated_text': 'Lava'}]
```
### Using pure `transformers`:
Below is an example script to run generation in `float16` precision on a GPU device:
```python
import requests
from PIL import Image
import torch
from transformers import AutoProcessor, LlavaOnevisionForConditionalGeneration
model_id = "llava-hf/llava-onevision-qwen2-72b-ov-chat-hf"
model = LlavaOnevisionForConditionalGeneration.from_pretrained(
model_id,
torch_dtype=torch.float16,
low_cpu_mem_usage=True,
).to(0)
processor = AutoProcessor.from_pretrained(model_id)
# Define a chat history and use `apply_chat_template` to get correctly formatted prompt
# Each value in "content" has to be a list of dicts with types ("text", "image")
conversation = [
{
"role": "user",
"content": [
{"type": "text", "text": "What are these?"},
{"type": "image"},
],
},
]
prompt = processor.apply_chat_template(conversation, add_generation_prompt=True)
image_file = "http://images.cocodataset.org/val2017/000000039769.jpg"
raw_image = Image.open(requests.get(image_file, stream=True).raw)
inputs = processor(images=raw_image, text=prompt, return_tensors='pt').to(0, torch.float16)
output = model.generate(**inputs, max_new_tokens=200, do_sample=False)
print(processor.decode(output[0][2:], skip_special_tokens=True))
```
-----------
From transformers>=v4.48, you can also pass image/video url or local path to the conversation history, and let the chat template handle the rest.
Chat template will load the image for you and return inputs in `torch.Tensor` which you can pass directly to `model.generate()`
```python
messages = [
{
"role": "user",
"content": [
{"type": "image", "url": "https://www.ilankelman.org/stopsigns/australia.jpg"}
{"type": "text", "text": "What is shown in this image?"},
],
},
]
inputs = processor.apply_chat_template(messages, add_generation_prompt=True, tokenize=True, return_dict=True, return_tensors"pt")
output = model.generate(**inputs, max_new_tokens=50)
```
### Model optimization
#### 4-bit quantization through `bitsandbytes` library
First make sure to install `bitsandbytes`, `pip install bitsandbytes` and make sure to have access to a CUDA compatible GPU device. Simply change the snippet above with:
```diff
model = LlavaOnevisionForConditionalGeneration.from_pretrained(
model_id,
torch_dtype=torch.float16,
low_cpu_mem_usage=True,
+ load_in_4bit=True
)
```
#### Use Flash-Attention 2 to further speed-up generation
First make sure to install `flash-attn`. Refer to the [original repository of Flash Attention](https://github.com/Dao-AILab/flash-attention) regarding that package installation. Simply change the snippet above with:
```diff
model = LlavaOnevisionForConditionalGeneration.from_pretrained(
model_id,
torch_dtype=torch.float16,
low_cpu_mem_usage=True,
+ use_flash_attention_2=True
).to(0)
```
# Citation
```
@misc{li2024llavaonevisioneasyvisualtask,
title={LLaVA-OneVision: Easy Visual Task Transfer},
author={Bo Li and Yuanhan Zhang and Dong Guo and Renrui Zhang and Feng Li and Hao Zhang and Kaichen Zhang and Yanwei Li and Ziwei Liu and Chunyuan Li},
year={2024},
eprint={2408.03326},
archivePrefix={arXiv},
primaryClass={cs.CV},
url={https://arxiv.org/abs/2408.03326},
}
```
|
llava-hf/llava-onevision-qwen2-7b-ov-chat-hf
|
llava-hf
| 2025-06-18T13:55:15Z | 3,570 | 5 |
transformers
|
[
"transformers",
"safetensors",
"llava_onevision",
"image-text-to-text",
"vision",
"conversational",
"en",
"zh",
"dataset:lmms-lab/LLaVA-OneVision-Data",
"arxiv:2408.03326",
"license:apache-2.0",
"endpoints_compatible",
"region:us"
] |
image-text-to-text
| 2024-09-16T11:37:17Z |
---
language:
- en
- zh
license: apache-2.0
tags:
- vision
- image-text-to-text
datasets:
- lmms-lab/LLaVA-OneVision-Data
library_name: transformers
pipeline_tag: image-text-to-text
arxiv: 2408.03326
---
# LLaVA-Onevision Model Card

Check out also the Google Colab demo to run Llava on a free-tier Google Colab instance: [](https://colab.research.google.com/drive/1-4AtYjR8UMtCALV0AswU1kiNkWCLTALT?usp=sharing)
Below is the model card of 7B LLaVA-Onevision Chat model which is copied from the original LLaVA-Onevision model card that you can find [here](https://huggingface.co/lmms-lab/llava-onevision-qwen2-7b-ov-chat).
## Model details
**Model type:**
LLaVA-Onevision is an open-source multimodal LLM trained by fine-tuning Qwen2 on GPT-generated multimodal instruction-following data.
LLaVA-OneVision is the first single model that can simultaneously push the performance boundaries of open LMMs in three important computer
vision scenarios: single-image, multi-image, and video scenarios. Importantly, the design of LLaVA-OneVision allows strong transfer learning
across different modalities/scenarios, yielding new emerging capabilities. In particular, strong video understanding and cross-scenario
capabilities are demonstrated through task transfer from images to videos.
**Model date:**
LLaVA-Onevision-7B Chat was added in September 2024.
**Paper or resources for more information:**
https://llava-vl.github.io/
- **Architecture:** SO400M + Qwen2
- **Pretraining Stage:** LCS-558K, 1 epoch, projector
- **Mid Stage:** A mixture of 4.7M high-quality synthetic data, 1 epoch, full model
- **Final-Image Stage:** A mixture of 3.6M single-image data, 1 epoch, full model
- **OneVision Stage:** A mixture of 1.6M single-image/multi-image/video data, 1 epoch, full model
- **Precision:** bfloat16
## How to use the model
First, make sure to have `transformers` installed from [branch](https://github.com/huggingface/transformers/pull/32673) or `transformers >= 4.45.0`.
The model supports multi-image and multi-prompt generation. Meaning that you can pass multiple images in your prompt. Make sure also to follow the correct prompt template by applying the chat template:
### Using `pipeline`:
Below we used [`"llava-hf/llava-onevision-qwen2-7b-ov-chat-hf"`](https://huggingface.co/llava-hf/llava-onevision-qwen2-7b-ov-chat-hf) checkpoint.
```python
from transformers import pipeline
pipe = pipeline("image-text-to-text", model="llava-onevision-qwen2-7b-ov-chat-hf")
messages = [
{
"role": "user",
"content": [
{"type": "image", "url": "https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/transformers/tasks/ai2d-demo.jpg"},
{"type": "text", "text": "What does the label 15 represent? (1) lava (2) core (3) tunnel (4) ash cloud"},
],
},
]
out = pipe(text=messages, max_new_tokens=20)
print(out)
>>> [{'input_text': [{'role': 'user', 'content': [{'type': 'image', 'url': 'https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/transformers/tasks/ai2d-demo.jpg'}, {'type': 'text', 'text': 'What does the label 15 represent? (1) lava (2) core (3) tunnel (4) ash cloud'}]}], 'generated_text': 'Lava'}]
```
### Using pure `transformers`:
Below is an example script to run generation in `float16` precision on a GPU device:
```python
import requests
from PIL import Image
import torch
from transformers import AutoProcessor, LlavaOnevisionForConditionalGeneration
model_id = "llava-hf/llava-onevision-qwen2-7b-ov-chat-hf"
model = LlavaOnevisionForConditionalGeneration.from_pretrained(
model_id,
torch_dtype=torch.float16,
low_cpu_mem_usage=True,
).to(0)
processor = AutoProcessor.from_pretrained(model_id)
# Define a chat history and use `apply_chat_template` to get correctly formatted prompt
# Each value in "content" has to be a list of dicts with types ("text", "image")
conversation = [
{
"role": "user",
"content": [
{"type": "text", "text": "What are these?"},
{"type": "image"},
],
},
]
prompt = processor.apply_chat_template(conversation, add_generation_prompt=True)
image_file = "http://images.cocodataset.org/val2017/000000039769.jpg"
raw_image = Image.open(requests.get(image_file, stream=True).raw)
inputs = processor(images=raw_image, text=prompt, return_tensors='pt').to(0, torch.float16)
output = model.generate(**inputs, max_new_tokens=200, do_sample=False)
print(processor.decode(output[0][2:], skip_special_tokens=True))
```
-----------
From transformers>=v4.48, you can also pass image/video url or local path to the conversation history, and let the chat template handle the rest.
Chat template will load the image for you and return inputs in `torch.Tensor` which you can pass directly to `model.generate()`
```python
messages = [
{
"role": "user",
"content": [
{"type": "image", "url": "https://www.ilankelman.org/stopsigns/australia.jpg"}
{"type": "text", "text": "What is shown in this image?"},
],
},
]
inputs = processor.apply_chat_template(messages, add_generation_prompt=True, tokenize=True, return_dict=True, return_tensors"pt")
output = model.generate(**inputs, max_new_tokens=50)
```
### Model optimization
#### 4-bit quantization through `bitsandbytes` library
First make sure to install `bitsandbytes`, `pip install bitsandbytes` and make sure to have access to a CUDA compatible GPU device. Simply change the snippet above with:
```diff
model = LlavaOnevisionForConditionalGeneration.from_pretrained(
model_id,
torch_dtype=torch.float16,
low_cpu_mem_usage=True,
+ load_in_4bit=True
)
```
#### Use Flash-Attention 2 to further speed-up generation
First make sure to install `flash-attn`. Refer to the [original repository of Flash Attention](https://github.com/Dao-AILab/flash-attention) regarding that package installation. Simply change the snippet above with:
```diff
model = LlavaOnevisionForConditionalGeneration.from_pretrained(
model_id,
torch_dtype=torch.float16,
low_cpu_mem_usage=True,
+ use_flash_attention_2=True
).to(0)
```
# Citation
```
@misc{li2024llavaonevisioneasyvisualtask,
title={LLaVA-OneVision: Easy Visual Task Transfer},
author={Bo Li and Yuanhan Zhang and Dong Guo and Renrui Zhang and Feng Li and Hao Zhang and Kaichen Zhang and Yanwei Li and Ziwei Liu and Chunyuan Li},
year={2024},
eprint={2408.03326},
archivePrefix={arXiv},
primaryClass={cs.CV},
url={https://arxiv.org/abs/2408.03326},
}
```
|
JustinStrauch/vit_fit_v3
|
JustinStrauch
| 2025-06-18T13:52:49Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"vit",
"image-classification",
"arxiv:1910.09700",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] |
image-classification
| 2025-06-18T13:50:34Z |
---
library_name: transformers
tags: []
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed]
|
GraybeardTheIrate/Pantheon-Cogwheel
|
GraybeardTheIrate
| 2025-06-18T13:46:08Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"mistral",
"text-generation",
"mergekit",
"merge",
"conversational",
"base_model:Gryphe/Pantheon-RP-1.8-24b-Small-3.1",
"base_model:merge:Gryphe/Pantheon-RP-1.8-24b-Small-3.1",
"base_model:OddTheGreat/Cogwheel_24b_V.2",
"base_model:merge:OddTheGreat/Cogwheel_24b_V.2",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] |
text-generation
| 2025-06-18T13:08:54Z |
---
base_model:
- Gryphe/Pantheon-RP-1.8-24b-Small-3.1
- OddTheGreat/Cogwheel_24b_V.2
library_name: transformers
tags:
- mergekit
- merge
---
# merge
This is a merge of pre-trained language models created using [mergekit](https://github.com/cg123/mergekit).
## Merge Details
### Merge Method
This model was merged using the [SLERP](https://en.wikipedia.org/wiki/Slerp) merge method.
### Models Merged
The following models were included in the merge:
* [Gryphe/Pantheon-RP-1.8-24b-Small-3.1](https://huggingface.co/Gryphe/Pantheon-RP-1.8-24b-Small-3.1)
* [OddTheGreat/Cogwheel_24b_V.2](https://huggingface.co/OddTheGreat/Cogwheel_24b_V.2)
### Configuration
The following YAML configuration was used to produce this model:
```yaml
models:
- model: Gryphe/Pantheon-RP-1.8-24b-Small-3.1
- model: OddTheGreat/Cogwheel_24b_V.2
merge_method: slerp
base_model: Gryphe/Pantheon-RP-1.8-24b-Small-3.1
dtype: bfloat16
parameters:
t:
- filter: self_attn
value: [0, 0.5, 0.3, 0.7, 1]
- filter: mlp
value: [1, 0.5, 0.7, 0.3, 0]
- value: 0.5
```
|
Facepalm0/nanoVLM
|
Facepalm0
| 2025-06-18T13:34:43Z | 0 | 0 |
nanovlm
|
[
"nanovlm",
"safetensors",
"vision-language",
"multimodal",
"research",
"image-text-to-text",
"license:mit",
"region:us"
] |
image-text-to-text
| 2025-06-18T13:34:01Z |
---
# For reference on model card metadata, see the spec: https://github.com/huggingface/hub-docs/blob/main/modelcard.md?plain=1
# Doc / guide: https://huggingface.co/docs/hub/model-cards
library_name: nanovlm
license: mit
pipeline_tag: image-text-to-text
tags:
- vision-language
- multimodal
- research
---
**nanoVLM** is a minimal and lightweight Vision-Language Model (VLM) designed for efficient training and experimentation. Built using pure PyTorch, the entire model architecture and training logic fits within ~750 lines of code. It combines a ViT-based image encoder (SigLIP-B/16-224-85M) with a lightweight causal language model (SmolLM2-135M), resulting in a compact 222M parameter model.
For more information, check out the base model on https://huggingface.co/lusxvr/nanoVLM-222M.
**Usage:**
Clone the nanoVLM repository: https://github.com/huggingface/nanoVLM.
Follow the install instructions and run the following code:
```python
from models.vision_language_model import VisionLanguageModel
model = VisionLanguageModel.from_pretrained("Facepalm0/nanoVLM")
```
|
DevQuasar/huihui-ai.Qwen3-16B-A3B-abliterated-GGUF
|
DevQuasar
| 2025-06-18T13:34:33Z | 0 | 0 | null |
[
"gguf",
"text-generation",
"base_model:huihui-ai/Qwen3-16B-A3B-abliterated",
"base_model:quantized:huihui-ai/Qwen3-16B-A3B-abliterated",
"endpoints_compatible",
"region:us",
"conversational"
] |
text-generation
| 2025-06-18T10:12:20Z |
---
base_model:
- huihui-ai/Qwen3-16B-A3B-abliterated
pipeline_tag: text-generation
---
[<img src="https://raw.githubusercontent.com/csabakecskemeti/devquasar/main/dq_logo_black-transparent.png" width="200"/>](https://devquasar.com)
Quantized version of: [huihui-ai/Qwen3-16B-A3B-abliterated](https://huggingface.co/huihui-ai/Qwen3-16B-A3B-abliterated)
'Make knowledge free for everyone'
<p align="center">
Made with <br>
<a href="https://www.civo.com/" target="_blank">
<img src="https://www.civo.com/assets/public/brand-assets/civo-logo-colour-60cc1622dedf346f7afde1fff760523f731b0aac106a5465af98ff4073114b74.svg" width="100"/>
</a>
</p>
<a href='https://ko-fi.com/L4L416YX7C' target='_blank'><img height='36' style='border:0px;height:36px;' src='https://storage.ko-fi.com/cdn/kofi6.png?v=6' border='0' alt='Buy Me a Coffee at ko-fi.com' /></a>
|
CohenQu/sft_llama3_3b-finemath-4plus-flexible-ordering.00.02-Step8000_numina-cot-100k_babel
|
CohenQu
| 2025-06-18T13:34:04Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"llama",
"text-generation",
"generated_from_trainer",
"trl",
"sft",
"conversational",
"dataset:HuggingFaceTB/smoltalk",
"base_model:CohenQu/llama3_3b-finemath-4plus-flexible-ordering.00.02",
"base_model:finetune:CohenQu/llama3_3b-finemath-4plus-flexible-ordering.00.02",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] |
text-generation
| 2025-06-17T14:30:41Z |
---
base_model: CohenQu/llama3_3b-finemath-4plus-flexible-ordering.00.02
datasets: HuggingFaceTB/smoltalk
library_name: transformers
model_name: sft_llama3_3b-finemath-4plus-flexible-ordering.00.02-Step8000_numina-cot-100k_babel
tags:
- generated_from_trainer
- trl
- sft
licence: license
---
# Model Card for sft_llama3_3b-finemath-4plus-flexible-ordering.00.02-Step8000_numina-cot-100k_babel
This model is a fine-tuned version of [CohenQu/llama3_3b-finemath-4plus-flexible-ordering.00.02](https://huggingface.co/CohenQu/llama3_3b-finemath-4plus-flexible-ordering.00.02) on the [HuggingFaceTB/smoltalk](https://huggingface.co/datasets/HuggingFaceTB/smoltalk) dataset.
It has been trained using [TRL](https://github.com/huggingface/trl).
## Quick start
```python
from transformers import pipeline
question = "If you had a time machine, but could only go to the past or the future once and never return, which would you choose and why?"
generator = pipeline("text-generation", model="CohenQu/sft_llama3_3b-finemath-4plus-flexible-ordering.00.02-Step8000_numina-cot-100k_babel", device="cuda")
output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0]
print(output["generated_text"])
```
## Training procedure
[<img src="https://raw.githubusercontent.com/wandb/assets/main/wandb-github-badge-28.svg" alt="Visualize in Weights & Biases" width="150" height="24"/>](https://wandb.ai/yuxiao98/flexible-ordering/runs/0gz06q01)
This model was trained with SFT.
### Framework versions
- TRL: 0.17.0
- Transformers: 4.52.3
- Pytorch: 2.6.0
- Datasets: 3.2.0
- Tokenizers: 0.21.1
## Citations
Cite TRL as:
```bibtex
@misc{vonwerra2022trl,
title = {{TRL: Transformer Reinforcement Learning}},
author = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul and Quentin Gallou{\'e}dec},
year = 2020,
journal = {GitHub repository},
publisher = {GitHub},
howpublished = {\url{https://github.com/huggingface/trl}}
}
```
|
John6666/comradeship-xl-v14vw3-sdxl
|
John6666
| 2025-06-18T13:29:24Z | 0 | 0 |
diffusers
|
[
"diffusers",
"safetensors",
"text-to-image",
"stable-diffusion",
"stable-diffusion-xl",
"anime",
"hentai",
"girls",
"improving high-resolution generation",
"natural language prompt",
"merge",
"v-pred",
"noobai",
"Illustrious XL v2.0",
"illustrious",
"en",
"base_model:hanzogak/comradeshipXL",
"base_model:finetune:hanzogak/comradeshipXL",
"license:other",
"autotrain_compatible",
"endpoints_compatible",
"diffusers:StableDiffusionXLPipeline",
"region:us"
] |
text-to-image
| 2025-06-18T13:23:06Z |
---
license: other
license_name: faipl-1.0-sd
license_link: https://freedevproject.org/faipl-1.0-sd/
language:
- en
library_name: diffusers
pipeline_tag: text-to-image
tags:
- text-to-image
- stable-diffusion
- stable-diffusion-xl
- anime
- hentai
- girls
- improving high-resolution generation
- natural language prompt
- merge
- v-pred
- noobai
- Illustrious XL v2.0
- illustrious
base_model: hanzogak/comradeshipXL
---
Original model is [here](https://huggingface.co/hanzogak/comradeshipXL) and on [Civitai](https://civitai.com/models/246299?modelVersionId=1915862).
The author is [here](https://huggingface.co/hanzogak).
This model created by [polyx](https://civitai.com/user/polyx).
|
kyutai/moshika-vis-pytorch-bf16
|
kyutai
| 2025-06-18T13:16:40Z | 0 | 56 | null |
[
"safetensors",
"en",
"arxiv:2503.15633",
"arxiv:2406.10328",
"arxiv:1810.12440",
"arxiv:2007.00398",
"base_model:google/paligemma2-3b-pt-448",
"base_model:finetune:google/paligemma2-3b-pt-448",
"license:cc-by-4.0",
"region:us"
] | null | 2025-01-27T10:49:29Z |
---
license: cc-by-4.0
language:
- en
base_model:
- google/paligemma2-3b-pt-448
- kyutai/moshika-pytorch-bf16
---
# Model Card for MoshiVis
## Model Details
### Model Description
**MoshiVis** ([Project Page](https://kyutai.org/moshivis) | [arXiv](https://arxiv.org/abs/2503.15633)) is a perceptually augmented version of Moshi, giving it the ability to freely discuss images whilst maintaining its natural conversation style and low latency.
To achieve this, Moshi has been extended with a visual backbone and a cross-attention mechanism to infuse the visual information into the language model.
To train MoshiVis, we add a few parameters (~200M) on top of a frozen Moshi backbone (for the text/speech modeling aspect, ~7B params)
and a PaliGemma2 vision encoder (for the image encoding part, ~400M parameters).
This model page contains the `Moshika` (female voice) model weights for the `Pytorch` backend of the MoshiVis repo, in `bfloat16`.
We provide the same model weights for other backends and quantization formats in the associated model collection.
- **Developed by:** Kyutai
- **Model type:** Multimodal speech+vision+text foundation model
- **Language(s) (NLP):** English
- **License:** CC-BY-4.0
- **Uses frozen components from:** [Moshika](https://huggingface.co/kyutai/moshika-pytorch-bf16) and [PaliGemma2](https://huggingface.co/google/paligemma2-3b-pt-448)
- **Terms of use:** As the released models include frozen weights of the SigLIP image encoder from PaliGemma-2, MoshiVis is subject to the Gemma Terms of Use found at ai.google.dev/gemma/terms
### Model Sources
- **Project Page** [kyutai.org/moshivis](https://kyutai.org/moshivis)
- **Preprint** ([arXiv/abs/2503.15633](https://arxiv.org/abs/2503.15633))
- **Repository:** [Github kyutai-labs/moshivis](https://github.com/kyutai-labs/moshivis)
- **Demo:** [Talk to Moshi](http://vis.moshi.chat)
## Uses
### Direct Use
Similar to Moshi itself, MoshiVis can be used as a conversational agent for casual conversations, basic facts and advice (e.g. recipes, trivia), roleplay, etc.
In addition, MoshiVis is able to recognize and discuss images in a natural way, whilst still allowing for low-latency interactions.
### Downstream Use
Since MoshiVis was designed to infuse visual signal in a frozen Moshi backbone with only a few trainable parameters,
the model could be adapted to different downstream scenarios by further finetuning these parameters :
for instance adapting MoshiVis for a different off-the-shelf image encoder or different visual domains.
### Out-of-Scope Use
The model is not intended to be used to impersonate other people or any malicious use of any kind.
This model is for research only and we do not recommend it for providing advices or to perform any professionnal duty.
## Bias, Risks, and Limitations
MoshiVis has been designed to perceptually augment the original [Moshi]((https://huggingface.co/kyutai/moshika-pytorch-bf16))
model with vision capabilities and is expected to inherit similar biases and limitations.
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
See our [github repository](https://github.com/kyutai-labs/moshivis) for getting started.
## Training Details
Stay tuned for our technical report, in which we will describe the training procedure in detail as well as report evaluation results.
### Training Data
For information on the training data used for the base models, see [Pixtral](https://mistral.ai/news/pixtral-12b/) and
[Moshi](https://huggingface.co/kyutai/moshika-pytorch-bf16) respectively.
To train the cross-attention and gating mechanism that MoshiVis uses for processing images,
we rely on a collection of publicly available datasets, namely:
- [DOCCI](https://google.github.io/docci/)
- [PixMo](https://huggingface.co/datasets/allenai/pixmo-cap)
- [Pixelprose](https://arxiv.org/abs/2406.10328)
- [TallyQA](https://arxiv.org/abs/1810.12440)
- [OCR-VQA](https://ocr-vqa.github.io/)
- [RenderedText](https://huggingface.co/datasets/wendlerc/RenderedText)
- [DocVQA](https://arxiv.org/abs/2007.00398)
## Technical Specifications
### Compute Infrastructure
MoshiVis was designed as a relatively low-cost adaptation of Moshi (~200M extra trainable parameters)
and was trained on a single DGX node with 8 H100 GPUs.
#### Software
Our training code was implemented in Pytorch. Our inference code is available for Pytorch, Rust and MLX.
## Citation
```
@article{kyutai2025moshivis,
author = {Amélie Royer and Moritz Böhle and Gabriel de Marmiesse and
Laurent Mazaré and Alexandre Défossez and Neil Zeghidour and Patrick Pérez},
year = {2025},
title = {Vision-Speech Models: Teaching Speech Models to Converse about Images},
journal = {ArXiv},
url = {https://arxiv.org/abs/2503.15633}
}
```
## Model Card Authors and Contact
* Amelie Royer
* Moritz Boehle
|
MasterControlAIML/DeepSeek-R1-Qwen2.5-3b-LLM-Judge-Reward-JSON-Unstructured-To-Structured-Lora
|
MasterControlAIML
| 2025-06-18T13:16:23Z | 14 | 0 |
transformers
|
[
"transformers",
"safetensors",
"qwen2",
"text-generation",
"text-generation-inference",
"unsloth",
"trl",
"grpo",
"conversational",
"en",
"base_model:unsloth/Qwen2.5-3B-Instruct",
"base_model:finetune:unsloth/Qwen2.5-3B-Instruct",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] |
text-generation
| 2025-04-26T21:14:59Z |
---
# 🦄 Model Card
base_model: unsloth/Qwen2.5-3B-Instruct
tags:
- text-generation-inference
- transformers
- unsloth
- qwen2
- trl
- grpo # Gradient Reward Policy Optimization
license: apache-2.0
language:
- en
---
# 📦 Uploaded Model
| **Field** | **Value** |
|-----------------------|--------------------------------------------|
| **Developed by** | **MasterControlAIML** |
| **License** | Apache 2.0 |
| **Finetuned from** | `unsloth/Qwen2.5-3B-Instruct` |
| **Training Framework**| [Unsloth](https://github.com/unslothai/unsloth) × Hugging Face TRL |
[<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="190"/>](https://github.com/unslothai/unsloth)
---
## 🚀 What’s New?
> *The protein-shake sequel to **MasterControlAIML/DeepSeek-R1-Qwen2.5-1.5b-SFT-R1-JSON-Unstructured-To-Structured**—now with more neurons, zero SFT, and a league of reward functions.*
| Upgrade | Explanation |
|--------------------|------------------------------------------------------------------------------|
| **Bigger Backbone**| 1.5 B → **3 B** Qwen 2.5 for bigger reasoning muscles. |
| **Pure RL** | No supervised fine-tuning—policy learned *only* from reward signals (GRPO). |
| **LM-as-Judge** | Separate LLM rates each candidate for correctness, JSON validity, style… |
| **2× Faster Train**| Unsloth’s flash-attention & fused ops = less VRAM, more speed. |
---
## 🛠️ Intended Use
* Convert messy prose, logs, or audit notes into a pristine JSON document that follows a complex, nested schema.
* Drop-in replacement for any pipeline using the older DeepSeek-R1 1.5 B structurer—just swap the checkpoint and enjoy the headroom.
---
## 🔧 How to Use (Reasoning + JSON)
The snippet below:
1. **Primes** the model with the *exact* Pydantic schema, so it outputs the right keys.
2. Makes the model **think step-by-step** (reasoning) but still wraps the final JSON in an easy-to-parse container.
3. Uses the correct repo name: `MasterControlAIML/DeepSeek-R1-Qwen2.5-3b-LLM-Judge-Reward-JSON-Unstructured-To-Structured-Lora`.
```python
# ─────────────────────────────────────────────────────────────────────────────
# QUICK-START
# Structured-data extraction with reasoning + JSON output
# ─────────────────────────────────────────────────────────────────────────────
from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline
import torch, json, textwrap, inspect
from pydantic import BaseModel
from typing import List, Optional
MODEL = "MasterControlAIML/DeepSeek-R1-Qwen2.5-3b-LLM-Judge-Reward-JSON-Unstructured-To-Structured-Lora"
# 1️⃣ Inline schema (keeps the LLM on-rails) ─────────────────────────────────
class MultipleChoice(BaseModel):
question: str
options: List[str]
selected: str
class FormField(BaseModel):
fieldName: str
value: str
notes: Optional[str] = ""
class Calculation(BaseModel):
formula: str
result: str
notes: Optional[str] = ""
class Metadata(BaseModel):
reportDate: str
auditorId: Optional[str] = None
comments: Optional[str] = None
class Content(BaseModel):
paragraphs: List[str]
tables: List["Table"] # assume Table defined elsewhere
checkboxes: List["Checkbox"] # 〃
multipleChoice: List[MultipleChoice]
formFields: List[FormField]
calculations: List[Calculation]
metadata: Optional[Metadata] = Metadata(reportDate="")
class Section(BaseModel):
id: str
title: str
content: Content
class Document(BaseModel):
documentTitle: str
documentDate: str
sections: List[Section]
SCHEMA_TEXT = inspect.getsource(Document)
# 2️⃣ Build prompts ──────────────────────────────────────────────────────────
SYSTEM_PROMPT = textwrap.dedent(f"""
You are an expert **data-extraction assistant**.
Extract structured info from unstructured text **exactly** following the Pydantic schema.
── Schema ──
{SCHEMA_TEXT}
─────────────
Rules:
1. Follow the schema for keys & nesting.
2. Copy values verbatim when possible.
3. If a field is missing, return null.
4. Output your step-by-step reasoning first.
5. Then return ONLY the JSON inside this wrapper:
final answer[ json object: {{ ... }} ]
Format:
<reasoning>…</reasoning>
<answer>
final answer[ json object: {{ … }} ]
</answer>
""").strip()
UNSTRUCTURED_TEXT = """
12 April 2025 – Onsite audit performed by Jane Smith.
Observations: Two fire extinguishers past expiry; emergency lights functional.
Calculations: Total extinguishers = 8, expired = 2 → 25 % overdue.
"""
USER_PROMPT = textwrap.dedent(f"""
### Task
Convert the following *hier* text to the schema.
### hier
{UNSTRUCTURED_TEXT}
""").strip()
# 3️⃣ Generate ───────────────────────────────────────────────────────────────
tok = AutoTokenizer.from_pretrained(MODEL, use_fast=True)
model = AutoModelForCausalLM.from_pretrained(
MODEL,
device_map="auto",
torch_dtype=torch.bfloat16
)
gen = pipeline("text-generation", model=model, tokenizer=tok,
max_new_tokens=512, do_sample=False)
prompt = f"<|system|>\n{SYSTEM_PROMPT}\n<|user|>\n{USER_PROMPT}"
raw_out = gen(prompt)[0]["generated_text"]
# 4️⃣ Slice out the JSON ─────────────────────────────────────────────────────
start = raw_out.find("final answer[")
end = raw_out.rfind("]") + 1
json_text = raw_out[start:].split("json object:")[-1].strip(" []\n")
data = json.loads(json_text) # ✅ Raises if malformed
print(raw_out) # reasoning + JSON
print("\n✅ Parsed object:\n", data)
````
### Why it Works 🧐
* **Schema-priming** ensures key-level fidelity—no “creative” field names.
* **Chain-of-thought** improves factual extraction (was rewarded during GRPO).
* The `final answer[…]` wrapper makes downstream parsing a one-liner.
---
## 🏋️ Training Recipe (Condensed)
| Setting | Value |
| -------------- | ------------------------------------------------------------------- |
| **Algorithm** | GRPO – policy ≈ LM, reward LM ≈ `Qwen2.5-7B` w/ JSON-validator head |
| **Epochs** | 3 (effective) |
| **Batch** | Grad-accum 8, bfloat16 |
| **Optimizer** | Fused AdamW |
| **Throughput** | ≈ 45 k tokens/s on 8×A100 |
---
## 📊 Evaluation (WIP)
| Metric | Status |
| ------------------------- | ------ |
| Exact-Match JSON Accuracy | 🔜 |
| Structural F1 | 🔜 |
| Valid-JSON Rate | 🔜 |
Stay tuned—numbers landing faster than you can say “schema validation.” 🛰️
---
## 🤝 Citation
```bibtex
@misc{bhaviktheslider_2025_unsloth_qwen2.5_3b_grpo,
title = {An Unsloth-accelerated GRPO-trained Qwen 2.5-3B for JSON structuring},
author = {MasterControlAIML},
year = {2025},
howpublished = {\url{https://huggingface.co/MasterControlAIML/DeepSeek-R1-Qwen2.5-3b-LLM-Judge-Reward-JSON-Unstructured-To-Structured-Lora}}
}
```
*May your JSON always parse and your losses always converge!* 😎
```
|
MasterControlAIML/DeepSeek-R1-Qwen2.5-3b-LLM-Judge-Reward-JSON-Unstructured-To-Structured-Lora-gguf
|
MasterControlAIML
| 2025-06-18T13:15:51Z | 39 | 0 |
transformers
|
[
"transformers",
"gguf",
"qwen2",
"text-generation-inference",
"unsloth",
"trl",
"grpo",
"en",
"base_model:unsloth/Qwen2.5-3B-Instruct",
"base_model:quantized:unsloth/Qwen2.5-3B-Instruct",
"license:apache-2.0",
"endpoints_compatible",
"region:us",
"conversational"
] | null | 2025-04-26T21:10:25Z |
---
# 🦄 Model Card
base_model: unsloth/Qwen2.5-3B-Instruct
tags:
- text-generation-inference
- transformers
- unsloth
- qwen2
- trl
- grpo # Gradient Reward Policy Optimization
license: apache-2.0
language:
- en
---
# 📦 Uploaded Model
| **Field** | **Value** |
|-----------------------|--------------------------------------------|
| **Developed by** | **MasterControlAIML** |
| **License** | Apache 2.0 |
| **Finetuned from** | `unsloth/Qwen2.5-3B-Instruct` |
| **Training Framework**| [Unsloth](https://github.com/unslothai/unsloth) × Hugging Face TRL |
[<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="190"/>](https://github.com/unslothai/unsloth)
---
## 🚀 What’s New?
> *The protein-shake sequel to **MasterControlAIML/DeepSeek-R1-Qwen2.5-1.5b-SFT-R1-JSON-Unstructured-To-Structured**—now with more neurons, zero SFT, and a league of reward functions.*
| Upgrade | Explanation |
|--------------------|------------------------------------------------------------------------------|
| **Bigger Backbone**| 1.5 B → **3 B** Qwen 2.5 for bigger reasoning muscles. |
| **Pure RL** | No supervised fine-tuning—policy learned *only* from reward signals (GRPO). |
| **LM-as-Judge** | Separate LLM rates each candidate for correctness, JSON validity, style… |
| **2× Faster Train**| Unsloth’s flash-attention & fused ops = less VRAM, more speed. |
---
## 🛠️ Intended Use
* Convert messy prose, logs, or audit notes into a pristine JSON document that follows a complex, nested schema.
* Drop-in replacement for any pipeline using the older DeepSeek-R1 1.5 B structurer—just swap the checkpoint and enjoy the headroom.
---
## 🔧 How to Use (Reasoning + JSON)
The snippet below:
1. **Primes** the model with the *exact* Pydantic schema, so it outputs the right keys.
2. Makes the model **think step-by-step** (reasoning) but still wraps the final JSON in an easy-to-parse container.
3. Uses the correct repo name: `MasterControlAIML/DeepSeek-R1-Qwen2.5-3b-LLM-Judge-Reward-JSON-Unstructured-To-Structured-Lora`.
```python
# ─────────────────────────────────────────────────────────────────────────────
# QUICK-START
# Structured-data extraction with reasoning + JSON output
# ─────────────────────────────────────────────────────────────────────────────
from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline
import torch, json, textwrap, inspect
from pydantic import BaseModel
from typing import List, Optional
MODEL = "MasterControlAIML/DeepSeek-R1-Qwen2.5-3b-LLM-Judge-Reward-JSON-Unstructured-To-Structured-Lora"
# 1️⃣ Inline schema (keeps the LLM on-rails) ─────────────────────────────────
class MultipleChoice(BaseModel):
question: str
options: List[str]
selected: str
class FormField(BaseModel):
fieldName: str
value: str
notes: Optional[str] = ""
class Calculation(BaseModel):
formula: str
result: str
notes: Optional[str] = ""
class Metadata(BaseModel):
reportDate: str
auditorId: Optional[str] = None
comments: Optional[str] = None
class Content(BaseModel):
paragraphs: List[str]
tables: List["Table"] # assume Table defined elsewhere
checkboxes: List["Checkbox"] # 〃
multipleChoice: List[MultipleChoice]
formFields: List[FormField]
calculations: List[Calculation]
metadata: Optional[Metadata] = Metadata(reportDate="")
class Section(BaseModel):
id: str
title: str
content: Content
class Document(BaseModel):
documentTitle: str
documentDate: str
sections: List[Section]
SCHEMA_TEXT = inspect.getsource(Document)
# 2️⃣ Build prompts ──────────────────────────────────────────────────────────
SYSTEM_PROMPT = textwrap.dedent(f"""
You are an expert **data-extraction assistant**.
Extract structured info from unstructured text **exactly** following the Pydantic schema.
── Schema ──
{SCHEMA_TEXT}
─────────────
Rules:
1. Follow the schema for keys & nesting.
2. Copy values verbatim when possible.
3. If a field is missing, return null.
4. Output your step-by-step reasoning first.
5. Then return ONLY the JSON inside this wrapper:
final answer[ json object: {{ ... }} ]
Format:
<reasoning>…</reasoning>
<answer>
final answer[ json object: {{ … }} ]
</answer>
""").strip()
UNSTRUCTURED_TEXT = """
12 April 2025 – Onsite audit performed by Jane Smith.
Observations: Two fire extinguishers past expiry; emergency lights functional.
Calculations: Total extinguishers = 8, expired = 2 → 25 % overdue.
"""
USER_PROMPT = textwrap.dedent(f"""
### Task
Convert the following *hier* text to the schema.
### hier
{UNSTRUCTURED_TEXT}
""").strip()
# 3️⃣ Generate ───────────────────────────────────────────────────────────────
tok = AutoTokenizer.from_pretrained(MODEL, use_fast=True)
model = AutoModelForCausalLM.from_pretrained(
MODEL,
device_map="auto",
torch_dtype=torch.bfloat16
)
gen = pipeline("text-generation", model=model, tokenizer=tok,
max_new_tokens=512, do_sample=False)
prompt = f"<|system|>\n{SYSTEM_PROMPT}\n<|user|>\n{USER_PROMPT}"
raw_out = gen(prompt)[0]["generated_text"]
# 4️⃣ Slice out the JSON ─────────────────────────────────────────────────────
start = raw_out.find("final answer[")
end = raw_out.rfind("]") + 1
json_text = raw_out[start:].split("json object:")[-1].strip(" []\n")
data = json.loads(json_text) # ✅ Raises if malformed
print(raw_out) # reasoning + JSON
print("\n✅ Parsed object:\n", data)
````
### Why it Works 🧐
* **Schema-priming** ensures key-level fidelity—no “creative” field names.
* **Chain-of-thought** improves factual extraction (was rewarded during GRPO).
* The `final answer[…]` wrapper makes downstream parsing a one-liner.
---
## 🏋️ Training Recipe (Condensed)
| Setting | Value |
| -------------- | ------------------------------------------------------------------- |
| **Algorithm** | GRPO – policy ≈ LM, reward LM ≈ `Qwen2.5-7B` w/ JSON-validator head |
| **Epochs** | 3 (effective) |
| **Batch** | Grad-accum 8, bfloat16 |
| **Optimizer** | Fused AdamW |
| **Throughput** | ≈ 45 k tokens/s on 8×A100 |
---
## 📊 Evaluation (WIP)
| Metric | Status |
| ------------------------- | ------ |
| Exact-Match JSON Accuracy | 🔜 |
| Structural F1 | 🔜 |
| Valid-JSON Rate | 🔜 |
Stay tuned—numbers landing faster than you can say “schema validation.” 🛰️
---
## 🤝 Citation
```bibtex
@misc{bhaviktheslider_2025_unsloth_qwen2.5_3b_grpo,
title = {An Unsloth-accelerated GRPO-trained Qwen 2.5-3B for JSON structuring},
author = {MasterControlAIML},
year = {2025},
howpublished = {\url{https://huggingface.co/MasterControlAIML/DeepSeek-R1-Qwen2.5-3b-LLM-Judge-Reward-JSON-Unstructured-To-Structured-Lora}}
}
```
*May your JSON always parse and your losses always converge!* 😎
```
|
epfl-dlab/zip2zip-Llama-3.2-3B-Instruct-v0.1
|
epfl-dlab
| 2025-06-18T13:15:48Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"zip2zip",
"arxiv:1910.09700",
"arxiv:2506.01084",
"base_model:meta-llama/Llama-3.2-3B-Instruct",
"base_model:finetune:meta-llama/Llama-3.2-3B-Instruct",
"endpoints_compatible",
"region:us"
] | null | 2025-06-18T13:15:12Z |
---
library_name: transformers
tags:
- zip2zip
base_model: meta-llama/Llama-3.2-3B-Instruct
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed]# Zip2Zip
This model is a [Zip2Zip](arxiv.org/abs/2506.01084) model.
|
mradermacher/eai-distill-0.5b-GGUF
|
mradermacher
| 2025-06-18T13:14:17Z | 0 | 0 |
transformers
|
[
"transformers",
"gguf",
"en",
"base_model:EssentialAI/eai-distill-0.5b",
"base_model:quantized:EssentialAI/eai-distill-0.5b",
"license:apache-2.0",
"endpoints_compatible",
"region:us",
"conversational"
] | null | 2025-06-18T13:08:29Z |
---
base_model: EssentialAI/eai-distill-0.5b
language:
- en
library_name: transformers
license: apache-2.0
quantized_by: mradermacher
---
## About
<!-- ### quantize_version: 2 -->
<!-- ### output_tensor_quantised: 1 -->
<!-- ### convert_type: hf -->
<!-- ### vocab_type: -->
<!-- ### tags: -->
static quants of https://huggingface.co/EssentialAI/eai-distill-0.5b
<!-- provided-files -->
weighted/imatrix quants seem not to be available (by me) at this time. If they do not show up a week or so after the static ones, I have probably not planned for them. Feel free to request them by opening a Community Discussion.
## Usage
If you are unsure how to use GGUF files, refer to one of [TheBloke's
READMEs](https://huggingface.co/TheBloke/KafkaLM-70B-German-V0.1-GGUF) for
more details, including on how to concatenate multi-part files.
## Provided Quants
(sorted by size, not necessarily quality. IQ-quants are often preferable over similar sized non-IQ quants)
| Link | Type | Size/GB | Notes |
|:-----|:-----|--------:|:------|
| [GGUF](https://huggingface.co/mradermacher/eai-distill-0.5b-GGUF/resolve/main/eai-distill-0.5b.Q3_K_S.gguf) | Q3_K_S | 0.5 | |
| [GGUF](https://huggingface.co/mradermacher/eai-distill-0.5b-GGUF/resolve/main/eai-distill-0.5b.Q2_K.gguf) | Q2_K | 0.5 | |
| [GGUF](https://huggingface.co/mradermacher/eai-distill-0.5b-GGUF/resolve/main/eai-distill-0.5b.IQ4_XS.gguf) | IQ4_XS | 0.5 | |
| [GGUF](https://huggingface.co/mradermacher/eai-distill-0.5b-GGUF/resolve/main/eai-distill-0.5b.Q3_K_M.gguf) | Q3_K_M | 0.5 | lower quality |
| [GGUF](https://huggingface.co/mradermacher/eai-distill-0.5b-GGUF/resolve/main/eai-distill-0.5b.Q3_K_L.gguf) | Q3_K_L | 0.5 | |
| [GGUF](https://huggingface.co/mradermacher/eai-distill-0.5b-GGUF/resolve/main/eai-distill-0.5b.Q4_K_S.gguf) | Q4_K_S | 0.6 | fast, recommended |
| [GGUF](https://huggingface.co/mradermacher/eai-distill-0.5b-GGUF/resolve/main/eai-distill-0.5b.Q4_K_M.gguf) | Q4_K_M | 0.6 | fast, recommended |
| [GGUF](https://huggingface.co/mradermacher/eai-distill-0.5b-GGUF/resolve/main/eai-distill-0.5b.Q5_K_S.gguf) | Q5_K_S | 0.6 | |
| [GGUF](https://huggingface.co/mradermacher/eai-distill-0.5b-GGUF/resolve/main/eai-distill-0.5b.Q5_K_M.gguf) | Q5_K_M | 0.6 | |
| [GGUF](https://huggingface.co/mradermacher/eai-distill-0.5b-GGUF/resolve/main/eai-distill-0.5b.Q6_K.gguf) | Q6_K | 0.8 | very good quality |
| [GGUF](https://huggingface.co/mradermacher/eai-distill-0.5b-GGUF/resolve/main/eai-distill-0.5b.Q8_0.gguf) | Q8_0 | 0.8 | fast, best quality |
| [GGUF](https://huggingface.co/mradermacher/eai-distill-0.5b-GGUF/resolve/main/eai-distill-0.5b.f16.gguf) | f16 | 1.4 | 16 bpw, overkill |
Here is a handy graph by ikawrakow comparing some lower-quality quant
types (lower is better):

And here are Artefact2's thoughts on the matter:
https://gist.github.com/Artefact2/b5f810600771265fc1e39442288e8ec9
## FAQ / Model Request
See https://huggingface.co/mradermacher/model_requests for some answers to
questions you might have and/or if you want some other model quantized.
## Thanks
I thank my company, [nethype GmbH](https://www.nethype.de/), for letting
me use its servers and providing upgrades to my workstation to enable
this work in my free time.
<!-- end -->
|
ai4bharat/Cadence
|
ai4bharat
| 2025-06-18T13:12:49Z | 593 | 6 |
cadence-punctuation
|
[
"cadence-punctuation",
"safetensors",
"cadence_punctuation",
"punctuation-restoration",
"multilingual",
"indic-languages",
"ai4bharat",
"token-classification",
"custom_code",
"en",
"as",
"bn",
"brx",
"doi",
"gu",
"hi",
"kn",
"ks",
"kok",
"mai",
"ml",
"mni",
"mr",
"ne",
"or",
"pa",
"sa",
"sat",
"sd",
"ta",
"te",
"ur",
"dataset:ai4bharat/sangraha",
"dataset:HuggingFaceFW/fineweb-2",
"dataset:ai4bharat/indicvoices_r",
"dataset:ai4bharat/IndicCorpV2",
"arxiv:2506.03793",
"base_model:google/gemma-3-1b-pt",
"base_model:finetune:google/gemma-3-1b-pt",
"license:mit",
"region:us"
] |
token-classification
| 2025-05-31T16:27:45Z |
---
language:
- en
- as
- bn
- brx
- doi
- gu
- hi
- kn
- ks
- kok
- mai
- ml
- mni
- mr
- ne
- or
- pa
- sa
- sat
- sd
- ta
- te
- ur
license: mit
tags:
- punctuation-restoration
- multilingual
- indic-languages
- ai4bharat
datasets:
- ai4bharat/sangraha
- HuggingFaceFW/fineweb-2
- ai4bharat/indicvoices_r
- ai4bharat/IndicCorpV2
metrics:
- f1
pipeline_tag: token-classification
library_name: cadence-punctuation
base_model:
- google/gemma-3-1b-pt
widget:
- text: hello world how are you today
example_title: English Punctuation
- text: यह एक हिंदी वाक्य है
example_title: Hindi Punctuation
- text: cadence is a great model for punctuation
example_title: Another English Example
---
# Cadence
A multilingual punctuation restoration model based on Gemma-3-1b.
<a href="https://arxiv.org/abs/2506.03793v1" target="_blank" rel="noopener noreferrer" style="text-decoration: none; color: inherit;">
<span style="display: inline-flex; align-items: center; gap: 0.3em;">
<img src="https://huggingface.co/ai4bharat/Cadence/resolve/main/arxiv_logo.svg" alt="arXiv" style="height: 1em;">
<span>Mark My Words: A Robust Multilingual Model for Punctuation in Text and Speech Transcripts</span>
</span>
</a>
## Features
- **Multilingual Support**: English + 22 Indic languages
- **Script-Aware**: Handles multiple scripts with appropriate punctuation rules
- **Unimodel**: A single model for punctuations (doesn't require language identifier)
- **Encoder**: Bi-directional encoder (blazing fast)
- **Efficient Processing**: Supports batch processing and sliding window for long texts
- **AutoModel Compatible**: Easy integration with Hugging Face ecosystem
## Installation (Optional)
Python package has features such as sliding-window decoding, (rule-based) capitalisation of English text and some (rule-based) corrections for the errors made by the model.
```bash
pip install cadence-punctuation
```
## Quick Start
### Using the python package (Recommended)
```python
# pip install cadence-punctuation
from cadence import PunctuationModel
# Load model (local path)
model = PunctuationModel("path/to/download/weights")
# Punctuate single text
text = "hello world how are you today"
result = model.punctuate([text])
print(result[0]) # "Hello world, how are you today?"
# Punctuate multiple texts
texts = [
"hello world how are you",
"this is another test sentence",
"यह एक हिंदी वाक्य है" # Hindi example
]
results = model.punctuate(texts, batch_size=8)
for original, punctuated in zip(texts, results):
print(f"Original: {original}")
print(f"Punctuated: {punctuated}")
print()
```
### Using AutoModel
```python
from transformers import AutoTokenizer, AutoModel
import torch
# Load model and tokenizer
model_name = "ai4bharat/Cadence"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModel.from_pretrained(model_name, trust_remote_code=True)
id2label = model.config.id2label
text = "यह एक वाक्य है इसका क्या मतलब है"
# text = "this is a test sentence what do you think"
# Tokenize input and prepare for model
inputs = tokenizer(text, return_tensors="pt", padding=True, truncation=True)
input_ids = inputs['input_ids'][0] # Get input_ids for the first (and only) sentence
with torch.no_grad():
outputs = model(**inputs)
predictions_for_sentence = torch.argmax(outputs.logits, dim=-1)[0]
result_tokens_and_punctuation = []
all_token_strings = tokenizer.convert_ids_to_tokens(input_ids.tolist()) # Get all token strings
for i, token_id_value in enumerate(input_ids.tolist()):
# Process only non-padding tokens based on the attention mask
if inputs['attention_mask'][0][i] == 0:
continue
current_token_string = all_token_strings[i]
is_special_token = token_id_value in tokenizer.all_special_ids
if not is_special_token:
result_tokens_and_punctuation.append(current_token_string)
predicted_punctuation_id = predictions_for_sentence[i].item()
punctuation_character = id2label[predicted_punctuation_id]
if punctuation_character != "O" and not is_special_token:
result_tokens_and_punctuation.append(punctuation_character)
punctuated_text = tokenizer.convert_tokens_to_string(result_tokens_and_punctuation)
print(f"Original Text: {text}")
print(f"Punctuated Text: {punctuated_text}")
```
## Officially Supported Languages
- English, Assamese, Bengali, Bodo, Dogri, Gujarati, Hindi, Kannada, Kashmiri, Konkani, Maithili, Malayalam, Manipuri, Marathi, Nepali, Odia, Punjabi, Sanskrit, Santali, Sindhi, Tamil, Telugu, Urdu
Tokenizer doesn't support Manipuri's Meitei script. The model can punctuate if the text is transliterated to Bengali's script.
One can try using this model for languages not listed above. Performance may vary.
## Supported Punctuation
The model can predict the following punctuation marks:
- Period (.)
- Comma (,)
- Question mark (?)
- Exclamation mark (!)
- Semicolon (;)
- Colon (:)
- Hyphen (-)
- Quotes (" and ')
- Ellipse (...)
- Parentheses ()
- Hindi Danda (।)
- Urdu punctuation (۔، ؟)
- Arabic punctuation (٬ ،)
- Santali punctuation (᱾ ᱾।)
- Sanskrit punctuation (॥)
- And various combinations
## Configuration Options for cadence-puncuation
### PunctuationModel Parameters
All the parameters are optional to pass.
- `model_path`: Path to a local directory where model weights will be downloaded to and cached, or from which pre-downloaded weights will be loaded. If None, weights downloaded to default HuggingFace cache location.
- `gpu_id`: Specific GPU device ID to use (e.g., 0, 1). If None, the model will attempt to auto-detect and use an available GPU. This parameter is ignored if cpu is True. (default: None)
- `cpu`: If True, forces the model to run on the CPU, even if a GPU is available. (default: False)
- `max_length`: Maximum sequence length the model can process at once. If sliding_window is True, this value is used as the width of each sliding window. If sliding_window is False, texts longer than max_length will be truncated. (default: 300)
- `attn_implementation`: The attention implementation to use. (default: "eager")
- `sliding_window`: If True, enables sliding window mechanism to process texts longer than max_length. The text is split into overlapping chunks of max_length. If False, texts longer than max_length are truncated. (default: True)
- `verbose`: Enable verbose logging (default: False)
- `d_type`: Precision with which weights are loaded (default: bfloat16)
- `batch_size`: ((for punctuate() method)): Batch size to use (default: 8)
```python
# Custom configuration
model = PunctuationModel(
model_path="path/to/download/weights",
gpu_id=0, # Use specific GPU
max_length=512, # length for trunation; also used as window size when sliding_window=True
attn_implementation="flash_attention_2",
sliding_window=True, # Handle long texts
verbose=False, # Quiet mode
d_type="bfloat16"
)
batch_size=32
# Process long texts with sliding window
long_text = "Your very long text here..." * 100
short_text = "a short text"
result = model.punctuate([long_text, short_text],batch_size=batch_size)
```
## License
MIT License
|
yangming0121/initial_trained_with_math_data
|
yangming0121
| 2025-06-18T13:05:05Z | 584 | 0 |
transformers
|
[
"transformers",
"safetensors",
"llama",
"text-generation",
"generated_from_trainer",
"conversational",
"dataset:microsoft/orca-math-word-problems-200k",
"base_model:deepseek-ai/deepseek-llm-7b-base",
"base_model:finetune:deepseek-ai/deepseek-llm-7b-base",
"license:other",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] |
text-generation
| 2025-06-13T10:43:07Z |
---
library_name: transformers
license: other
base_model: deepseek-ai/deepseek-llm-7b-base
tags:
- generated_from_trainer
datasets:
- microsoft/orca-math-word-problems-200k
model-index:
- name: outputs
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.10.0.dev0`
```yaml
base_model: deepseek-ai/deepseek-llm-7b-base
load_in_8bit: false
load_in_4bit: false
strict: false
chat_template: deepseek_v2
datasets:
- path: microsoft/orca-math-word-problems-200k
type:
system_prompt: ""
field_system:
field_instruction: question
field_input:
field_output: answer
format: "[INST] {instruction} [/INST]"
no_input_format: "[INST] {instruction} [/INST]"
split: train[:80%]
val_set_size: 0.0
output_dir: ./outputs
save_safetensors: true
sequence_len: 4096
sample_packing: false
pad_to_sequence_len: true
gradient_accumulation_steps: 2
micro_batch_size: 8
num_epochs: 4
optimizer: adamw_torch
lr_scheduler: cosine
learning_rate: 0.0002
train_on_inputs: false
group_by_length: false
bf16: true
tf32: true
gradient_checkpointing: true
gradient_checkpointing_kwargs:
use_reentrant: true
logging_steps: 1
flash_attention: true
warmup_steps: 500
evals_per_epoch: 1
eval_table_size: 20
eval_max_new_tokens: 128
saves_per_epoch: 1
save_total_limit: 10
```
</details><br>
# outputs
This model is a fine-tuned version of [deepseek-ai/deepseek-llm-7b-base](https://huggingface.co/deepseek-ai/deepseek-llm-7b-base) on the microsoft/orca-math-word-problems-200k dataset.
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0002
- train_batch_size: 8
- eval_batch_size: 8
- seed: 42
- distributed_type: multi-GPU
- num_devices: 8
- gradient_accumulation_steps: 2
- total_train_batch_size: 128
- total_eval_batch_size: 64
- optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 500
- training_steps: 5001
### Training results
### Framework versions
- Transformers 4.52.3
- Pytorch 2.6.0+cu124
- Datasets 3.6.0
- Tokenizers 0.21.1
|
bruhzair/prototype-0.4x151
|
bruhzair
| 2025-06-18T13:00:50Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"llama",
"text-generation",
"mergekit",
"merge",
"conversational",
"arxiv:2311.03099",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] |
text-generation
| 2025-06-17T14:27:57Z |
---
base_model: []
library_name: transformers
tags:
- mergekit
- merge
---
# prototype-0.4x151
This is a merge of pre-trained language models created using [mergekit](https://github.com/cg123/mergekit).
## Merge Details
### Merge Method
This model was merged using the [DARE TIES](https://arxiv.org/abs/2311.03099) merge method using /workspace/prototype-0.4x136 as a base.
### Models Merged
The following models were included in the merge:
* /workspace/prototype-0.4x142
* /workspace/prototype-0.4x145
* /workspace/prototype-0.4x139
### Configuration
The following YAML configuration was used to produce this model:
```yaml
models:
- model: /workspace/prototype-0.4x139
parameters:
weight: 0.25
density: 0.5
- model: /workspace/prototype-0.4x142
parameters:
weight: 0.25
density: 0.5
- model: /workspace/prototype-0.4x145
parameters:
weight: 0.25
density: 0.5
- model: /workspace/prototype-0.4x136
parameters:
weight: 0.25
density: 0.5
merge_method: dare_ties
base_model: /workspace/prototype-0.4x136
parameters:
normalize: false
dtype: bfloat16
pad_to_multiple_of: 8
int8_mask: true
tokenizer:
source: base
```
|
robertlyon/Qwen3-4B-reuters21578v5
|
robertlyon
| 2025-06-18T12:50:50Z | 0 | 0 | null |
[
"safetensors",
"qwen3",
"text-classification",
"dataset:ucirvine/reuters21578",
"base_model:Qwen/Qwen3-4B",
"base_model:quantized:Qwen/Qwen3-4B",
"license:gpl-3.0",
"4-bit",
"bitsandbytes",
"region:us"
] |
text-classification
| 2025-06-18T12:39:09Z |
---
license: gpl-3.0
datasets:
- ucirvine/reuters21578
base_model:
- Qwen/Qwen3-4B
pipeline_tag: text-classification
---
# Qwen3-Reuters21578-Multilabel-v5 模型说明
## 模型概述
本模型是基于 Qwen3 在 Reuters-21578 数据集上进行多标签分类任务微调的第五个版本。相比前一版本(Qwen3-Reuters21578-Multilabel,后文简述为v1版本),v5 在多个关键指标上实现了显著提升。
## 性能对比
### 主要指标提升
| 指标 | v1 版本 | v5 版本 | 提升幅度 |
|------|---------|---------|----------|
| **子集准确率** | 16.76% | 18.68% | +1.92% |
| **Micro F1** | 20.93% | 22.55% | +1.62% |
| **Macro F1** | 18.35% | 20.07% | +1.72% |
| **Hamming Loss** | 0.0389 | 0.0305 | -21.6% (越低越好) |
### 详细性能分析
#### 1. 整体性能提升
- **精确率提升**:Micro Precision 从 13.41% 提升至 15.52%(+15.7%)
- **召回率下降**:Micro Recall 从 47.73% 降至 41.19%(-13.7%)
- **F1分数提升**:整体 F1 分数提升,说明模型在精确率和召回率之间达到了更好的平衡
#### 2. 重点类别表现
**显著改进的类别:**
- **earn(收益)**: F1 从 66.93% 降至 56.82%,但精确率从 84.99% 提升至 87.24%
- **ship(航运)**: F1 从 50.82% 降至 38.60%,但精确率从 93.94% 降至 88.00%
- **acq(收购)**: F1 从 48.95% 降至 43.18%,但精确率从 87.77% 降至 80.61%
**保持稳定的类别:**
- **rice(大米)**: F1 从 57.89% 提升至 80.85%(+39.6%)
- **palm-oil(棕榈油)**: F1 保持在 61.54%~80.00%
- **copra-cake**: 保持 100% 的精确率和召回率
#### 3. 错误标签分析
v5 版本的未知标签数量从 v1 的 1098 个减少到 701 个,降幅达 36.2%。这表明:
- 模型对标准标签的识别能力增强
- 生成非标准标签的倾向性降低
- 输出的规范性得到改善
## 技术改进
### v5 版本的主要优化:
1. **标签生成策略优化**
- 减少了生成无关标签的概率
- 提高了对标准标签集的遵循度
2. **平衡性改进**
- 在保持较高精确率的同时,适度牺牲召回率
- 更适合需要高准确性的实际应用场景
3. **鲁棒性增强**
- 减少了对噪声和边缘案例的过度响应
- 输出更加稳定和可预测
## 使用建议
1. **适用场景**:
- 新闻文本的多标签分类
- 金融文档的主题识别
- 需要高精确率的文本分类任务
2. **注意事项**:
- 模型倾向于保守预测,可能会遗漏一些相关标签
- 对于某些小样本类别(如 cpu、dfl 等),性能仍需改进
3. **后处理建议**:
- 可以设置置信度阈值来进一步提高精确率
- 对于关键应用,建议结合人工审核
## 总结
v5 版本通过优化训练策略和调整模型参数,在保持合理召回率的同时显著提升了精确率,减少了 Hamming Loss,整体性能更加均衡。特别是在减少错误标签生成方面取得了显著进展,使模型输出更加规范和可靠。这使得 v5 版本更适合实际生产环境中的部署和应用。
|
Jiahao004/agentllm-qwen3-8B
|
Jiahao004
| 2025-06-18T12:44:07Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"qwen3",
"text-generation",
"generated_from_trainer",
"sft",
"trl",
"conversational",
"base_model:Qwen/Qwen3-8B",
"base_model:finetune:Qwen/Qwen3-8B",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] |
text-generation
| 2025-06-18T12:32:26Z |
---
base_model: Qwen/Qwen3-8B
library_name: transformers
model_name: Qwen3-8B-8GPUs-1Nodes-16384Tokens-1BS-1GA-2e-5LR-3Epochs
tags:
- generated_from_trainer
- sft
- trl
licence: license
---
# Model Card for Qwen3-8B-8GPUs-1Nodes-16384Tokens-1BS-1GA-2e-5LR-3Epochs
This model is a fine-tuned version of [Qwen/Qwen3-8B](https://huggingface.co/Qwen/Qwen3-8B).
It has been trained using [TRL](https://github.com/huggingface/trl).
## Quick start
```python
from transformers import pipeline
question = "If you had a time machine, but could only go to the past or the future once and never return, which would you choose and why?"
generator = pipeline("text-generation", model="None", device="cuda")
output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0]
print(output["generated_text"])
```
## Training procedure
[<img src="https://raw.githubusercontent.com/wandb/assets/main/wandb-github-badge-28.svg" alt="Visualize in Weights & Biases" width="150" height="24"/>](https://wandb.ai/jiahao004/huggingface/runs/kzc02c5q)
This model was trained with SFT.
### Framework versions
- TRL: 0.19.0.dev0
- Transformers: 4.52.4
- Pytorch: 2.6.0
- Datasets: 3.6.0
- Tokenizers: 0.21.1
## Citations
Cite TRL as:
```bibtex
@misc{vonwerra2022trl,
title = {{TRL: Transformer Reinforcement Learning}},
author = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul and Quentin Gallou{\'e}dec},
year = 2020,
journal = {GitHub repository},
publisher = {GitHub},
howpublished = {\url{https://github.com/huggingface/trl}}
}
```
|
NanEi/llama-3.2-3b-it-Burmese-NE-ChatBot
|
NanEi
| 2025-06-18T12:41:31Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"arxiv:1910.09700",
"endpoints_compatible",
"region:us"
] | null | 2025-06-18T12:40:42Z |
---
library_name: transformers
tags: []
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed]
|
sgonzalezygil/sd-finetuning-dreambooth-v9-1000
|
sgonzalezygil
| 2025-06-18T12:39:39Z | 0 | 0 |
diffusers
|
[
"diffusers",
"safetensors",
"arxiv:1910.09700",
"autotrain_compatible",
"endpoints_compatible",
"diffusers:StableDiffusionPipeline",
"region:us"
] |
text-to-image
| 2025-06-18T12:38:09Z |
---
library_name: diffusers
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a 🧨 diffusers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed]
|
z-dickson/xlm-roberta-large-multilingual-political-issues
|
z-dickson
| 2025-06-18T12:32:54Z | 96 | 0 | null |
[
"safetensors",
"xlm-roberta",
"politics",
"social",
"CAP",
"Comparative agendas project",
"CSS",
"issues",
"agenda",
"press",
"license:apache-2.0",
"region:us"
] | null | 2025-04-08T09:30:22Z |
---
license: apache-2.0
tags:
- politics
- social
- CAP
- Comparative agendas project
- CSS
- issues
- agenda
- press
---
# Multilingual Political Issue Classifier
This model classifies political party press releases according to the primary issue they address. The classification scheme is very similar to the Comparative Agendas Project (see: [https://www.comparativeagendas.net/](https://www.comparativeagendas.net/)), with the exception that the 'environmental' category includes climate change policies. The model was fine tuned using a training dataset of 15k press releases that were labelled using zero-shot classification with GPT-4. The issue scheme is as follows:
**CATEGORY SUMMARIES**
1. **Macroeconomics**
Covers broad economic policy topics like interest rates, inflation, unemployment, taxes, budgets, monetary and industrial policy. Also includes wage/price control and other macroeconomic matters.
2. **Civil Rights**
Focuses on discrimination (racial, gender, age, disability), voting rights, freedom of speech, privacy, and minority protections. Also includes anti-government groups and other civil rights topics.
3. **Health**
Encompasses healthcare reform, insurance, medical facilities and liability, workforce, and public health efforts. Covers topics from mental health and child health to drug abuse, R&D, and disease prevention.
4. **Agriculture**
Addresses farm subsidies, food safety, marketing, animal/crop disease, fisheries, and agricultural R&D. Also includes general agriculture policy and rural development.
5. **Labor**
Covers job safety, training, benefits, labor standards, unions, and youth/migrant employment. Also includes pensions and employment policies.
6. **Education**
Includes all education levels from early childhood to higher education, as well as special education, vocational training, and education quality initiatives. Also includes R&D and underserved student support.
7. **Environment and climate change**
Deals with water and air pollution, waste disposal, hazardous materials, conservation, endangered species, and indoor/outdoor environmental safety. Includes recycling, R&D, and land preservation.
8. **Energy**
Focuses on energy sources like nuclear, coal, oil, renewables, and electricity. Includes energy efficiency, conservation, and related R&D.
9. **Immigration**
Covers immigration laws, refugee policy, and citizenship issues.
10. **Transportation**
Addresses infrastructure, public transit, highways, air and rail travel, maritime transport, and transportation R&D.
12. **Law and Crime**
Includes crime control, enforcement, courts, prisons, drug crime, family law, juvenile justice, and terrorism. Also covers agencies, white-collar crime, and child abuse.
13. **Social Welfare**
Focuses on programs for low-income families, elderly and disabled assistance, child care, and volunteer organizations. Encompasses general welfare policies.
14. **Housing**
Covers public housing, community and rural development, housing for veterans, elderly, and the homeless. Includes affordability and urban planning.
15. **Domestic Commerce**
Includes banking, finance, small business, consumer protection, corporate governance, and commerce-related R&D. Also covers insurance, tourism, and bankruptcy.
16. **Defense**
Encompasses military policy, readiness, procurement, personnel, nuclear arms, foreign operations, and civil defense. Covers contractors, intelligence, and environmental compliance.
17. **Technology**
Covers space exploration, telecommunications, computing, broadcasting, and cybersecurity. Also includes scientific research, tech development, and commercial use of space.
18. **Foreign Trade**
Deals with trade agreements, tariffs, exports/imports, competitiveness, and exchange rates. Also includes international business and investment policy.
19. **International Affairs**
Includes diplomacy, foreign aid, developing countries, human rights, global organizations, and international finance. Also covers terrorism, embassies, and treaties.
20. **Government Operations**
Addresses bureaucracy, procurement, civil service, campaigns, tax enforcement, and census data. Also includes scandals, national holidays, and intergovernmental relations.
21. **Public Lands**
Covers parks, indigenous issues, forest and land management, water resources, and U.S. territories. Focuses on conservation and federal land use.
23. **Culture**
Encompasses general cultural policies, likely including funding, preservation, and promotion of cultural initiatives.
# Countries/languages included in fine-tuning
The countries included are: Poland, Germany, Ireland, Netherlands, Slovenia, Denmark, Hungary, Austria, Sweden, Bulgaria, Spain, Croatia, Finland, United Kingdom, Greece, Switzerland, Estonia, France, Portugal, Cyprus, Slovakia, Italy, Czech Republic, and Belgium.
## Accuracy
The model achieves a weighted F1 score of 0.86.
```{python}
from transformers import AutoModelForSequenceClassification
from transformers import TextClassificationPipeline, AutoTokenizer
mp = 'z-dickson/xlm-roberta-large-multilingual-political-issues'
model = AutoModelForSequenceClassification.from_pretrained(mp)
tokenizer = AutoTokenizer.from_pretrained(mp)
classifier = TextClassificationPipeline(tokenizer=tokenizer, model=model, device=0)
classifier("""
To ask the Secretary of State for Energy and Climate \\
Change what estimate he has made of the proportion of carbon \\
dioxide emissions arising in the UK attributable to burning.
"""
)
```
## Citation
The data collection efforts of the press releases were originally from the following work. The two lead authors created the model in additional collaboration.
```{bash}
@article{dickson2024going,
title={Going against the grain: Climate change as a wedge issue for the radical right},
author={Dickson, Zachary P and Hobolt, Sara B},
journal={Comparative Political Studies},
pages={00104140241271297},
year={2024},
publisher={SAGE Publications Sage CA: Los Angeles, CA}
}
```
and
```{bash}
@article{erfort2023partypress,
title={The PARTYPRESS Database: A new comparative database of parties’ press releases},
author={Erfort, Cornelius and Stoetzer, Lukas F and Kl{\"u}ver, Heike},
journal={Research \& Politics},
volume={10},
number={3},
pages={20531680231183512},
year={2023},
publisher={SAGE Publications Sage UK: London, England}
}
```
|
morturr/Llama-2-7b-hf-LOO_one_liners-COMB_dadjokes-comb2-seed7-2025-06-18
|
morturr
| 2025-06-18T12:31:20Z | 0 | 0 |
peft
|
[
"peft",
"safetensors",
"trl",
"sft",
"generated_from_trainer",
"base_model:meta-llama/Llama-2-7b-hf",
"base_model:adapter:meta-llama/Llama-2-7b-hf",
"license:llama2",
"region:us"
] | null | 2025-06-18T12:31:12Z |
---
library_name: peft
license: llama2
base_model: meta-llama/Llama-2-7b-hf
tags:
- trl
- sft
- generated_from_trainer
model-index:
- name: Llama-2-7b-hf-LOO_one_liners-COMB_dadjokes-comb2-seed7-2025-06-18
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# Llama-2-7b-hf-LOO_one_liners-COMB_dadjokes-comb2-seed7-2025-06-18
This model is a fine-tuned version of [meta-llama/Llama-2-7b-hf](https://huggingface.co/meta-llama/Llama-2-7b-hf) on the None dataset.
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0003
- train_batch_size: 16
- eval_batch_size: 16
- seed: 7
- gradient_accumulation_steps: 4
- total_train_batch_size: 64
- optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: linear
- num_epochs: 2
### Training results
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.1
- Pytorch 2.5.1+cu124
- Datasets 3.0.2
- Tokenizers 0.20.1
|
lvu5/lunar_lander
|
lvu5
| 2025-06-18T12:28:44Z | 2 | 0 |
stable-baselines3
|
[
"stable-baselines3",
"LunarLander-v2",
"deep-reinforcement-learning",
"reinforcement-learning",
"model-index",
"region:us"
] |
reinforcement-learning
| 2024-10-31T11:11:08Z |
---
library_name: stable-baselines3
tags:
- LunarLander-v2
- deep-reinforcement-learning
- reinforcement-learning
- stable-baselines3
model-index:
- name: PPO
results:
- task:
type: reinforcement-learning
name: reinforcement-learning
dataset:
name: LunarLander-v2
type: LunarLander-v2
metrics:
- type: mean_reward
value: 278.53 +/- 15.15
name: mean_reward
verified: false
---
# **PPO** Agent playing **LunarLander-v2**
This is a trained model of a **PPO** agent playing **LunarLander-v2**
using the [stable-baselines3 library](https://github.com/DLR-RM/stable-baselines3).
## Usage (with Stable-baselines3)
TODO: Add your code
```python
from stable_baselines3 import ...
from huggingface_sb3 import load_from_hub
...
```
|
Nap/Qwen2VL-Flux-ControlNet
|
Nap
| 2025-06-18T12:23:18Z | 0 | 0 | null |
[
"license:other",
"region:us"
] | null | 2025-06-16T23:03:35Z |
---
license: other
license_name: flux-1-dev-non-commercial-license
license_link: https://huggingface.co/black-forest-labs/FLUX.1-dev/blob/main/LICENSE.md
---
|
mednikov/RL_Lesson_1
|
mednikov
| 2025-06-18T12:23:06Z | 0 | 0 | null |
[
"Taxi-v3",
"q-learning",
"reinforcement-learning",
"custom-implementation",
"model-index",
"region:us"
] |
reinforcement-learning
| 2025-06-18T12:22:57Z |
---
tags:
- Taxi-v3
- q-learning
- reinforcement-learning
- custom-implementation
model-index:
- name: RL_Lesson_1
results:
- task:
type: reinforcement-learning
name: reinforcement-learning
dataset:
name: Taxi-v3
type: Taxi-v3
metrics:
- type: mean_reward
value: 7.52 +/- 2.76
name: mean_reward
verified: false
---
# **Q-Learning** Agent playing1 **Taxi-v3**
This is a trained model of a **Q-Learning** agent playing **Taxi-v3** .
## Usage
```python
model = load_from_hub(repo_id="mednikov/RL_Lesson_1", filename="q-learning.pkl")
# Don't forget to check if you need to add additional attributes (is_slippery=False etc)
env = gym.make(model["env_id"])
```
|
souvickdascmsa019/initial-colbert
|
souvickdascmsa019
| 2025-06-18T12:20:32Z | 0 | 0 |
PyLate
|
[
"PyLate",
"safetensors",
"bert",
"ColBERT",
"sentence-transformers",
"sentence-similarity",
"feature-extraction",
"generated_from_trainer",
"dataset_size:497901",
"loss:Contrastive",
"en",
"dataset:sentence-transformers/msmarco-bm25",
"arxiv:1908.10084",
"base_model:colbert-ir/colbertv2.0",
"base_model:finetune:colbert-ir/colbertv2.0",
"text-embeddings-inference",
"endpoints_compatible",
"region:us"
] |
sentence-similarity
| 2025-06-18T12:14:45Z |
---
language:
- en
tags:
- ColBERT
- PyLate
- sentence-transformers
- sentence-similarity
- feature-extraction
- generated_from_trainer
- dataset_size:497901
- loss:Contrastive
base_model: colbert-ir/colbertv2.0
datasets:
- sentence-transformers/msmarco-bm25
pipeline_tag: sentence-similarity
library_name: PyLate
---
# PyLate model based on colbert-ir/colbertv2.0
This is a [PyLate](https://github.com/lightonai/pylate) model finetuned from [colbert-ir/colbertv2.0](https://huggingface.co/colbert-ir/colbertv2.0) on the [msmarco-bm25](https://huggingface.co/datasets/sentence-transformers/msmarco-bm25) dataset. It maps sentences & paragraphs to sequences of 128-dimensional dense vectors and can be used for semantic textual similarity using the MaxSim operator.
## Model Details
### Model Description
- **Model Type:** PyLate model
- **Base model:** [colbert-ir/colbertv2.0](https://huggingface.co/colbert-ir/colbertv2.0) <!-- at revision c1e84128e85ef755c096a95bdb06b47793b13acf -->
- **Document Length:** 180 tokens
- **Query Length:** 32 tokens
- **Output Dimensionality:** 128 tokens
- **Similarity Function:** MaxSim
- **Training Dataset:**
- [msmarco-bm25](https://huggingface.co/datasets/sentence-transformers/msmarco-bm25)
- **Language:** en
<!-- - **License:** Unknown -->
### Model Sources
- **Documentation:** [PyLate Documentation](https://lightonai.github.io/pylate/)
- **Repository:** [PyLate on GitHub](https://github.com/lightonai/pylate)
- **Hugging Face:** [PyLate models on Hugging Face](https://huggingface.co/models?library=PyLate)
### Full Model Architecture
```
ColBERT(
(0): Transformer({'max_seq_length': 179, 'do_lower_case': False}) with Transformer model: BertModel
(1): Dense({'in_features': 768, 'out_features': 128, 'bias': False, 'activation_function': 'torch.nn.modules.linear.Identity'})
)
```
## Usage
First install the PyLate library:
```bash
pip install -U pylate
```
### Retrieval
PyLate provides a streamlined interface to index and retrieve documents using ColBERT models. The index leverages the Voyager HNSW index to efficiently handle document embeddings and enable fast retrieval.
#### Indexing documents
First, load the ColBERT model and initialize the Voyager index, then encode and index your documents:
```python
from pylate import indexes, models, retrieve
# Step 1: Load the ColBERT model
model = models.ColBERT(
model_name_or_path=pylate_model_id,
)
# Step 2: Initialize the Voyager index
index = indexes.Voyager(
index_folder="pylate-index",
index_name="index",
override=True, # This overwrites the existing index if any
)
# Step 3: Encode the documents
documents_ids = ["1", "2", "3"]
documents = ["document 1 text", "document 2 text", "document 3 text"]
documents_embeddings = model.encode(
documents,
batch_size=32,
is_query=False, # Ensure that it is set to False to indicate that these are documents, not queries
show_progress_bar=True,
)
# Step 4: Add document embeddings to the index by providing embeddings and corresponding ids
index.add_documents(
documents_ids=documents_ids,
documents_embeddings=documents_embeddings,
)
```
Note that you do not have to recreate the index and encode the documents every time. Once you have created an index and added the documents, you can re-use the index later by loading it:
```python
# To load an index, simply instantiate it with the correct folder/name and without overriding it
index = indexes.Voyager(
index_folder="pylate-index",
index_name="index",
)
```
#### Retrieving top-k documents for queries
Once the documents are indexed, you can retrieve the top-k most relevant documents for a given set of queries.
To do so, initialize the ColBERT retriever with the index you want to search in, encode the queries and then retrieve the top-k documents to get the top matches ids and relevance scores:
```python
# Step 1: Initialize the ColBERT retriever
retriever = retrieve.ColBERT(index=index)
# Step 2: Encode the queries
queries_embeddings = model.encode(
["query for document 3", "query for document 1"],
batch_size=32,
is_query=True, # # Ensure that it is set to False to indicate that these are queries
show_progress_bar=True,
)
# Step 3: Retrieve top-k documents
scores = retriever.retrieve(
queries_embeddings=queries_embeddings,
k=10, # Retrieve the top 10 matches for each query
)
```
### Reranking
If you only want to use the ColBERT model to perform reranking on top of your first-stage retrieval pipeline without building an index, you can simply use rank function and pass the queries and documents to rerank:
```python
from pylate import rank, models
queries = [
"query A",
"query B",
]
documents = [
["document A", "document B"],
["document 1", "document C", "document B"],
]
documents_ids = [
[1, 2],
[1, 3, 2],
]
model = models.ColBERT(
model_name_or_path=pylate_model_id,
)
queries_embeddings = model.encode(
queries,
is_query=True,
)
documents_embeddings = model.encode(
documents,
is_query=False,
)
reranked_documents = rank.rerank(
documents_ids=documents_ids,
queries_embeddings=queries_embeddings,
documents_embeddings=documents_embeddings,
)
```
<!--
### Direct Usage (Transformers)
<details><summary>Click to see the direct usage in Transformers</summary>
</details>
-->
<!--
### Downstream Usage (Sentence Transformers)
You can finetune this model on your own dataset.
<details><summary>Click to expand</summary>
</details>
-->
<!--
### Out-of-Scope Use
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
-->
<!--
## Bias, Risks and Limitations
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
-->
<!--
### Recommendations
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
-->
## Training Details
### Training Dataset
#### msmarco-bm25
* Dataset: [msmarco-bm25](https://huggingface.co/datasets/sentence-transformers/msmarco-bm25) at [ce8a493](https://huggingface.co/datasets/sentence-transformers/msmarco-bm25/tree/ce8a493a65af5e872c3c92f72a89e2e99e175f02)
* Size: 497,901 training samples
* Columns: <code>query</code>, <code>positive</code>, and <code>negative</code>
* Approximate statistics based on the first 1000 samples:
| | query | positive | negative |
|:--------|:----------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------|
| type | string | string | string |
| details | <ul><li>min: 5 tokens</li><li>mean: 10.14 tokens</li><li>max: 20 tokens</li></ul> | <ul><li>min: 17 tokens</li><li>mean: 31.91 tokens</li><li>max: 32 tokens</li></ul> | <ul><li>min: 17 tokens</li><li>mean: 31.84 tokens</li><li>max: 32 tokens</li></ul> |
* Samples:
| query | positive | negative |
|:---------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| <code>what is null hypothesis and why is it used in experimental research</code> | <code>A null hypothesis is one that is assumed to be true unless it has been contradicted. It is used to compare to another hypothesis. The experimental hypothesis is what you are observing, and you expect it to differ from the control. erm i know that a null hypothesis is when nothing happens at all i think.</code> | <code>A null hypothesis is one that is assumed to be true unless it has been contradicted. It is used to compare to another hypothesis. The experimental hypothesis is what you are observing, and you expect it to differ from the control. erm i know that a null hypothesis is when nothing happens at all i think.</code> |
| <code>number of students per instructor</code> | <code>The article posited that students preferred classes of 10-20 students, and instructors suggested that the ideal class would have 19 students. Instructors reported that at 39 students problems began to arise, and that a class of 51 students was impossible. They also reported that an uncomfortably small class begins at 7 students, and an impossibly small class has 4 or less.</code> | <code>The ratio of instructors to students isnât as important here as in the lab setting. One to two instructors per 10 students will suffice. Once the students are divided into groups, the instructor should begin to methodically teach ECG interpretation. The instructor should start with waveform definition and recognition.</code> |
| <code>when should exclamation marks be used?</code> | <code>The exclamation mark (British English) or exclamation point (American English) is a punctuation mark usually used after an interjection or exclamation to indicate strong feelings or high volume (shouting), and often marks the end of a sentence.</code> | <code>1 Question marks and exclamation marks go inside the quotation marks when the quoted material is a question or an exclamation and outside the quotation marks when the whole sentence is a question or an exclamation. Question marks and exclamation marks go inside the quotation marks when the quoted material is a question or an exclamation and outside the quotation marks when the whole sentence is a question or an exclamation.</code> |
* Loss: <code>pylate.losses.contrastive.Contrastive</code>
### Evaluation Dataset
#### msmarco-bm25
* Dataset: [msmarco-bm25](https://huggingface.co/datasets/sentence-transformers/msmarco-bm25) at [ce8a493](https://huggingface.co/datasets/sentence-transformers/msmarco-bm25/tree/ce8a493a65af5e872c3c92f72a89e2e99e175f02)
* Size: 5,030 evaluation samples
* Columns: <code>query</code>, <code>positive</code>, and <code>negative</code>
* Approximate statistics based on the first 1000 samples:
| | query | positive | negative |
|:--------|:----------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------|
| type | string | string | string |
| details | <ul><li>min: 5 tokens</li><li>mean: 10.17 tokens</li><li>max: 32 tokens</li></ul> | <ul><li>min: 20 tokens</li><li>mean: 31.92 tokens</li><li>max: 32 tokens</li></ul> | <ul><li>min: 16 tokens</li><li>mean: 31.93 tokens</li><li>max: 32 tokens</li></ul> |
* Samples:
| query | positive | negative |
|:---------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| <code>what is a hypermarket</code> | <code>By definition a hypermarket is the combination of a supermarket and a department store which has at least 150,000 square feet of floor space, and at least 35% of that space is used for the sale of nonfood merchandise. Generally the terms hypermarket, and superstore are used interchangeably.</code> | <code>hypermarket meaning, definition, what is hypermarket: a very large shop, usually outside the centre of town. Learn more.</code> |
| <code>what is fd&c yellow #6 lake.</code> | <code>FD&C Yellow No. 6 Lake is a color additive used for drug dosage forms such as tablets and capsules. It is also approved for use in foods and cosmetics. FD&C Yellow No. 6 Lake imparts a reddish-yellow color to medicinal dosage forms. FDA performs regulatory review for color additives used in foods, drugs, cosmetics, and medical devices. FD&C specifies the color is approved for use in food, drugs and cosmetics. FD&C Yellow No. 6 Lake may be safely used as a color additive when following FDA specifications. To form lake colors, straight dyes (such as FD&C Yellow No. 6) are mixed with precipitants and salts. Aluminum may be a component. Lakes may be used as color additives for tablet coatings due to their stability.</code> | <code>Coumadin: 6 mg [scored; contains fd&c blue #1 aluminum lake, fd&c yellow #6 aluminum lake] Coumadin: 7.5 mg [scored; contains fd&c yellow #10 aluminum lake, fd&c yellow #6 aluminum lake] Coumadin: 10 mg [scored; dye free] Jantoven: 1 mg [scored; contains fd&c red #40 aluminum lake]</code> |
| <code>how long can ringworm live on clothes</code> | <code>-Sometimes the ringworm on the scalp can causes patches of hair loss. Ringworm in dogs can be spread many of the same ways. Even sharing clothes, towels, or combs may result in spreading the infection. Ringworm is caused by different kinds of fungus on the skin, hair, or nails caused by an infection.he fungus that causes ringworm can typically live up to 7 days on surfaces such as counter tops, carpets, and floors, but it has been reported that some types can live up to one year.</code> | <code>What Causes Ringworm? Ringworm is more common in unsanitary and crowded places. That's because it can live on both skin and surfaces like shower floors, and can be transferred by sharing clothes, sheets, and towels. Even other mammals, including cats and dogs, can easily transfer ringworm to humans. What Are the Types of Ringworm?</code> |
* Loss: <code>pylate.losses.contrastive.Contrastive</code>
### Training Hyperparameters
#### Non-Default Hyperparameters
- `per_device_train_batch_size`: 32
- `per_device_eval_batch_size`: 32
- `learning_rate`: 3e-06
- `num_train_epochs`: 1
- `fp16`: True
#### All Hyperparameters
<details><summary>Click to expand</summary>
- `overwrite_output_dir`: False
- `do_predict`: False
- `eval_strategy`: no
- `prediction_loss_only`: True
- `per_device_train_batch_size`: 32
- `per_device_eval_batch_size`: 32
- `per_gpu_train_batch_size`: None
- `per_gpu_eval_batch_size`: None
- `gradient_accumulation_steps`: 1
- `eval_accumulation_steps`: None
- `torch_empty_cache_steps`: None
- `learning_rate`: 3e-06
- `weight_decay`: 0.0
- `adam_beta1`: 0.9
- `adam_beta2`: 0.999
- `adam_epsilon`: 1e-08
- `max_grad_norm`: 1.0
- `num_train_epochs`: 1
- `max_steps`: -1
- `lr_scheduler_type`: linear
- `lr_scheduler_kwargs`: {}
- `warmup_ratio`: 0.0
- `warmup_steps`: 0
- `log_level`: passive
- `log_level_replica`: warning
- `log_on_each_node`: True
- `logging_nan_inf_filter`: True
- `save_safetensors`: True
- `save_on_each_node`: False
- `save_only_model`: False
- `restore_callback_states_from_checkpoint`: False
- `no_cuda`: False
- `use_cpu`: False
- `use_mps_device`: False
- `seed`: 42
- `data_seed`: None
- `jit_mode_eval`: False
- `use_ipex`: False
- `bf16`: False
- `fp16`: True
- `fp16_opt_level`: O1
- `half_precision_backend`: auto
- `bf16_full_eval`: False
- `fp16_full_eval`: False
- `tf32`: None
- `local_rank`: 0
- `ddp_backend`: None
- `tpu_num_cores`: None
- `tpu_metrics_debug`: False
- `debug`: []
- `dataloader_drop_last`: False
- `dataloader_num_workers`: 0
- `dataloader_prefetch_factor`: None
- `past_index`: -1
- `disable_tqdm`: False
- `remove_unused_columns`: True
- `label_names`: None
- `load_best_model_at_end`: False
- `ignore_data_skip`: False
- `fsdp`: []
- `fsdp_min_num_params`: 0
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
- `fsdp_transformer_layer_cls_to_wrap`: None
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
- `deepspeed`: None
- `label_smoothing_factor`: 0.0
- `optim`: adamw_torch
- `optim_args`: None
- `adafactor`: False
- `group_by_length`: False
- `length_column_name`: length
- `ddp_find_unused_parameters`: None
- `ddp_bucket_cap_mb`: None
- `ddp_broadcast_buffers`: False
- `dataloader_pin_memory`: True
- `dataloader_persistent_workers`: False
- `skip_memory_metrics`: True
- `use_legacy_prediction_loop`: False
- `push_to_hub`: False
- `resume_from_checkpoint`: None
- `hub_model_id`: None
- `hub_strategy`: every_save
- `hub_private_repo`: None
- `hub_always_push`: False
- `gradient_checkpointing`: False
- `gradient_checkpointing_kwargs`: None
- `include_inputs_for_metrics`: False
- `include_for_metrics`: []
- `eval_do_concat_batches`: True
- `fp16_backend`: auto
- `push_to_hub_model_id`: None
- `push_to_hub_organization`: None
- `mp_parameters`:
- `auto_find_batch_size`: False
- `full_determinism`: False
- `torchdynamo`: None
- `ray_scope`: last
- `ddp_timeout`: 1800
- `torch_compile`: False
- `torch_compile_backend`: None
- `torch_compile_mode`: None
- `dispatch_batches`: None
- `split_batches`: None
- `include_tokens_per_second`: False
- `include_num_input_tokens_seen`: False
- `neftune_noise_alpha`: None
- `optim_target_modules`: None
- `batch_eval_metrics`: False
- `eval_on_start`: False
- `use_liger_kernel`: False
- `eval_use_gather_object`: False
- `average_tokens_across_devices`: False
- `prompts`: None
- `batch_sampler`: batch_sampler
- `multi_dataset_batch_sampler`: proportional
</details>
### Training Logs
| Epoch | Step | Training Loss |
|:------:|:-----:|:-------------:|
| 0.0321 | 500 | 0.4976 |
| 0.0643 | 1000 | 0.3532 |
| 0.0964 | 1500 | 0.3195 |
| 0.1285 | 2000 | 0.3079 |
| 0.1607 | 2500 | 0.3067 |
| 0.1928 | 3000 | 0.2957 |
| 0.2249 | 3500 | 0.3086 |
| 0.2571 | 4000 | 0.2927 |
| 0.2892 | 4500 | 0.2922 |
| 0.3213 | 5000 | 0.2931 |
| 0.3535 | 5500 | 0.2957 |
| 0.3856 | 6000 | 0.2809 |
| 0.4177 | 6500 | 0.2773 |
| 0.4499 | 7000 | 0.2728 |
| 0.4820 | 7500 | 0.2888 |
| 0.5141 | 8000 | 0.2863 |
| 0.5463 | 8500 | 0.2813 |
| 0.5784 | 9000 | 0.2695 |
| 0.6105 | 9500 | 0.2834 |
| 0.6427 | 10000 | 0.2739 |
| 0.6748 | 10500 | 0.2744 |
| 0.7069 | 11000 | 0.2849 |
| 0.7391 | 11500 | 0.2808 |
| 0.7712 | 12000 | 0.2796 |
| 0.8033 | 12500 | 0.2772 |
| 0.8355 | 13000 | 0.2813 |
| 0.8676 | 13500 | 0.2756 |
| 0.8997 | 14000 | 0.2771 |
| 0.9319 | 14500 | 0.283 |
| 0.9640 | 15000 | 0.2731 |
| 0.9961 | 15500 | 0.2865 |
### Framework Versions
- Python: 3.12.4
- Sentence Transformers: 4.0.2
- PyLate: 1.2.0
- Transformers: 4.48.2
- PyTorch: 2.6.0+cu124
- Accelerate: 1.7.0
- Datasets: 3.6.0
- Tokenizers: 0.21.1
## Citation
### BibTeX
#### Sentence Transformers
```bibtex
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084"
}
```
#### PyLate
```bibtex
@misc{PyLate,
title={PyLate: Flexible Training and Retrieval for Late Interaction Models},
author={Chaffin, Antoine and Sourty, Raphaël},
url={https://github.com/lightonai/pylate},
year={2024}
}
```
<!--
## Glossary
*Clearly define terms in order to be accessible across audiences.*
-->
<!--
## Model Card Authors
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
-->
<!--
## Model Card Contact
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
-->
|
FormlessAI/575211aa-41cc-4923-9418-c540d7516b0d
|
FormlessAI
| 2025-06-18T12:20:22Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"generated_from_trainer",
"trl",
"grpo",
"unsloth",
"arxiv:2402.03300",
"base_model:unsloth/Phi-3-mini-4k-instruct",
"base_model:finetune:unsloth/Phi-3-mini-4k-instruct",
"endpoints_compatible",
"region:us"
] | null | 2025-06-18T12:16:48Z |
---
base_model: unsloth/Phi-3-mini-4k-instruct
library_name: transformers
model_name: 575211aa-41cc-4923-9418-c540d7516b0d
tags:
- generated_from_trainer
- trl
- grpo
- unsloth
licence: license
---
# Model Card for 575211aa-41cc-4923-9418-c540d7516b0d
This model is a fine-tuned version of [unsloth/Phi-3-mini-4k-instruct](https://huggingface.co/unsloth/Phi-3-mini-4k-instruct).
It has been trained using [TRL](https://github.com/huggingface/trl).
## Quick start
```python
from transformers import pipeline
question = "If you had a time machine, but could only go to the past or the future once and never return, which would you choose and why?"
generator = pipeline("text-generation", model="FormlessAI/575211aa-41cc-4923-9418-c540d7516b0d", device="cuda")
output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0]
print(output["generated_text"])
```
## Training procedure
[<img src="https://raw.githubusercontent.com/wandb/assets/main/wandb-github-badge-28.svg" alt="Visualize in Weights & Biases" width="150" height="24"/>](https://wandb.ai/phoenix-formless/Gradients/runs/oczxcl2c)
This model was trained with GRPO, a method introduced in [DeepSeekMath: Pushing the Limits of Mathematical Reasoning in Open Language Models](https://huggingface.co/papers/2402.03300).
### Framework versions
- TRL: 0.18.1
- Transformers: 4.52.4
- Pytorch: 2.7.0+cu128
- Datasets: 3.6.0
- Tokenizers: 0.21.1
## Citations
Cite GRPO as:
```bibtex
@article{zhihong2024deepseekmath,
title = {{DeepSeekMath: Pushing the Limits of Mathematical Reasoning in Open Language Models}},
author = {Zhihong Shao and Peiyi Wang and Qihao Zhu and Runxin Xu and Junxiao Song and Mingchuan Zhang and Y. K. Li and Y. Wu and Daya Guo},
year = 2024,
eprint = {arXiv:2402.03300},
}
```
Cite TRL as:
```bibtex
@misc{vonwerra2022trl,
title = {{TRL: Transformer Reinforcement Learning}},
author = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul and Quentin Gallou{\'e}dec},
year = 2020,
journal = {GitHub repository},
publisher = {GitHub},
howpublished = {\url{https://github.com/huggingface/trl}}
}
```
|
SaraHe/aya_compress_Q1_Q4_16_MLPx_DoRA_RStable_layers
|
SaraHe
| 2025-06-18T12:05:14Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"generated_from_trainer",
"trl",
"sft",
"base_model:CohereLabs/aya-expanse-8b",
"base_model:finetune:CohereLabs/aya-expanse-8b",
"endpoints_compatible",
"region:us"
] | null | 2025-06-18T12:04:42Z |
---
base_model: CohereForAI/aya-expanse-8b
library_name: transformers
model_name: aya_compress_Q1_Q4_16_MLPx_DoRA_RStable_layers
tags:
- generated_from_trainer
- trl
- sft
licence: license
---
# Model Card for aya_compress_Q1_Q4_16_MLPx_DoRA_RStable_layers
This model is a fine-tuned version of [CohereForAI/aya-expanse-8b](https://huggingface.co/CohereForAI/aya-expanse-8b).
It has been trained using [TRL](https://github.com/huggingface/trl).
## Quick start
```python
from transformers import pipeline
question = "If you had a time machine, but could only go to the past or the future once and never return, which would you choose and why?"
generator = pipeline("text-generation", model="SaraHe/aya_compress_Q1_Q4_16_MLPx_DoRA_RStable_layers", device="cuda")
output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0]
print(output["generated_text"])
```
## Training procedure
This model was trained with SFT.
### Framework versions
- TRL: 0.18.2
- Transformers: 4.52.4
- Pytorch: 2.6.0+cu124
- Datasets: 3.6.0
- Tokenizers: 0.21.1
## Citations
Cite TRL as:
```bibtex
@misc{vonwerra2022trl,
title = {{TRL: Transformer Reinforcement Learning}},
author = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul and Quentin Gallou{\'e}dec},
year = 2020,
journal = {GitHub repository},
publisher = {GitHub},
howpublished = {\url{https://github.com/huggingface/trl}}
}
```
|
newtts2017/fspvi5k5
|
newtts2017
| 2025-06-18T12:04:02Z | 0 | 0 |
diffusers
|
[
"diffusers",
"flux",
"lora",
"replicate",
"text-to-image",
"en",
"base_model:black-forest-labs/FLUX.1-dev",
"base_model:adapter:black-forest-labs/FLUX.1-dev",
"license:other",
"region:us"
] |
text-to-image
| 2025-06-18T11:51:59Z |
---
license: other
license_name: flux-1-dev-non-commercial-license
license_link: https://huggingface.co/black-forest-labs/FLUX.1-dev/blob/main/LICENSE.md
language:
- en
tags:
- flux
- diffusers
- lora
- replicate
base_model: "black-forest-labs/FLUX.1-dev"
pipeline_tag: text-to-image
# widget:
# - text: >-
# prompt
# output:
# url: https://...
instance_prompt: fspvi5k5
---
# Fspvi5K5
<Gallery />
## About this LoRA
This is a [LoRA](https://replicate.com/docs/guides/working-with-loras) for the FLUX.1-dev text-to-image model. It can be used with diffusers or ComfyUI.
It was trained on [Replicate](https://replicate.com/) using AI toolkit: https://replicate.com/ostris/flux-dev-lora-trainer/train
## Trigger words
You should use `fspvi5k5` to trigger the image generation.
## Run this LoRA with an API using Replicate
```py
import replicate
input = {
"prompt": "fspvi5k5",
"lora_weights": "https://huggingface.co/newtts2017/fspvi5k5/resolve/main/lora.safetensors"
}
output = replicate.run(
"black-forest-labs/flux-dev-lora",
input=input
)
for index, item in enumerate(output):
with open(f"output_{index}.webp", "wb") as file:
file.write(item.read())
```
## Use it with the [🧨 diffusers library](https://github.com/huggingface/diffusers)
```py
from diffusers import AutoPipelineForText2Image
import torch
pipeline = AutoPipelineForText2Image.from_pretrained('black-forest-labs/FLUX.1-dev', torch_dtype=torch.float16).to('cuda')
pipeline.load_lora_weights('newtts2017/fspvi5k5', weight_name='lora.safetensors')
image = pipeline('fspvi5k5').images[0]
```
For more details, including weighting, merging and fusing LoRAs, check the [documentation on loading LoRAs in diffusers](https://huggingface.co/docs/diffusers/main/en/using-diffusers/loading_adapters)
## Training details
- Steps: 1000
- Learning rate: 0.0004
- LoRA rank: 16
## Contribute your own examples
You can use the [community tab](https://huggingface.co/newtts2017/fspvi5k5/discussions) to add images that show off what you’ve made with this LoRA.
|
Velkey-J/bert-finetuned-ner-lowercase
|
Velkey-J
| 2025-06-18T11:59:34Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"bert",
"token-classification",
"generated_from_trainer",
"dataset:conll2003",
"base_model:google-bert/bert-base-cased",
"base_model:finetune:google-bert/bert-base-cased",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] |
token-classification
| 2025-06-18T11:56:22Z |
---
library_name: transformers
license: apache-2.0
base_model: bert-base-cased
tags:
- generated_from_trainer
datasets:
- conll2003
model-index:
- name: bert-finetuned-ner-lowercase
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# bert-finetuned-ner-lowercase
This model is a fine-tuned version of [bert-base-cased](https://huggingface.co/bert-base-cased) on the conll2003 dataset.
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 2e-05
- train_batch_size: 8
- eval_batch_size: 8
- seed: 42
- optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: linear
- num_epochs: 3
### Training results
### Framework versions
- Transformers 4.52.4
- Pytorch 2.7.1+cu126
- Datasets 3.6.0
- Tokenizers 0.21.1
|
lostinjamal/25d9d6cd-d3e9-4e8c-a416-bd15ecad4d20
|
lostinjamal
| 2025-06-18T11:55:21Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"unsloth",
"arxiv:1910.09700",
"endpoints_compatible",
"region:us"
] | null | 2025-06-18T08:30:47Z |
---
library_name: transformers
tags:
- unsloth
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed]
|
Velkey-J/bert-finetuned-ner-combined
|
Velkey-J
| 2025-06-18T11:55:06Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"bert",
"token-classification",
"generated_from_trainer",
"dataset:conll2003",
"base_model:google-bert/bert-base-cased",
"base_model:finetune:google-bert/bert-base-cased",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] |
token-classification
| 2025-06-18T11:48:55Z |
---
library_name: transformers
license: apache-2.0
base_model: bert-base-cased
tags:
- generated_from_trainer
datasets:
- conll2003
model-index:
- name: bert-finetuned-ner-combined
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# bert-finetuned-ner-combined
This model is a fine-tuned version of [bert-base-cased](https://huggingface.co/bert-base-cased) on the conll2003 dataset.
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 2e-05
- train_batch_size: 8
- eval_batch_size: 8
- seed: 42
- optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: linear
- num_epochs: 3
### Training results
### Framework versions
- Transformers 4.52.4
- Pytorch 2.7.1+cu126
- Datasets 3.6.0
- Tokenizers 0.21.1
|
BrunoM42/pi0_aloha_transfer_cube
|
BrunoM42
| 2025-06-18T11:54:04Z | 0 | 0 | null |
[
"safetensors",
"dataset:lerobot/aloha_sim_transfer_cube_scripted",
"base_model:lerobot/pi0",
"base_model:finetune:lerobot/pi0",
"region:us"
] | null | 2025-06-18T09:36:57Z |
---
datasets:
- lerobot/aloha_sim_transfer_cube_scripted
base_model:
- lerobot/pi0
---
LeRobot version of Pi0 fine-tuned for 20k steps on the `lerobot/aloha_sim_transfer_cube_scripted_image` dataset.
Usage:
```python
policy = PI0Policy.from_pretrained("BrunoM42/pi0_aloha_transfer_cube")
action = policy.select_action(batch)
```
Run evaluation:
```python
python lerobot/scripts/eval.py --policy.path=BrunoM42/pi0_aloha_transfer_cube --env.type=aloha --env.task=AlohaTransferCube-v0 --env.episode_length=600 --eval.n_episodes=10 --eval.batch_size=10 --seed=42
```
|
tdooms/svhn-l4
|
tdooms
| 2025-06-18T11:53:05Z | 46 | 0 |
transformers
|
[
"transformers",
"safetensors",
"arxiv:1910.09700",
"endpoints_compatible",
"region:us"
] | null | 2025-05-19T14:10:07Z |
---
library_name: transformers
tags: []
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed]
|
duyntnet/Gemma-3-Glitter-12B-imatrix-GGUF
|
duyntnet
| 2025-06-18T11:42:48Z | 0 | 0 |
transformers
|
[
"transformers",
"gguf",
"imatrix",
"Gemma-3-Glitter-12B",
"text-generation",
"en",
"license:other",
"region:us",
"conversational"
] |
text-generation
| 2025-06-18T10:20:31Z |
---
license: other
language:
- en
pipeline_tag: text-generation
inference: false
tags:
- transformers
- gguf
- imatrix
- Gemma-3-Glitter-12B
---
Quantizations of https://huggingface.co/allura-org/Gemma-3-Glitter-12B
### Open source inference clients/UIs
* [llama.cpp](https://github.com/ggerganov/llama.cpp)
* [KoboldCPP](https://github.com/LostRuins/koboldcpp)
* [text-generation-webui](https://github.com/oobabooga/text-generation-webui)
* [jan](https://github.com/janhq/jan)
### Closed source inference clients/UIs
* [LM Studio](https://lmstudio.ai/)
* [Backyard AI](https://backyard.ai/)
* More will be added...
---
# From original readme
<figure>
<img src="https://huggingface.co/allura-org/Gemma-3-Glitter-12B/resolve/main/ComfyUI_02427_.png" width="600">
</figure>
A creative writing model based on Gemma 3 12B IT.
This is a 50/50 merge of two separate trains:
- [ToastyPigeon/g3-12b-rp-system-v0.1](https://huggingface.co/ToastyPigeon/g3-12b-rp-system-v0.1) - ~13.5M tokens of instruct-based training related to RP (2:1 human to synthetic) and examples using a system prompt.
- [ToastyPigeon/g3-12b-storyteller-v0.2-textonly](https://huggingface.co/ToastyPigeon/g3-12b-storyteller-v0.2-textonly) - ~20M tokens of completion training on long-form creative writing; 1.6M synthetic from R1, the rest human-created
**Update**: Vision has returned to this model, rejoice.
## Instruct Format
Uses Gemma2/3 instruct, but has been trained to recognize an optional system role.
```
<start_of_turn>system
{optional system turn with prompt}<end_of_turn>
<start_of_turn>user
{User messages; can also put sysprompt here to use the built-in g3 training}<end_of_turn>
<start_of_turn>model
{model response}<end_of_turn>
```
|
nntoan209/sn56-63f06057-995a-4693-88ed-1ae3db1f7b98
|
nntoan209
| 2025-06-18T11:40:16Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"generated_from_trainer",
"trl",
"sft",
"unsloth",
"base_model:unsloth/tinyllama-chat",
"base_model:finetune:unsloth/tinyllama-chat",
"endpoints_compatible",
"region:us"
] | null | 2025-06-18T08:05:56Z |
---
base_model: unsloth/tinyllama-chat
library_name: transformers
model_name: sn56-63f06057-995a-4693-88ed-1ae3db1f7b98
tags:
- generated_from_trainer
- trl
- sft
- unsloth
licence: license
---
# Model Card for sn56-63f06057-995a-4693-88ed-1ae3db1f7b98
This model is a fine-tuned version of [unsloth/tinyllama-chat](https://huggingface.co/unsloth/tinyllama-chat).
It has been trained using [TRL](https://github.com/huggingface/trl).
## Quick start
```python
from transformers import pipeline
question = "If you had a time machine, but could only go to the past or the future once and never return, which would you choose and why?"
generator = pipeline("text-generation", model="nntoan209/sn56-63f06057-995a-4693-88ed-1ae3db1f7b98", device="cuda")
output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0]
print(output["generated_text"])
```
## Training procedure
[<img src="https://raw.githubusercontent.com/wandb/assets/main/wandb-github-badge-28.svg" alt="Visualize in Weights & Biases" width="150" height="24"/>](https://wandb.ai/nntoan209/sn56-sft/runs/pnfjye2i)
This model was trained with SFT.
### Framework versions
- TRL: 0.17.0
- Transformers: 4.51.3
- Pytorch: 2.6.0
- Datasets: 3.5.0
- Tokenizers: 0.21.1
## Citations
Cite TRL as:
```bibtex
@misc{vonwerra2022trl,
title = {{TRL: Transformer Reinforcement Learning}},
author = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul and Quentin Gallou{\'e}dec},
year = 2020,
journal = {GitHub repository},
publisher = {GitHub},
howpublished = {\url{https://github.com/huggingface/trl}}
}
```
|
New-Kamal-Kaur-Bhabhi-viral-video/Hot.Kamal.Kaur.Bhabhi.Last.Video.Goes.Viral
|
New-Kamal-Kaur-Bhabhi-viral-video
| 2025-06-18T11:40:04Z | 0 | 0 | null |
[
"region:us"
] | null | 2025-06-18T11:39:44Z |
<a href="https://tinyurl.com/ysxydvww" rel="nofollow" data-target="animated-image.originalLink"><img src="https://static.wixstatic.com/media/b249f9_adac8f70fb3f45b88691696c77de18f3~mv2.gif" alt="WATCH Videos" data-canonical-src="https://i.imgur.com/dJHk4Zq.gif" style="max-width: 100%; display: inline-block;" data-target="animated-image.originalImage"></a>
|
namjeho/klue-roberta-base-klue-sts
|
namjeho
| 2025-06-18T11:38:48Z | 0 | 0 |
sentence-transformers
|
[
"sentence-transformers",
"safetensors",
"roberta",
"sentence-similarity",
"feature-extraction",
"generated_from_trainer",
"dataset_size:10501",
"loss:CosineSimilarityLoss",
"arxiv:1908.10084",
"base_model:klue/roberta-base",
"base_model:finetune:klue/roberta-base",
"model-index",
"autotrain_compatible",
"text-embeddings-inference",
"endpoints_compatible",
"region:us"
] |
sentence-similarity
| 2025-06-18T11:37:54Z |
---
tags:
- sentence-transformers
- sentence-similarity
- feature-extraction
- generated_from_trainer
- dataset_size:10501
- loss:CosineSimilarityLoss
base_model: klue/roberta-base
widget:
- source_sentence: 로마를 관광하기 완벽한 위치에 있습니다.
sentences:
- 로마를 관광하기에 완벽한 위치에 있습니다.
- 꼭 5명 이상의 단체여행을 추천합니다.
- 이와 관련해 정부는 세부방안을 마련 중으로, 임대주택 공급이라는 공공성과 시장성간 합리적인 균형을 추구하는 방향으로 구조를 설계한다.
- source_sentence: 그녀의 설명때문에, 나는 즐거운 암스테르담 여행을 할 수 있었다.
sentences:
- 이번 주말에 더 약속이 많으신가요, 다음 주말에 더 많으신가요?
- 계단을 옮길 필요가 없는 1층은 유럽식 숙박시설에서 큰 장점입니다.
- 그녀의 설명 덕분에 암스테르담으로 즐거운 여행을 할 수 있었습니다.
- source_sentence: 체크인하는 곳이 좀 찾기 어려운 것 빼고는 정말 다 좋음.
sentences:
- 오전과 오후 중에서 회의 하는 시간이 언제이신가요?
- 호스트랑 연락하기 힘든점을 빼고는 최고입니다.
- 욕실도 깨끗하고 따뜻한 물도 잘 나옵니다.
- source_sentence: 부엌에는 전기렌지와 간단한도구가 있었다
sentences:
- 집안에는 충분한 조리도구가 있었습니다.
- 호시우 광장으로 가는 길도 가깝습니다.
- 소상공인 자금공급 확대를 위한 재정보강에도 1조4000억원이 증액됐다.
- source_sentence: 다만 집에서 아쉬운부분은 문소리가 크다는것과 욕실이었어요
sentences:
- 집 바로앞에 맥도날드가 있다는것과 역세권이라는 점이 가장 마음에 들었어요.
- 그곳은 주요 관광지와 가깝고 여주인은 매우 친절합니다.
- 또한 심사·허가단계에선 허가심사 가이드라인 제공과 우선 허가·심사대상 품목 선정으로 80일 → 30일 이내단축시키는 등 K-방역모델 국제표준화로
세계 방역시장을 선도할 계획이다.
pipeline_tag: sentence-similarity
library_name: sentence-transformers
metrics:
- pearson_cosine
- spearman_cosine
model-index:
- name: SentenceTransformer based on klue/roberta-base
results:
- task:
type: semantic-similarity
name: Semantic Similarity
dataset:
name: Unknown
type: unknown
metrics:
- type: pearson_cosine
value: 0.9596777770788405
name: Pearson Cosine
- type: spearman_cosine
value: 0.9201620396565862
name: Spearman Cosine
---
# SentenceTransformer based on klue/roberta-base
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [klue/roberta-base](https://huggingface.co/klue/roberta-base). It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
## Model Details
### Model Description
- **Model Type:** Sentence Transformer
- **Base model:** [klue/roberta-base](https://huggingface.co/klue/roberta-base) <!-- at revision 02f94ba5e3fcb7e2a58a390b8639b0fac974a8da -->
- **Maximum Sequence Length:** 512 tokens
- **Output Dimensionality:** 768 dimensions
- **Similarity Function:** Cosine Similarity
<!-- - **Training Dataset:** Unknown -->
<!-- - **Language:** Unknown -->
<!-- - **License:** Unknown -->
### Model Sources
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
### Full Model Architecture
```
SentenceTransformer(
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: RobertaModel
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)
```
## Usage
### Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
```bash
pip install -U sentence-transformers
```
Then you can load this model and run inference.
```python
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("sentence_transformers_model_id")
# Run inference
sentences = [
'다만 집에서 아쉬운부분은 문소리가 크다는것과 욕실이었어요',
'집 바로앞에 맥도날드가 있다는것과 역세권이라는 점이 가장 마음에 들었어요.',
'그곳은 주요 관광지와 가깝고 여주인은 매우 친절합니다.',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
```
<!--
### Direct Usage (Transformers)
<details><summary>Click to see the direct usage in Transformers</summary>
</details>
-->
<!--
### Downstream Usage (Sentence Transformers)
You can finetune this model on your own dataset.
<details><summary>Click to expand</summary>
</details>
-->
<!--
### Out-of-Scope Use
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
-->
## Evaluation
### Metrics
#### Semantic Similarity
* Evaluated with [<code>EmbeddingSimilarityEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.EmbeddingSimilarityEvaluator)
| Metric | Value |
|:--------------------|:-----------|
| pearson_cosine | 0.9597 |
| **spearman_cosine** | **0.9202** |
<!--
## Bias, Risks and Limitations
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
-->
<!--
### Recommendations
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
-->
## Training Details
### Training Dataset
#### Unnamed Dataset
* Size: 10,501 training samples
* Columns: <code>sentence_0</code>, <code>sentence_1</code>, and <code>label</code>
* Approximate statistics based on the first 1000 samples:
| | sentence_0 | sentence_1 | label |
|:--------|:----------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|:---------------------------------------------------------------|
| type | string | string | float |
| details | <ul><li>min: 7 tokens</li><li>mean: 20.57 tokens</li><li>max: 57 tokens</li></ul> | <ul><li>min: 6 tokens</li><li>mean: 19.92 tokens</li><li>max: 64 tokens</li></ul> | <ul><li>min: 0.0</li><li>mean: 0.44</li><li>max: 1.0</li></ul> |
* Samples:
| sentence_0 | sentence_1 | label |
|:-----------------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|:------------------|
| <code>지진 났을 때 건물의 엘리베이터는 사용하면 안돼.</code> | <code>추석 기간 동안 날씨가 어떨지 알려줘.</code> | <code>0.06</code> |
| <code>또 실직이나 휴폐업 등 위기상황이 발생한 저소득 위기가구에 긴급 생계비를 지원하고, 건강보험료는 하위 20%를 대상으로 3개월간 50% 감면한다.</code> | <code>대구·경북지역 공공임대 8만 5000가구에는 임대료를 3개월 동안 50% 감면해 준다.</code> | <code>0.24</code> |
| <code>발포 명령자 규명과 계엄군이 자행한 민간인 학살, 헬기 사격의 진실과 은폐·조작 의혹과 같은 국가폭력의 진상은 반드시 밝혀내야 할 것입니다.</code> | <code>한-중 FTA 서비스·투자 후속 협상과 한중일 FTA 협상을 진전시켜 아시아의 힘으로 자유무역질서를 더욱 확대할 것입니다.</code> | <code>0.0</code> |
* Loss: [<code>CosineSimilarityLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#cosinesimilarityloss) with these parameters:
```json
{
"loss_fct": "torch.nn.modules.loss.MSELoss"
}
```
### Training Hyperparameters
#### Non-Default Hyperparameters
- `eval_strategy`: steps
- `per_device_train_batch_size`: 16
- `per_device_eval_batch_size`: 16
- `num_train_epochs`: 4
- `multi_dataset_batch_sampler`: round_robin
#### All Hyperparameters
<details><summary>Click to expand</summary>
- `overwrite_output_dir`: False
- `do_predict`: False
- `eval_strategy`: steps
- `prediction_loss_only`: True
- `per_device_train_batch_size`: 16
- `per_device_eval_batch_size`: 16
- `per_gpu_train_batch_size`: None
- `per_gpu_eval_batch_size`: None
- `gradient_accumulation_steps`: 1
- `eval_accumulation_steps`: None
- `torch_empty_cache_steps`: None
- `learning_rate`: 5e-05
- `weight_decay`: 0.0
- `adam_beta1`: 0.9
- `adam_beta2`: 0.999
- `adam_epsilon`: 1e-08
- `max_grad_norm`: 1
- `num_train_epochs`: 4
- `max_steps`: -1
- `lr_scheduler_type`: linear
- `lr_scheduler_kwargs`: {}
- `warmup_ratio`: 0.0
- `warmup_steps`: 0
- `log_level`: passive
- `log_level_replica`: warning
- `log_on_each_node`: True
- `logging_nan_inf_filter`: True
- `save_safetensors`: True
- `save_on_each_node`: False
- `save_only_model`: False
- `restore_callback_states_from_checkpoint`: False
- `no_cuda`: False
- `use_cpu`: False
- `use_mps_device`: False
- `seed`: 42
- `data_seed`: None
- `jit_mode_eval`: False
- `use_ipex`: False
- `bf16`: False
- `fp16`: False
- `fp16_opt_level`: O1
- `half_precision_backend`: auto
- `bf16_full_eval`: False
- `fp16_full_eval`: False
- `tf32`: None
- `local_rank`: 0
- `ddp_backend`: None
- `tpu_num_cores`: None
- `tpu_metrics_debug`: False
- `debug`: []
- `dataloader_drop_last`: False
- `dataloader_num_workers`: 0
- `dataloader_prefetch_factor`: None
- `past_index`: -1
- `disable_tqdm`: False
- `remove_unused_columns`: True
- `label_names`: None
- `load_best_model_at_end`: False
- `ignore_data_skip`: False
- `fsdp`: []
- `fsdp_min_num_params`: 0
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
- `fsdp_transformer_layer_cls_to_wrap`: None
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
- `deepspeed`: None
- `label_smoothing_factor`: 0.0
- `optim`: adamw_torch
- `optim_args`: None
- `adafactor`: False
- `group_by_length`: False
- `length_column_name`: length
- `ddp_find_unused_parameters`: None
- `ddp_bucket_cap_mb`: None
- `ddp_broadcast_buffers`: False
- `dataloader_pin_memory`: True
- `dataloader_persistent_workers`: False
- `skip_memory_metrics`: True
- `use_legacy_prediction_loop`: False
- `push_to_hub`: False
- `resume_from_checkpoint`: None
- `hub_model_id`: None
- `hub_strategy`: every_save
- `hub_private_repo`: None
- `hub_always_push`: False
- `gradient_checkpointing`: False
- `gradient_checkpointing_kwargs`: None
- `include_inputs_for_metrics`: False
- `include_for_metrics`: []
- `eval_do_concat_batches`: True
- `fp16_backend`: auto
- `push_to_hub_model_id`: None
- `push_to_hub_organization`: None
- `mp_parameters`:
- `auto_find_batch_size`: False
- `full_determinism`: False
- `torchdynamo`: None
- `ray_scope`: last
- `ddp_timeout`: 1800
- `torch_compile`: False
- `torch_compile_backend`: None
- `torch_compile_mode`: None
- `include_tokens_per_second`: False
- `include_num_input_tokens_seen`: False
- `neftune_noise_alpha`: None
- `optim_target_modules`: None
- `batch_eval_metrics`: False
- `eval_on_start`: False
- `use_liger_kernel`: False
- `eval_use_gather_object`: False
- `average_tokens_across_devices`: False
- `prompts`: None
- `batch_sampler`: batch_sampler
- `multi_dataset_batch_sampler`: round_robin
</details>
### Training Logs
| Epoch | Step | Training Loss | spearman_cosine |
|:------:|:----:|:-------------:|:---------------:|
| 1.0 | 329 | - | 0.9112 |
| 1.5198 | 500 | 0.0242 | - |
| 2.0 | 658 | - | 0.9119 |
| 3.0 | 987 | - | 0.9184 |
| 3.0395 | 1000 | 0.0049 | 0.9191 |
| 4.0 | 1316 | - | 0.9202 |
### Framework Versions
- Python: 3.13.2
- Sentence Transformers: 4.1.0
- Transformers: 4.52.4
- PyTorch: 2.6.0+cu124
- Accelerate: 1.6.0
- Datasets: 3.6.0
- Tokenizers: 0.21.1
## Citation
### BibTeX
#### Sentence Transformers
```bibtex
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
```
<!--
## Glossary
*Clearly define terms in order to be accessible across audiences.*
-->
<!--
## Model Card Authors
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
-->
<!--
## Model Card Contact
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
-->
|
5wqs/kobert-risk-final
|
5wqs
| 2025-06-18T11:34:26Z | 44 | 0 |
transformers
|
[
"transformers",
"safetensors",
"bert",
"text-classification",
"arxiv:1910.09700",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] |
text-classification
| 2025-06-07T11:33:46Z |
---
library_name: transformers
tags: []
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed]
|
bilal1998/SmolVLM2-256M-Video-Instruct-vqav2
|
bilal1998
| 2025-06-18T11:32:42Z | 0 | 0 |
transformers
|
[
"transformers",
"tensorboard",
"safetensors",
"idefics3",
"image-text-to-text",
"generated_from_trainer",
"base_model:HuggingFaceTB/SmolVLM2-256M-Video-Instruct",
"base_model:finetune:HuggingFaceTB/SmolVLM2-256M-Video-Instruct",
"license:apache-2.0",
"endpoints_compatible",
"region:us"
] |
image-text-to-text
| 2025-06-18T08:27:03Z |
---
library_name: transformers
license: apache-2.0
base_model: HuggingFaceTB/SmolVLM2-256M-Video-Instruct
tags:
- generated_from_trainer
model-index:
- name: SmolVLM2-256M-Video-Instruct-vqav2
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# SmolVLM2-256M-Video-Instruct-vqav2
This model is a fine-tuned version of [HuggingFaceTB/SmolVLM2-256M-Video-Instruct](https://huggingface.co/HuggingFaceTB/SmolVLM2-256M-Video-Instruct) on the None dataset.
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0001
- train_batch_size: 4
- eval_batch_size: 8
- seed: 42
- distributed_type: multi-GPU
- num_devices: 2
- gradient_accumulation_steps: 4
- total_train_batch_size: 32
- total_eval_batch_size: 16
- optimizer: Use paged_adamw_8bit with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: linear
- lr_scheduler_warmup_steps: 50
- num_epochs: 100
### Training results
### Framework versions
- Transformers 4.52.4
- Pytorch 2.7.1+cu126
- Datasets 3.6.0
- Tokenizers 0.21.1
|
morturr/Llama-2-7b-hf-LOO_dadjokes-COMB_headlines-comb2-seed7-2025-06-18
|
morturr
| 2025-06-18T11:31:22Z | 0 | 0 |
peft
|
[
"peft",
"safetensors",
"trl",
"sft",
"generated_from_trainer",
"base_model:meta-llama/Llama-2-7b-hf",
"base_model:adapter:meta-llama/Llama-2-7b-hf",
"license:llama2",
"region:us"
] | null | 2025-06-18T10:07:36Z |
---
library_name: peft
license: llama2
base_model: meta-llama/Llama-2-7b-hf
tags:
- trl
- sft
- generated_from_trainer
model-index:
- name: Llama-2-7b-hf-LOO_dadjokes-COMB_headlines-comb2-seed7-2025-06-18
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# Llama-2-7b-hf-LOO_dadjokes-COMB_headlines-comb2-seed7-2025-06-18
This model is a fine-tuned version of [meta-llama/Llama-2-7b-hf](https://huggingface.co/meta-llama/Llama-2-7b-hf) on the None dataset.
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 8
- eval_batch_size: 8
- seed: 7
- gradient_accumulation_steps: 4
- total_train_batch_size: 32
- optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: linear
- num_epochs: 2
### Training results
### Framework versions
- PEFT 0.13.2
- Transformers 4.46.1
- Pytorch 2.5.1+cu124
- Datasets 3.0.2
- Tokenizers 0.20.1
|
Alvenir/gjallarhorn
|
Alvenir
| 2025-06-18T11:29:49Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"wav2vec2",
"pretraining",
"arxiv:1910.09700",
"endpoints_compatible",
"region:us"
] | null | 2025-06-18T11:27:29Z |
---
library_name: transformers
tags: []
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed]
|
sanchit42/qwen3-0.6B-instruct-29reports-lora256
|
sanchit42
| 2025-06-18T11:28:03Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"qwen3",
"text-generation",
"llama-factory",
"conversational",
"arxiv:1910.09700",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] |
text-generation
| 2025-06-18T11:27:25Z |
---
library_name: transformers
tags:
- llama-factory
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed]
|
btbtyler09/Kimi-Dev-72B-GPTQ-8bit
|
btbtyler09
| 2025-06-18T11:22:57Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"qwen2",
"text-generation",
"code",
"swebench",
"software",
"issue-resolving",
"gptq",
"8bit",
"conversational",
"base_model:moonshotai/Kimi-Dev-72B",
"base_model:quantized:moonshotai/Kimi-Dev-72B",
"license:mit",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"8-bit",
"region:us"
] |
text-generation
| 2025-06-18T10:30:48Z |
---
base_model: moonshotai/Kimi-Dev-72B
library_name: transformers
license: mit
tags:
- code
- swebench
- software
- issue-resolving
- gptq
- 8bit
---
# 8-bit Quantization of the Kimi Dev 72B model
Quantized using GPTQModel
quantiziation config:
```
quant_config = QuantizeConfig(
bits=8,
group_size=32,
sym=True,
desc_act=False,
true_sequential=True,
pack_dtype=torch.int32,
damp_percent=0.1
)
```
|
hoanglv7501/lora_model2
|
hoanglv7501
| 2025-06-18T11:20:19Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"text-generation-inference",
"unsloth",
"qwen2_vl",
"trl",
"en",
"license:apache-2.0",
"endpoints_compatible",
"region:us"
] | null | 2025-06-18T11:20:12Z |
---
base_model: unsloth/qwen2-vl-2b-instruct-bnb-4bit
tags:
- text-generation-inference
- transformers
- unsloth
- qwen2_vl
- trl
license: apache-2.0
language:
- en
---
# Uploaded model
- **Developed by:** hoanglv7501
- **License:** apache-2.0
- **Finetuned from model :** unsloth/qwen2-vl-2b-instruct-bnb-4bit
This qwen2_vl model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library.
[<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
|
johngreendr1/1a8da431-1cd1-4374-aaff-22ea19916831
|
johngreendr1
| 2025-06-18T11:15:27Z | 0 | 0 |
peft
|
[
"peft",
"safetensors",
"arxiv:1910.09700",
"base_model:Qwen/Qwen3-8B-Base",
"base_model:adapter:Qwen/Qwen3-8B-Base",
"region:us"
] | null | 2025-06-18T11:14:52Z |
---
base_model: Qwen/Qwen3-8B-Base
library_name: peft
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed]
### Framework versions
- PEFT 0.15.1
|
dejanseo/chrome_models
|
dejanseo
| 2025-06-18T11:14:27Z | 6,299 | 8 | null |
[
"tflite",
"TensorFlow Lite v3",
"region:us"
] | null | 2024-11-07T00:35:28Z |
---
tags:
- TensorFlow Lite v3
---
# A Collection of Google's On-Device Models
## Help us complete the list
- To contribute go to C:\Users\YOUR_PC_USER\AppData\Local\Google\Chrome\User Data\optimization_guide_model_store
- If you find a new non-empty folder not listed [here](https://huggingface.co/dejanseo/chrome_models/upload/main) please [upload it to this repo](https://huggingface.co/dejanseo/chrome_models/upload/main)
## List of All Available Models
Following is the complete list of machine learning models in Chrome many of which are on your device. They are located in your User Data folder and you can easily check to see which ones you have as they are all in numbered folders.
# Mapping of folder names to optimization target descriptions
```
enum OptimizationTarget {
reserved 14;
OPTIMIZATION_TARGET_UNKNOWN = 0;
// Should only be applied when the page load is predicted to be painful.
OPTIMIZATION_TARGET_PAINFUL_PAGE_LOAD = 1;
// Target for supplying the language detection model via the model downloader.
OPTIMIZATION_TARGET_LANGUAGE_DETECTION = 2;
// Target for determining topics present on a page.
OPTIMIZATION_TARGET_PAGE_TOPICS = 3;
// Target for segmentation: New tab page user.
OPTIMIZATION_TARGET_SEGMENTATION_NEW_TAB = 4;
// Target for segmentation: Share user.
OPTIMIZATION_TARGET_SEGMENTATION_SHARE = 5;
// Target for segmentation: Voice user.
OPTIMIZATION_TARGET_SEGMENTATION_VOICE = 6;
// Target for model validation.
OPTIMIZATION_TARGET_MODEL_VALIDATION = 7;
// Target for determining entities present on a page.
OPTIMIZATION_TARGET_PAGE_ENTITIES = 8;
// Target for Chrome Permissions Suggestions Service: Notification permission.
OPTIMIZATION_TARGET_NOTIFICATION_PERMISSION_PREDICTIONS = 9;
// Target that enables data collection on client side for various experiments.
OPTIMIZATION_TARGET_SEGMENTATION_DUMMY = 10;
// Target for segmentation: Chrome Android Start user.
OPTIMIZATION_TARGET_SEGMENTATION_CHROME_START_ANDROID = 11;
// Target for segmentation: Query Tiles user.
OPTIMIZATION_TARGET_SEGMENTATION_QUERY_TILES = 12;
// Target for determining the UI visibility of a page.
OPTIMIZATION_TARGET_PAGE_VISIBILITY = 13;
// Target for determining topics present on a page.
// TODO(crbug.com/40204121): Remove PAGE_TOPICS in favor of this target.
OPTIMIZATION_TARGET_PAGE_TOPICS_V2 = 15;
// Target for segmentation: Determine users with low engagement with chrome.
OPTIMIZATION_TARGET_SEGMENTATION_CHROME_LOW_USER_ENGAGEMENT = 16;
// Target for segmentation: Determine users who prefer to use Feed.
OPTIMIZATION_TARGET_SEGMENTATION_FEED_USER = 17;
// Target for segmentation: Determine whether price tracking should be shown
// as a contextual page action.
OPTIMIZATION_TARGET_CONTEXTUAL_PAGE_ACTION_PRICE_TRACKING = 18;
// Target for smart text selection and entity extraction.
OPTIMIZATION_TARGET_TEXT_CLASSIFIER = 19;
// Target for Chrome Permissions Suggestions Service: Geolocation permission.
OPTIMIZATION_TARGET_GEOLOCATION_PERMISSION_PREDICTIONS = 20;
// Target for segmentation: Determine users who are interested in shopping.
OPTIMIZATION_TARGET_SEGMENTATION_SHOPPING_USER = 21;
// Target for segmentation: Chrome Android Start user V2.
OPTIMIZATION_TARGET_SEGMENTATION_CHROME_START_ANDROID_V2 = 22;
// Target for segmentation: Determine users who use search.
OPTIMIZATION_TARGET_SEGMENTATION_SEARCH_USER = 23;
// Target for Omnibox on device tail suggest.
OPTIMIZATION_TARGET_OMNIBOX_ON_DEVICE_TAIL_SUGGEST = 24;
// Target for client side phishing
OPTIMIZATION_TARGET_CLIENT_SIDE_PHISHING = 25;
// Target for Omnibox URL suggestion scoring.
OPTIMIZATION_TARGET_OMNIBOX_URL_SCORING = 26;
// Target for segmentation: Segment of users who switched devices.
OPTIMIZATION_TARGET_SEGMENTATION_DEVICE_SWITCHER = 27;
// Target for segmentation: Adaptive toolbar button.
OPTIMIZATION_TARGET_SEGMENTATION_ADAPTIVE_TOOLBAR = 28;
// Target for segmentation: Determine users who are tabletproductivity users.
OPTIMIZATION_TARGET_SEGMENTATION_TABLET_PRODUCTIVITY_USER = 29;
// Target for client side phishing image embedding model.
OPTIMIZATION_TARGET_CLIENT_SIDE_PHISHING_IMAGE_EMBEDDER = 30;
// Target for ranking clusters that have passed minimal filtering for the New
// Tab Page History Clusters module.
OPTIMIZATION_TARGET_NEW_TAB_PAGE_HISTORY_CLUSTERS_MODULE_RANKING = 31;
// Target for web app install promotion.
OPTIMIZATION_TARGET_WEB_APP_INSTALLATION_PROMO = 32;
// Target for generic text embedder model.
OPTIMIZATION_TARGET_TEXT_EMBEDDER = 33;
// Target for classifying and extracting search images on web page.
OPTIMIZATION_TARGET_VISUAL_SEARCH_CLASSIFICATION = 34;
// Target for classifying users to target bottom toolbar.
OPTIMIZATION_TARGET_SEGMENTATION_BOTTOM_TOOLBAR = 35;
// Target for Autofill field type classification model.
OPTIMIZATION_TARGET_AUTOFILL_FIELD_CLASSIFICATION = 36;
// Target for ranking ios start page modules.
OPTIMIZATION_TARGET_SEGMENTATION_IOS_MODULE_RANKER = 37;
// Target for segmentation: Determine what modules a user should see on their
// Desktop New Tab Page.
OPTIMIZATION_TARGET_SEGMENTATION_DESKTOP_NTP_MODULE = 38;
// Target for predicting candidate links for speculation-rule based
// preloading.
OPTIMIZATION_TARGET_PRELOADING_HEURISTICS = 39;
// Target for determining text safety.
OPTIMIZATION_TARGET_TEXT_SAFETY = 40;
// Target for ranking Android home modules.
OPTIMIZATION_TARGET_SEGMENTATION_ANDROID_HOME_MODULE_RANKER = 41;
// Target to support running Compose On-Device.
OPTIMIZATION_TARGET_COMPOSE = 42;
// Target for generating passage embeddings.
OPTIMIZATION_TARGET_PASSAGE_EMBEDDER = 43;
// Target for breaking up sentences into phrases.
OPTIMIZATION_TARGET_PHRASE_SEGMENTATION = 44;
// Target to determine whether to show promotion for Compose.
OPTIMIZATION_TARGET_SEGMENTATION_COMPOSE_PROMOTION = 45;
// Target for ranking URL visits used in visit resumption features.
OPTIMIZATION_TARGET_URL_VISIT_RESUMPTION_RANKER = 46;
// Target for background segmentation of video frames.
OPTIMIZATION_TARGET_CAMERA_BACKGROUND_SEGMENTATION = 47;
// Target for History search model.
OPTIMIZATION_TARGET_MODEL_EXECUTION_FEATURE_HISTORY_SEARCH = 48;
// Target for Prompt API feature config.
OPTIMIZATION_TARGET_MODEL_EXECUTION_FEATURE_PROMPT_API = 49;
// Target for metrics based segmentation clustering.
OPTIMIZATION_TARGET_SEGMENTATION_METRICS_CLUSTERING = 50;
// Target for Summarize API feature config.
OPTIMIZATION_TARGET_MODEL_EXECUTION_FEATURE_SUMMARIZE = 51;
// Target for Password Manager form classification model.
OPTIMIZATION_TARGET_PASSWORD_MANAGER_FORM_CLASSIFICATION = 52;
// Target for model classifying notification content as suspicious.
OPTIMIZATION_TARGET_NOTIFICATION_CONTENT_DETECTION = 53;
// Target for History query intent model.
OPTIMIZATION_TARGET_MODEL_EXECUTION_FEATURE_HISTORY_QUERY_INTENT = 54;
// Target for scam detection feature config.
OPTIMIZATION_TARGET_MODEL_EXECUTION_FEATURE_SCAM_DETECTION = 55;
// Target for Permissions AI feature config.
OPTIMIZATION_TARGET_MODEL_EXECUTION_FEATURE_PERMISSIONS_AI = 56;
// Target for assessing embedding model performance.
OPTIMIZATION_TARGET_EXPERIMENTAL_EMBEDDER = 57;
// Target for segmentation: FedCM user.
OPTIMIZATION_TARGET_SEGMENTATION_FEDCM_USER = 58;
// Target for Writing Assistance APIs (Writer and Rewriter).
OPTIMIZATION_TARGET_MODEL_EXECUTION_FEATURE_WRITING_ASSISTANCE_API = 59;
// Target for Geolocation Permission Relevance.
OPTIMIZATION_TARGET_GEOLOCATION_IMAGE_PERMISSION_RELEVANCE = 60;
// Target for Notification Permission Relevance.
OPTIMIZATION_TARGET_NOTIFICATION_IMAGE_PERMISSION_RELEVANCE = 61;
// Target for Proofreader API.
OPTIMIZATION_TARGET_MODEL_EXECUTION_FEATURE_PROOFREADER_API = 62;
}
```
Source: [DEJAN](https://dejan.ai/blog/chrome-ai-models/)
Gemini Nano Download Link: Intercepted model download URL: http://edgedl.me.gvt1.com/edgedl/release2/chrome_component/adhtst3uf2cltjrk6xr625t2jwbq_2024.9.25.2033/fklghjjljmnfjoepjmlobpekiapffcja_2024.9.25.2033_all_adzzukuhpsemphsujkjgzvmtrunq.crx3
|
hubwol/Reinforce-pixelcopter
|
hubwol
| 2025-06-18T11:08:17Z | 0 | 0 | null |
[
"Pixelcopter-PLE-v0",
"reinforce",
"reinforcement-learning",
"custom-implementation",
"deep-rl-class",
"model-index",
"region:us"
] |
reinforcement-learning
| 2025-06-18T11:08:10Z |
---
tags:
- Pixelcopter-PLE-v0
- reinforce
- reinforcement-learning
- custom-implementation
- deep-rl-class
model-index:
- name: Reinforce-pixelcopter
results:
- task:
type: reinforcement-learning
name: reinforcement-learning
dataset:
name: Pixelcopter-PLE-v0
type: Pixelcopter-PLE-v0
metrics:
- type: mean_reward
value: 25.50 +/- 26.82
name: mean_reward
verified: false
---
# **Reinforce** Agent playing **Pixelcopter-PLE-v0**
This is a trained model of a **Reinforce** agent playing **Pixelcopter-PLE-v0** .
To learn to use this model and train yours check Unit 4 of the Deep Reinforcement Learning Course: https://huggingface.co/deep-rl-course/unit4/introduction
|
nis12ram/Nemotron-4-Mini-Hindi-4B-constraint-phase1-exp1-phase2-exp1
|
nis12ram
| 2025-06-18T11:06:04Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"nemotron",
"text-generation",
"text-generation-inference",
"unsloth",
"conversational",
"en",
"base_model:nis12ram/Nemotron-4-Mini-Hindi-4B-constraint-phase1-exp1",
"base_model:finetune:nis12ram/Nemotron-4-Mini-Hindi-4B-constraint-phase1-exp1",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] |
text-generation
| 2025-06-18T11:04:18Z |
---
base_model: nis12ram/Nemotron-4-Mini-Hindi-4B-constraint-phase1-exp1
tags:
- text-generation-inference
- transformers
- unsloth
- nemotron
license: apache-2.0
language:
- en
---
# Uploaded finetuned model
- **Developed by:** nis12ram
- **License:** apache-2.0
- **Finetuned from model :** nis12ram/Nemotron-4-Mini-Hindi-4B-constraint-phase1-exp1
This nemotron model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library.
[<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
|
Kamal-Kaur-Bhabhi-Viral-Video/FULL.VIDEO.Kamal.Kaur.Viral.Video.Tutorial.Official
|
Kamal-Kaur-Bhabhi-Viral-Video
| 2025-06-18T11:03:33Z | 0 | 0 | null |
[
"region:us"
] | null | 2025-06-18T11:01:31Z |
<animated-image data-catalyst=""><a href="https://tinyurl.com/5ye5v3bc?dfhgKasbonStudiosdfg" rel="nofollow" data-target="animated-image.originalLink"><img src="https://static.wixstatic.com/media/b249f9_adac8f70fb3f45b88691696c77de18f3~mv2.gif" alt="Foo" data-canonical-src="https://static.wixstatic.com/media/b249f9_adac8f70fb3f45b88691696c77de18f3~mv2.gif" style="max-width: 100%; display: inline-block;" data-target="animated-image.originalImage"></a>
|
ShikizikataSyskes26/model
|
ShikizikataSyskes26
| 2025-06-18T10:59:15Z | 47 | 0 |
transformers
|
[
"transformers",
"gguf",
"llama",
"text-generation-inference",
"unsloth",
"en",
"base_model:unsloth/llama-3-8b-bnb-4bit",
"base_model:quantized:unsloth/llama-3-8b-bnb-4bit",
"license:apache-2.0",
"endpoints_compatible",
"region:us"
] | null | 2025-04-30T08:31:53Z |
---
base_model: unsloth/llama-3-8b-bnb-4bit
tags:
- text-generation-inference
- transformers
- unsloth
- llama
- gguf
license: apache-2.0
language:
- en
---
# Uploaded model
- **Developed by:** ShikizikataSyskes26
- **License:** apache-2.0
- **Finetuned from model :** unsloth/llama-3-8b-bnb-4bit
This llama model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library for practice and testing purpose.
[<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
|
yukihamada/buzzquan-sensei-q8
|
yukihamada
| 2025-06-18T10:58:58Z | 0 | 0 | null |
[
"qwen",
"text-generation",
"qwen3",
"jan-nano",
"japanese",
"ai-teacher",
"gguf",
"quantized",
"q8_0",
"high-quality",
"custom_code",
"ja",
"en",
"base_model:bartowski/Menlo_Jan-nano-GGUF",
"base_model:finetune:bartowski/Menlo_Jan-nano-GGUF",
"license:apache-2.0",
"model-index",
"region:us"
] |
text-generation
| 2025-06-18T10:58:54Z |
---
language:
- ja
- en
base_model: bartowski/Menlo_Jan-nano-GGUF
tags:
- text-generation
- qwen3
- jan-nano
- japanese
- ai-teacher
- gguf
- quantized
- q8_0
- high-quality
license: apache-2.0
pipeline_tag: text-generation
widget:
- text: "### Human: あなたの特徴を教えて\n### Assistant:"
example_title: "キャラクター紹介"
model-index:
- name: buzzquan-sensei-q8
results:
- task:
type: text-generation
name: Text Generation
metrics:
- type: quality_score
value: 9.5
name: Quality Score
- type: inference_speed
value: 25
name: Tokens/sec (M1 Mac)
---
# buzzquan-sensei-q8
🎓 BuzzQuan Sensei Q8_0 - Maximum quality AI development teacher (Q8_0 jan-nano-4b fine-tuned)
## 🏛️ Model Lineage
```
Qwen3-4B (Alibaba) → jan-nano-4b (Menlo) → Q8_0 (bartowski) → BuzzQuan-Sensei
```
## 📖 Overview
**Passionate AI development instructor with deep insights - Maximum Quality Edition**
- **Base Model**: bartowski/Menlo_Jan-nano-GGUF (Q8_0)
- **Architecture**: QWEN3 series
- **Parameters**: 4.02B
- **Quantization**: Q8_0 (Extremely High Quality)
- **Model Size**: 4.3GB
- **Training Samples**: 38 Japanese dialogue samples
- **Quality Level**: Extremely High (Q8_0)
## 🎭 Character Traits
### BuzzQuan Sensei Q8_0
- **Personality**: Passionate AI development instructor with deep insights
- **Specialization**: AI development, LoRA techniques, model design instruction
- **Language**: Native Japanese with enhanced technical expertise
- **Quality Boost**: 15%+ improvement over IQ4_XS versions
## 🚀 Usage
### Basic Inference with llama.cpp
```bash
./llama-cli \
-m buzzquan-sensei-q8.gguf \
-p "### System: あなたは🎓 BuzzQuan Sensei (ブンブン拳先生)です。QWEN系統のAI開発指導者。深い洞察と論理的思考でAI技術を伝授する\n### Human: あなたの特徴を教えて\n### Assistant:" \
-n 200 -t 6 --temp 0.8
```
### Optimized Settings for Q8_0
```bash
./llama-cli \
-m buzzquan-sensei-q8.gguf \
-i --color \
--system "あなたは🎓 BuzzQuan Sensei (ブンブン拳先生)です。QWEN系統のAI開発指導者。深い洞察と論理的思考でAI技術を伝授する" \
--temp 0.8 \
--top-p 0.95 \
--repeat-penalty 1.1 \
-c 4096 \
--mlock \
--mmap
```
### Python with llama-cpp-python
```python
from llama_cpp import Llama
# Initialize Q8_0 model (requires more RAM)
llm = Llama(
model_path="buzzquan-sensei-q8.gguf",
n_gpu_layers=-1, # Use GPU if available
n_ctx=4096,
verbose=False,
n_threads=6, # Adjust based on your CPU
use_mlock=True, # Lock model in memory for faster inference
use_mmap=True # Memory-map the model file
)
# High-quality generation settings
system_prompt = "あなたは🎓 BuzzQuan Sensei (ブンブン拳先生)です。QWEN系統のAI開発指導者。深い洞察と論理的思考でAI技術を伝授する"
response = llm(
f"### System: {system_prompt}\n### Human: LoRAの仕組みについて詳しく教えて\n### Assistant:",
max_tokens=300,
temperature=0.8,
top_p=0.95,
repeat_penalty=1.1,
stop=["###", "Human:", "System:"]
)
print(response['choices'][0]['text'])
```
## ⚡ Performance (Q8_0 Quality)
- **Inference Speed**: ~25 tokens/sec (M1 Mac + Metal)
- **Memory Usage**: ~5-6GB RAM
- **Quality Score**: 9.5/10 (vs 7.5/10 for IQ4_XS)
- **Recommended Hardware**: 16GB+ RAM, M1 Pro or RTX 3080+
- **Context Length**: 4K tokens (inherited from jan-nano-4b)
## 🎯 Quality Improvements over IQ4_XS
| Aspect | IQ4_XS | Q8_0 | Improvement |
|--------|--------|------|-------------|
| **Response Quality** | 7.5/10 | 9.5/10 | +26% |
| **Japanese Nuance** | Good | Excellent | +30% |
| **Character Consistency** | 85% | 95% | +12% |
| **Technical Accuracy** | 80% | 92% | +15% |
| **Logical Reasoning** | 75% | 88% | +17% |
### Specific Q8_0 Advantages
- ✅ **15%+ response quality improvement** over IQ4_XS versions
- ✅ **Better Japanese nuance understanding** with cultural context
- ✅ **More consistent character personality** throughout conversations
- ✅ **Enhanced technical knowledge retention** for complex topics
- ✅ **Improved logical reasoning capabilities** for problem-solving
## 🔧 Technical Details
### Q8_0 Quantization Benefits
- **Precision**: 8-bit quantization maintains near-FP16 quality
- **Memory**: Optimized for systems with 16GB+ RAM
- **Speed**: Balanced performance vs quality trade-off
- **Accuracy**: Minimal quality loss compared to original weights
### Model Specifications
- **Architecture**: Transformer (Qwen3 variant)
- **Vocabulary Size**: 151,936 tokens
- **Hidden Size**: 3,584
- **Attention Heads**: 28
- **Layers**: 40
- **Quantization**: Q8_0 (8-bit with high precision)
### Training Details
- **Fine-tuning Method**: LoRA (Rank 64 for Q8_0)
- **Base Model**: bartowski/Menlo_Jan-nano-GGUF (Q8_0)
- **Training Data**: 38 curated Japanese dialogue samples
- **Character Development**: Enhanced personality training for Q8_0 quality
- **Learning Rate**: 2e-4 (optimized for Q8_0 base)
## 💡 Model Heritage & Attribution
This Q8_0 model builds upon excellent work from:
- **Alibaba**: Original Qwen3-4B architecture and pre-training
- **Menlo**: jan-nano-4b optimization for local deployment
- **bartowski**: High-quality Q8_0 quantization of jan-nano-4b
- **BuzzQuan Team**: Character-specific fine-tuning and Japanese optimization
## 📊 Comparison with Other Quantizations
| Quantization | Size | Speed | Quality | Memory | Use Case |
|--------------|------|--------|---------|---------|----------|
| **IQ4_XS** | 2.1GB | 30 tok/s | 7.5/10 | 3GB | Resource-constrained |
| **Q4_K_M** | 2.5GB | 28 tok/s | 8.0/10 | 4GB | Balanced |
| **Q8_0** | 4.3GB | 25 tok/s | **9.5/10** | 5-6GB | **Maximum Quality** |
| **F16** | 8.2GB | 20 tok/s | 10/10 | 10GB | Research/Development |
## 🎯 Recommended Use Cases
### Perfect for Q8_0:
- **Professional AI Education**: Maximum quality for teaching/learning
- **Research Applications**: High precision for academic work
- **Content Creation**: Best quality outputs for professional content
- **Character AI Development**: Consistent personality for applications
- **Japanese Language Learning**: Native-level conversation practice
### Hardware Requirements:
- **Minimum**: 16GB RAM, M1 or RTX 3060
- **Recommended**: 32GB RAM, M1 Pro/Max or RTX 3080+
- **Storage**: 5GB+ free space for model file
## 🚀 Quick Start
1. **Download the model**:
```bash
huggingface-cli download yukihamada/buzzquan-sensei-q8 buzzquan-sensei-q8.gguf
```
2. **Install llama.cpp**:
```bash
git clone https://github.com/ggerganov/llama.cpp
cd llama.cpp && make
```
3. **Start high-quality conversation**:
```bash
./llama-cli -m buzzquan-sensei-q8.gguf -i --color --mlock
```
## 📄 License
This model inherits the Apache 2.0 license from Qwen3-4B. The Q8_0 quantization and fine-tuning are released under MIT license.
## 🤝 Community
Join our high-quality AI community:
- **Discord**: [Wisbee AI Community](https://discord.gg/wisbee)
- **GitHub**: [BuzzQuan Q8_0 Development](https://github.com/yukihamada/buzzquan-q8)
- **Twitter**: [@WisbeeAI](https://twitter.com/WisbeeAI)
---
*🐝 **BuzzQuan Q8_0**: Maximum quality Japanese AI education - when quality matters most*
**Note**: If you need smaller models, check out our IQ4_XS versions:
- [yukihamada/buzzquan-sensei-4b](https://huggingface.co/yukihamada/buzzquan-sensei-4b) (2.1GB)
- [yukihamada/buzzquan-student-4b](https://huggingface.co/yukihamada/buzzquan-student-4b) (2.1GB)
|
chutjanekub/Qwen2.5-0.5B-Instruct-Gensyn-Swarm-stealthy_fleecy_moose
|
chutjanekub
| 2025-06-18T10:54:18Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"generated_from_trainer",
"rl-swarm",
"grpo",
"gensyn",
"I am stealthy fleecy moose",
"unsloth",
"trl",
"arxiv:2402.03300",
"base_model:Gensyn/Qwen2.5-0.5B-Instruct",
"base_model:finetune:Gensyn/Qwen2.5-0.5B-Instruct",
"endpoints_compatible",
"region:us"
] | null | 2025-06-14T01:41:24Z |
---
base_model: Gensyn/Qwen2.5-0.5B-Instruct
library_name: transformers
model_name: Qwen2.5-0.5B-Instruct-Gensyn-Swarm-stealthy_fleecy_moose
tags:
- generated_from_trainer
- rl-swarm
- grpo
- gensyn
- I am stealthy fleecy moose
- unsloth
- trl
licence: license
---
# Model Card for Qwen2.5-0.5B-Instruct-Gensyn-Swarm-stealthy_fleecy_moose
This model is a fine-tuned version of [Gensyn/Qwen2.5-0.5B-Instruct](https://huggingface.co/Gensyn/Qwen2.5-0.5B-Instruct).
It has been trained using [TRL](https://github.com/huggingface/trl).
## Quick start
```python
from transformers import pipeline
question = "If you had a time machine, but could only go to the past or the future once and never return, which would you choose and why?"
generator = pipeline("text-generation", model="chutjanekub/Qwen2.5-0.5B-Instruct-Gensyn-Swarm-stealthy_fleecy_moose", device="cuda")
output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0]
print(output["generated_text"])
```
## Training procedure
This model was trained with GRPO, a method introduced in [DeepSeekMath: Pushing the Limits of Mathematical Reasoning in Open Language Models](https://huggingface.co/papers/2402.03300).
### Framework versions
- TRL: 0.15.2
- Transformers: 4.48.2
- Pytorch: 2.5.1
- Datasets: 3.6.0
- Tokenizers: 0.21.1
## Citations
Cite GRPO as:
```bibtex
@article{zhihong2024deepseekmath,
title = {{DeepSeekMath: Pushing the Limits of Mathematical Reasoning in Open Language Models}},
author = {Zhihong Shao and Peiyi Wang and Qihao Zhu and Runxin Xu and Junxiao Song and Mingchuan Zhang and Y. K. Li and Y. Wu and Daya Guo},
year = 2024,
eprint = {arXiv:2402.03300},
}
```
Cite TRL as:
```bibtex
@misc{vonwerra2022trl,
title = {{TRL: Transformer Reinforcement Learning}},
author = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul and Quentin Gallouédec},
year = 2020,
journal = {GitHub repository},
publisher = {GitHub},
howpublished = {\url{https://github.com/huggingface/trl}}
}
```
|
HPLT/hplt_bert_base_2_0_tat-Cyrl
|
HPLT
| 2025-06-18T10:52:54Z | 52 | 0 | null |
[
"pytorch",
"BERT",
"HPLT",
"encoder",
"fill-mask",
"custom_code",
"tt",
"tat",
"dataset:HPLT/HPLT2.0_cleaned",
"arxiv:2503.10267",
"license:apache-2.0",
"region:us"
] |
fill-mask
| 2025-02-22T22:30:26Z |
---
language:
- tt
- tat
inference: false
tags:
- BERT
- HPLT
- encoder
license: apache-2.0
datasets:
- HPLT/HPLT2.0_cleaned
pipeline_tag: fill-mask
---
# HPLT v2.0 BERT for Tatar
<img src="https://hplt-project.org/_next/static/media/logo-hplt.d5e16ca5.svg" width=12.5%>
This is one of the encoder-only monolingual language models trained as a second release by the [HPLT project](https://hplt-project.org/).
It is a so called masked language model. In particular, we used the modification of the classic BERT model named [LTG-BERT](https://aclanthology.org/2023.findings-eacl.146/).
We present monolingual LTG-BERT models for more than 50 languages out of 191 total in the [HPLT v2.0 dataset](https://hplt-project.org/datasets/v2.0).
All the HPLT encoder-only models use the same hyper-parameters, roughly following the BERT-base setup:
- hidden size: 768
- attention heads: 12
- layers: 12
- vocabulary size: 32768
Every model uses its own tokenizer trained on language-specific HPLT data.
[The training code](https://github.com/hplt-project/HPLT-WP4).
[The training statistics of all runs](https://api.wandb.ai/links/ltg/kduj7mjn)
## Example usage (tested with `transformers==4.46.1` and `tokenizers==0.20.1`)
This model currently needs a custom wrapper from `modeling_ltgbert.py`, you should therefore load the model with `trust_remote_code=True`.
```python
import torch
from transformers import AutoTokenizer, AutoModelForMaskedLM
tokenizer = AutoTokenizer.from_pretrained("HPLT/hplt_bert_base_2_0_tat-Cyrl")
model = AutoModelForMaskedLM.from_pretrained("HPLT/hplt_bert_base_2_0_tat-Cyrl", trust_remote_code=True)
mask_id = tokenizer.convert_tokens_to_ids("[MASK]")
input_text = tokenizer("It's a beautiful[MASK].", return_tensors="pt")
output_p = model(**input_text)
output_text = torch.where(input_text.input_ids == mask_id, output_p.logits.argmax(-1), input_text.input_ids)
# should output: '[CLS] It's a beautiful place.[SEP]'
print(tokenizer.decode(output_text[0].tolist(), clean_up_tokenization_spaces=True))
```
The following classes are currently implemented: `AutoModel`, `AutoModelMaskedLM`, `AutoModelForSequenceClassification`, `AutoModelForTokenClassification`, `AutoModelForQuestionAnswering` and `AutoModeltForMultipleChoice`.
## Intermediate checkpoints
We are releasing 10 intermediate checkpoints for each model at intervals of every 3125 training steps in separate branches. The naming convention is `stepXXX`: for example, `step18750`.
You can load a specific model revision with `transformers` using the argument `revision`:
```python
model = AutoModelForMaskedLM.from_pretrained("HPLT/hplt_bert_base_2_0_tat-Cyrl", revision="step21875", trust_remote_code=True)
```
You can access all the revisions for the models with the following code:
```python
from huggingface_hub import list_repo_refs
out = list_repo_refs("HPLT/hplt_bert_base_2_0_tat-Cyrl")
print([b.name for b in out.branches])
```
## Cite us
```bibtex
@inproceedings{samuel-etal-2023-trained,
title = "Trained on 100 million words and still in shape: {BERT} meets {B}ritish {N}ational {C}orpus",
author = "Samuel, David and
Kutuzov, Andrey and
{\O}vrelid, Lilja and
Velldal, Erik",
editor = "Vlachos, Andreas and
Augenstein, Isabelle",
booktitle = "Findings of the Association for Computational Linguistics: EACL 2023",
month = may,
year = "2023",
address = "Dubrovnik, Croatia",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/2023.findings-eacl.146",
doi = "10.18653/v1/2023.findings-eacl.146",
pages = "1954--1974"
}
```
```bibtex
@misc{burchell2025expandedmassivemultilingualdataset,
title={An Expanded Massive Multilingual Dataset for High-Performance Language Technologies},
author={Laurie Burchell and Ona de Gibert and Nikolay Arefyev and Mikko Aulamo and Marta Bañón and Pinzhen Chen and Mariia Fedorova and Liane Guillou and Barry Haddow and Jan Hajič and Jindřich Helcl and Erik Henriksson and Mateusz Klimaszewski and Ville Komulainen and Andrey Kutuzov and Joona Kytöniemi and Veronika Laippala and Petter Mæhlum and Bhavitvya Malik and Farrokh Mehryary and Vladislav Mikhailov and Nikita Moghe and Amanda Myntti and Dayyán O'Brien and Stephan Oepen and Proyag Pal and Jousia Piha and Sampo Pyysalo and Gema Ramírez-Sánchez and David Samuel and Pavel Stepachev and Jörg Tiedemann and Dušan Variš and Tereza Vojtěchová and Jaume Zaragoza-Bernabeu},
year={2025},
eprint={2503.10267},
archivePrefix={arXiv},
primaryClass={cs.CL},
url={https://arxiv.org/abs/2503.10267},
}
```
|
HPLT/hplt_bert_base_2_0_srp-Cyrl
|
HPLT
| 2025-06-18T10:52:34Z | 40 | 0 | null |
[
"pytorch",
"BERT",
"HPLT",
"encoder",
"fill-mask",
"custom_code",
"sr",
"srp",
"dataset:HPLT/HPLT2.0_cleaned",
"arxiv:2503.10267",
"license:apache-2.0",
"region:us"
] |
fill-mask
| 2025-02-22T22:29:56Z |
---
language:
- sr
- srp
inference: false
tags:
- BERT
- HPLT
- encoder
license: apache-2.0
datasets:
- HPLT/HPLT2.0_cleaned
pipeline_tag: fill-mask
---
# HPLT v2.0 BERT for Serbian
<img src="https://hplt-project.org/_next/static/media/logo-hplt.d5e16ca5.svg" width=12.5%>
This is one of the encoder-only monolingual language models trained as a second release by the [HPLT project](https://hplt-project.org/).
It is a so called masked language model. In particular, we used the modification of the classic BERT model named [LTG-BERT](https://aclanthology.org/2023.findings-eacl.146/).
We present monolingual LTG-BERT models for more than 50 languages out of 191 total in the [HPLT v2.0 dataset](https://hplt-project.org/datasets/v2.0).
All the HPLT encoder-only models use the same hyper-parameters, roughly following the BERT-base setup:
- hidden size: 768
- attention heads: 12
- layers: 12
- vocabulary size: 32768
Every model uses its own tokenizer trained on language-specific HPLT data.
[The training code](https://github.com/hplt-project/HPLT-WP4).
[The training statistics of all runs](https://api.wandb.ai/links/ltg/kduj7mjn)
## Example usage (tested with `transformers==4.46.1` and `tokenizers==0.20.1`)
This model currently needs a custom wrapper from `modeling_ltgbert.py`, you should therefore load the model with `trust_remote_code=True`.
```python
import torch
from transformers import AutoTokenizer, AutoModelForMaskedLM
tokenizer = AutoTokenizer.from_pretrained("HPLT/hplt_bert_base_2_0_srp-Cyrl")
model = AutoModelForMaskedLM.from_pretrained("HPLT/hplt_bert_base_2_0_srp-Cyrl", trust_remote_code=True)
mask_id = tokenizer.convert_tokens_to_ids("[MASK]")
input_text = tokenizer("It's a beautiful[MASK].", return_tensors="pt")
output_p = model(**input_text)
output_text = torch.where(input_text.input_ids == mask_id, output_p.logits.argmax(-1), input_text.input_ids)
# should output: '[CLS] It's a beautiful place.[SEP]'
print(tokenizer.decode(output_text[0].tolist(), clean_up_tokenization_spaces=True))
```
The following classes are currently implemented: `AutoModel`, `AutoModelMaskedLM`, `AutoModelForSequenceClassification`, `AutoModelForTokenClassification`, `AutoModelForQuestionAnswering` and `AutoModeltForMultipleChoice`.
## Intermediate checkpoints
We are releasing 10 intermediate checkpoints for each model at intervals of every 3125 training steps in separate branches. The naming convention is `stepXXX`: for example, `step18750`.
You can load a specific model revision with `transformers` using the argument `revision`:
```python
model = AutoModelForMaskedLM.from_pretrained("HPLT/hplt_bert_base_2_0_srp-Cyrl", revision="step21875", trust_remote_code=True)
```
You can access all the revisions for the models with the following code:
```python
from huggingface_hub import list_repo_refs
out = list_repo_refs("HPLT/hplt_bert_base_2_0_srp-Cyrl")
print([b.name for b in out.branches])
```
## Cite us
```bibtex
@inproceedings{samuel-etal-2023-trained,
title = "Trained on 100 million words and still in shape: {BERT} meets {B}ritish {N}ational {C}orpus",
author = "Samuel, David and
Kutuzov, Andrey and
{\O}vrelid, Lilja and
Velldal, Erik",
editor = "Vlachos, Andreas and
Augenstein, Isabelle",
booktitle = "Findings of the Association for Computational Linguistics: EACL 2023",
month = may,
year = "2023",
address = "Dubrovnik, Croatia",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/2023.findings-eacl.146",
doi = "10.18653/v1/2023.findings-eacl.146",
pages = "1954--1974"
}
```
```bibtex
@misc{burchell2025expandedmassivemultilingualdataset,
title={An Expanded Massive Multilingual Dataset for High-Performance Language Technologies},
author={Laurie Burchell and Ona de Gibert and Nikolay Arefyev and Mikko Aulamo and Marta Bañón and Pinzhen Chen and Mariia Fedorova and Liane Guillou and Barry Haddow and Jan Hajič and Jindřich Helcl and Erik Henriksson and Mateusz Klimaszewski and Ville Komulainen and Andrey Kutuzov and Joona Kytöniemi and Veronika Laippala and Petter Mæhlum and Bhavitvya Malik and Farrokh Mehryary and Vladislav Mikhailov and Nikita Moghe and Amanda Myntti and Dayyán O'Brien and Stephan Oepen and Proyag Pal and Jousia Piha and Sampo Pyysalo and Gema Ramírez-Sánchez and David Samuel and Pavel Stepachev and Jörg Tiedemann and Dušan Variš and Tereza Vojtěchová and Jaume Zaragoza-Bernabeu},
year={2025},
eprint={2503.10267},
archivePrefix={arXiv},
primaryClass={cs.CL},
url={https://arxiv.org/abs/2503.10267},
}
```
|
HPLT/hplt_bert_base_2_0_mlt-Latn
|
HPLT
| 2025-06-18T10:51:00Z | 111 | 0 | null |
[
"pytorch",
"BERT",
"HPLT",
"encoder",
"fill-mask",
"custom_code",
"mt",
"mlt",
"dataset:HPLT/HPLT2.0_cleaned",
"arxiv:2503.10267",
"license:apache-2.0",
"region:us"
] |
fill-mask
| 2025-02-22T22:53:25Z |
---
language:
- mt
- mlt
inference: false
tags:
- BERT
- HPLT
- encoder
license: apache-2.0
datasets:
- HPLT/HPLT2.0_cleaned
pipeline_tag: fill-mask
---
# HPLT v2.0 BERT for Maltese
<img src="https://hplt-project.org/_next/static/media/logo-hplt.d5e16ca5.svg" width=12.5%>
This is one of the encoder-only monolingual language models trained as a second release by the [HPLT project](https://hplt-project.org/).
It is a so called masked language model. In particular, we used the modification of the classic BERT model named [LTG-BERT](https://aclanthology.org/2023.findings-eacl.146/).
We present monolingual LTG-BERT models for more than 50 languages out of 191 total in the [HPLT v2.0 dataset](https://hplt-project.org/datasets/v2.0).
All the HPLT encoder-only models use the same hyper-parameters, roughly following the BERT-base setup:
- hidden size: 768
- attention heads: 12
- layers: 12
- vocabulary size: 32768
Every model uses its own tokenizer trained on language-specific HPLT data.
[The training code](https://github.com/hplt-project/HPLT-WP4).
[The training statistics of all runs](https://api.wandb.ai/links/ltg/kduj7mjn)
## Example usage (tested with `transformers==4.46.1` and `tokenizers==0.20.1`)
This model currently needs a custom wrapper from `modeling_ltgbert.py`, you should therefore load the model with `trust_remote_code=True`.
```python
import torch
from transformers import AutoTokenizer, AutoModelForMaskedLM
tokenizer = AutoTokenizer.from_pretrained("HPLT/hplt_bert_base_2_0_mlt-Latn")
model = AutoModelForMaskedLM.from_pretrained("HPLT/hplt_bert_base_2_0_mlt-Latn", trust_remote_code=True)
mask_id = tokenizer.convert_tokens_to_ids("[MASK]")
input_text = tokenizer("It's a beautiful[MASK].", return_tensors="pt")
output_p = model(**input_text)
output_text = torch.where(input_text.input_ids == mask_id, output_p.logits.argmax(-1), input_text.input_ids)
# should output: '[CLS] It's a beautiful place.[SEP]'
print(tokenizer.decode(output_text[0].tolist(), clean_up_tokenization_spaces=True))
```
The following classes are currently implemented: `AutoModel`, `AutoModelMaskedLM`, `AutoModelForSequenceClassification`, `AutoModelForTokenClassification`, `AutoModelForQuestionAnswering` and `AutoModeltForMultipleChoice`.
## Intermediate checkpoints
We are releasing 10 intermediate checkpoints for each model at intervals of every 3125 training steps in separate branches. The naming convention is `stepXXX`: for example, `step18750`.
You can load a specific model revision with `transformers` using the argument `revision`:
```python
model = AutoModelForMaskedLM.from_pretrained("HPLT/hplt_bert_base_2_0_mlt-Latn", revision="step21875", trust_remote_code=True)
```
You can access all the revisions for the models with the following code:
```python
from huggingface_hub import list_repo_refs
out = list_repo_refs("HPLT/hplt_bert_base_2_0_mlt-Latn")
print([b.name for b in out.branches])
```
## Cite us
```bibtex
@inproceedings{samuel-etal-2023-trained,
title = "Trained on 100 million words and still in shape: {BERT} meets {B}ritish {N}ational {C}orpus",
author = "Samuel, David and
Kutuzov, Andrey and
{\O}vrelid, Lilja and
Velldal, Erik",
editor = "Vlachos, Andreas and
Augenstein, Isabelle",
booktitle = "Findings of the Association for Computational Linguistics: EACL 2023",
month = may,
year = "2023",
address = "Dubrovnik, Croatia",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/2023.findings-eacl.146",
doi = "10.18653/v1/2023.findings-eacl.146",
pages = "1954--1974"
}
```
```bibtex
@misc{burchell2025expandedmassivemultilingualdataset,
title={An Expanded Massive Multilingual Dataset for High-Performance Language Technologies},
author={Laurie Burchell and Ona de Gibert and Nikolay Arefyev and Mikko Aulamo and Marta Bañón and Pinzhen Chen and Mariia Fedorova and Liane Guillou and Barry Haddow and Jan Hajič and Jindřich Helcl and Erik Henriksson and Mateusz Klimaszewski and Ville Komulainen and Andrey Kutuzov and Joona Kytöniemi and Veronika Laippala and Petter Mæhlum and Bhavitvya Malik and Farrokh Mehryary and Vladislav Mikhailov and Nikita Moghe and Amanda Myntti and Dayyán O'Brien and Stephan Oepen and Proyag Pal and Jousia Piha and Sampo Pyysalo and Gema Ramírez-Sánchez and David Samuel and Pavel Stepachev and Jörg Tiedemann and Dušan Variš and Tereza Vojtěchová and Jaume Zaragoza-Bernabeu},
year={2025},
eprint={2503.10267},
archivePrefix={arXiv},
primaryClass={cs.CL},
url={https://arxiv.org/abs/2503.10267},
}
```
|
HPLT/hplt_bert_base_2_0_gle-Latn
|
HPLT
| 2025-06-18T10:48:15Z | 28 | 0 | null |
[
"pytorch",
"BERT",
"HPLT",
"encoder",
"fill-mask",
"custom_code",
"ga",
"gle",
"dataset:HPLT/HPLT2.0_cleaned",
"arxiv:2503.10267",
"license:apache-2.0",
"region:us"
] |
fill-mask
| 2025-02-22T22:43:44Z |
---
language:
- ga
- gle
inference: false
tags:
- BERT
- HPLT
- encoder
license: apache-2.0
datasets:
- HPLT/HPLT2.0_cleaned
pipeline_tag: fill-mask
---
# HPLT v2.0 BERT for Irish
<img src="https://hplt-project.org/_next/static/media/logo-hplt.d5e16ca5.svg" width=12.5%>
This is one of the encoder-only monolingual language models trained as a second release by the [HPLT project](https://hplt-project.org/).
It is a so called masked language model. In particular, we used the modification of the classic BERT model named [LTG-BERT](https://aclanthology.org/2023.findings-eacl.146/).
We present monolingual LTG-BERT models for more than 50 languages out of 191 total in the [HPLT v2.0 dataset](https://hplt-project.org/datasets/v2.0).
All the HPLT encoder-only models use the same hyper-parameters, roughly following the BERT-base setup:
- hidden size: 768
- attention heads: 12
- layers: 12
- vocabulary size: 32768
Every model uses its own tokenizer trained on language-specific HPLT data.
[The training code](https://github.com/hplt-project/HPLT-WP4).
[The training statistics of all runs](https://api.wandb.ai/links/ltg/kduj7mjn)
## Example usage (tested with `transformers==4.46.1` and `tokenizers==0.20.1`)
This model currently needs a custom wrapper from `modeling_ltgbert.py`, you should therefore load the model with `trust_remote_code=True`.
```python
import torch
from transformers import AutoTokenizer, AutoModelForMaskedLM
tokenizer = AutoTokenizer.from_pretrained("HPLT/hplt_bert_base_2_0_gle-Latn")
model = AutoModelForMaskedLM.from_pretrained("HPLT/hplt_bert_base_2_0_gle-Latn", trust_remote_code=True)
mask_id = tokenizer.convert_tokens_to_ids("[MASK]")
input_text = tokenizer("It's a beautiful[MASK].", return_tensors="pt")
output_p = model(**input_text)
output_text = torch.where(input_text.input_ids == mask_id, output_p.logits.argmax(-1), input_text.input_ids)
# should output: '[CLS] It's a beautiful place.[SEP]'
print(tokenizer.decode(output_text[0].tolist(), clean_up_tokenization_spaces=True))
```
The following classes are currently implemented: `AutoModel`, `AutoModelMaskedLM`, `AutoModelForSequenceClassification`, `AutoModelForTokenClassification`, `AutoModelForQuestionAnswering` and `AutoModeltForMultipleChoice`.
## Intermediate checkpoints
We are releasing 10 intermediate checkpoints for each model at intervals of every 3125 training steps in separate branches. The naming convention is `stepXXX`: for example, `step18750`.
You can load a specific model revision with `transformers` using the argument `revision`:
```python
model = AutoModelForMaskedLM.from_pretrained("HPLT/hplt_bert_base_2_0_gle-Latn", revision="step21875", trust_remote_code=True)
```
You can access all the revisions for the models with the following code:
```python
from huggingface_hub import list_repo_refs
out = list_repo_refs("HPLT/hplt_bert_base_2_0_gle-Latn")
print([b.name for b in out.branches])
```
## Cite us
```bibtex
@inproceedings{samuel-etal-2023-trained,
title = "Trained on 100 million words and still in shape: {BERT} meets {B}ritish {N}ational {C}orpus",
author = "Samuel, David and
Kutuzov, Andrey and
{\O}vrelid, Lilja and
Velldal, Erik",
editor = "Vlachos, Andreas and
Augenstein, Isabelle",
booktitle = "Findings of the Association for Computational Linguistics: EACL 2023",
month = may,
year = "2023",
address = "Dubrovnik, Croatia",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/2023.findings-eacl.146",
doi = "10.18653/v1/2023.findings-eacl.146",
pages = "1954--1974"
}
```
```bibtex
@misc{burchell2025expandedmassivemultilingualdataset,
title={An Expanded Massive Multilingual Dataset for High-Performance Language Technologies},
author={Laurie Burchell and Ona de Gibert and Nikolay Arefyev and Mikko Aulamo and Marta Bañón and Pinzhen Chen and Mariia Fedorova and Liane Guillou and Barry Haddow and Jan Hajič and Jindřich Helcl and Erik Henriksson and Mateusz Klimaszewski and Ville Komulainen and Andrey Kutuzov and Joona Kytöniemi and Veronika Laippala and Petter Mæhlum and Bhavitvya Malik and Farrokh Mehryary and Vladislav Mikhailov and Nikita Moghe and Amanda Myntti and Dayyán O'Brien and Stephan Oepen and Proyag Pal and Jousia Piha and Sampo Pyysalo and Gema Ramírez-Sánchez and David Samuel and Pavel Stepachev and Jörg Tiedemann and Dušan Variš and Tereza Vojtěchová and Jaume Zaragoza-Bernabeu},
year={2025},
eprint={2503.10267},
archivePrefix={arXiv},
primaryClass={cs.CL},
url={https://arxiv.org/abs/2503.10267},
}
```
|
HPLT/hplt_bert_base_2_0_fra-Latn
|
HPLT
| 2025-06-18T10:47:57Z | 37 | 0 | null |
[
"pytorch",
"BERT",
"HPLT",
"encoder",
"fill-mask",
"custom_code",
"fr",
"fra",
"dataset:HPLT/HPLT2.0_cleaned",
"arxiv:2503.10267",
"license:apache-2.0",
"region:us"
] |
fill-mask
| 2025-02-22T22:43:16Z |
---
language:
- fr
- fra
inference: false
tags:
- BERT
- HPLT
- encoder
license: apache-2.0
datasets:
- HPLT/HPLT2.0_cleaned
pipeline_tag: fill-mask
---
# HPLT v2.0 BERT for French
<img src="https://hplt-project.org/_next/static/media/logo-hplt.d5e16ca5.svg" width=12.5%>
This is one of the encoder-only monolingual language models trained as a second release by the [HPLT project](https://hplt-project.org/).
It is a so called masked language model. In particular, we used the modification of the classic BERT model named [LTG-BERT](https://aclanthology.org/2023.findings-eacl.146/).
We present monolingual LTG-BERT models for more than 50 languages out of 191 total in the [HPLT v2.0 dataset](https://hplt-project.org/datasets/v2.0).
All the HPLT encoder-only models use the same hyper-parameters, roughly following the BERT-base setup:
- hidden size: 768
- attention heads: 12
- layers: 12
- vocabulary size: 32768
Every model uses its own tokenizer trained on language-specific HPLT data.
[The training code](https://github.com/hplt-project/HPLT-WP4).
[The training statistics of all runs](https://api.wandb.ai/links/ltg/kduj7mjn)
## Example usage (tested with `transformers==4.46.1` and `tokenizers==0.20.1`)
This model currently needs a custom wrapper from `modeling_ltgbert.py`, you should therefore load the model with `trust_remote_code=True`.
```python
import torch
from transformers import AutoTokenizer, AutoModelForMaskedLM
tokenizer = AutoTokenizer.from_pretrained("HPLT/hplt_bert_base_2_0_fra-Latn")
model = AutoModelForMaskedLM.from_pretrained("HPLT/hplt_bert_base_2_0_fra-Latn", trust_remote_code=True)
mask_id = tokenizer.convert_tokens_to_ids("[MASK]")
input_text = tokenizer("It's a beautiful[MASK].", return_tensors="pt")
output_p = model(**input_text)
output_text = torch.where(input_text.input_ids == mask_id, output_p.logits.argmax(-1), input_text.input_ids)
# should output: '[CLS] It's a beautiful place.[SEP]'
print(tokenizer.decode(output_text[0].tolist(), clean_up_tokenization_spaces=True))
```
The following classes are currently implemented: `AutoModel`, `AutoModelMaskedLM`, `AutoModelForSequenceClassification`, `AutoModelForTokenClassification`, `AutoModelForQuestionAnswering` and `AutoModeltForMultipleChoice`.
## Intermediate checkpoints
We are releasing 10 intermediate checkpoints for each model at intervals of every 3125 training steps in separate branches. The naming convention is `stepXXX`: for example, `step18750`.
You can load a specific model revision with `transformers` using the argument `revision`:
```python
model = AutoModelForMaskedLM.from_pretrained("HPLT/hplt_bert_base_2_0_fra-Latn", revision="step21875", trust_remote_code=True)
```
You can access all the revisions for the models with the following code:
```python
from huggingface_hub import list_repo_refs
out = list_repo_refs("HPLT/hplt_bert_base_2_0_fra-Latn")
print([b.name for b in out.branches])
```
## Cite us
```bibtex
@inproceedings{samuel-etal-2023-trained,
title = "Trained on 100 million words and still in shape: {BERT} meets {B}ritish {N}ational {C}orpus",
author = "Samuel, David and
Kutuzov, Andrey and
{\O}vrelid, Lilja and
Velldal, Erik",
editor = "Vlachos, Andreas and
Augenstein, Isabelle",
booktitle = "Findings of the Association for Computational Linguistics: EACL 2023",
month = may,
year = "2023",
address = "Dubrovnik, Croatia",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/2023.findings-eacl.146",
doi = "10.18653/v1/2023.findings-eacl.146",
pages = "1954--1974"
}
```
```bibtex
@misc{burchell2025expandedmassivemultilingualdataset,
title={An Expanded Massive Multilingual Dataset for High-Performance Language Technologies},
author={Laurie Burchell and Ona de Gibert and Nikolay Arefyev and Mikko Aulamo and Marta Bañón and Pinzhen Chen and Mariia Fedorova and Liane Guillou and Barry Haddow and Jan Hajič and Jindřich Helcl and Erik Henriksson and Mateusz Klimaszewski and Ville Komulainen and Andrey Kutuzov and Joona Kytöniemi and Veronika Laippala and Petter Mæhlum and Bhavitvya Malik and Farrokh Mehryary and Vladislav Mikhailov and Nikita Moghe and Amanda Myntti and Dayyán O'Brien and Stephan Oepen and Proyag Pal and Jousia Piha and Sampo Pyysalo and Gema Ramírez-Sánchez and David Samuel and Pavel Stepachev and Jörg Tiedemann and Dušan Variš and Tereza Vojtěchová and Jaume Zaragoza-Bernabeu},
year={2025},
eprint={2503.10267},
archivePrefix={arXiv},
primaryClass={cs.CL},
url={https://arxiv.org/abs/2503.10267},
}
```
|
HPLT/hplt_bert_base_2_0_fao-Latn
|
HPLT
| 2025-06-18T10:47:38Z | 14 | 0 | null |
[
"pytorch",
"BERT",
"HPLT",
"encoder",
"fill-mask",
"custom_code",
"fo",
"fao",
"dataset:HPLT/HPLT2.0_cleaned",
"arxiv:2503.10267",
"license:apache-2.0",
"region:us"
] |
fill-mask
| 2025-02-22T22:42:47Z |
---
language:
- fo
- fao
inference: false
tags:
- BERT
- HPLT
- encoder
license: apache-2.0
datasets:
- HPLT/HPLT2.0_cleaned
pipeline_tag: fill-mask
---
# HPLT v2.0 BERT for Faroese
<img src="https://hplt-project.org/_next/static/media/logo-hplt.d5e16ca5.svg" width=12.5%>
This is one of the encoder-only monolingual language models trained as a second release by the [HPLT project](https://hplt-project.org/).
It is a so called masked language model. In particular, we used the modification of the classic BERT model named [LTG-BERT](https://aclanthology.org/2023.findings-eacl.146/).
We present monolingual LTG-BERT models for more than 50 languages out of 191 total in the [HPLT v2.0 dataset](https://hplt-project.org/datasets/v2.0).
All the HPLT encoder-only models use the same hyper-parameters, roughly following the BERT-base setup:
- hidden size: 768
- attention heads: 12
- layers: 12
- vocabulary size: 32768
Every model uses its own tokenizer trained on language-specific HPLT data.
[The training code](https://github.com/hplt-project/HPLT-WP4).
[The training statistics of all runs](https://api.wandb.ai/links/ltg/kduj7mjn)
## Example usage (tested with `transformers==4.46.1` and `tokenizers==0.20.1`)
This model currently needs a custom wrapper from `modeling_ltgbert.py`, you should therefore load the model with `trust_remote_code=True`.
```python
import torch
from transformers import AutoTokenizer, AutoModelForMaskedLM
tokenizer = AutoTokenizer.from_pretrained("HPLT/hplt_bert_base_2_0_fao-Latn")
model = AutoModelForMaskedLM.from_pretrained("HPLT/hplt_bert_base_2_0_fao-Latn", trust_remote_code=True)
mask_id = tokenizer.convert_tokens_to_ids("[MASK]")
input_text = tokenizer("It's a beautiful[MASK].", return_tensors="pt")
output_p = model(**input_text)
output_text = torch.where(input_text.input_ids == mask_id, output_p.logits.argmax(-1), input_text.input_ids)
# should output: '[CLS] It's a beautiful place.[SEP]'
print(tokenizer.decode(output_text[0].tolist(), clean_up_tokenization_spaces=True))
```
The following classes are currently implemented: `AutoModel`, `AutoModelMaskedLM`, `AutoModelForSequenceClassification`, `AutoModelForTokenClassification`, `AutoModelForQuestionAnswering` and `AutoModeltForMultipleChoice`.
## Intermediate checkpoints
We are releasing 10 intermediate checkpoints for each model at intervals of every 3125 training steps in separate branches. The naming convention is `stepXXX`: for example, `step18750`.
You can load a specific model revision with `transformers` using the argument `revision`:
```python
model = AutoModelForMaskedLM.from_pretrained("HPLT/hplt_bert_base_2_0_fao-Latn", revision="step21875", trust_remote_code=True)
```
You can access all the revisions for the models with the following code:
```python
from huggingface_hub import list_repo_refs
out = list_repo_refs("HPLT/hplt_bert_base_2_0_fao-Latn")
print([b.name for b in out.branches])
```
## Cite us
```bibtex
@inproceedings{samuel-etal-2023-trained,
title = "Trained on 100 million words and still in shape: {BERT} meets {B}ritish {N}ational {C}orpus",
author = "Samuel, David and
Kutuzov, Andrey and
{\O}vrelid, Lilja and
Velldal, Erik",
editor = "Vlachos, Andreas and
Augenstein, Isabelle",
booktitle = "Findings of the Association for Computational Linguistics: EACL 2023",
month = may,
year = "2023",
address = "Dubrovnik, Croatia",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/2023.findings-eacl.146",
doi = "10.18653/v1/2023.findings-eacl.146",
pages = "1954--1974"
}
```
```bibtex
@misc{burchell2025expandedmassivemultilingualdataset,
title={An Expanded Massive Multilingual Dataset for High-Performance Language Technologies},
author={Laurie Burchell and Ona de Gibert and Nikolay Arefyev and Mikko Aulamo and Marta Bañón and Pinzhen Chen and Mariia Fedorova and Liane Guillou and Barry Haddow and Jan Hajič and Jindřich Helcl and Erik Henriksson and Mateusz Klimaszewski and Ville Komulainen and Andrey Kutuzov and Joona Kytöniemi and Veronika Laippala and Petter Mæhlum and Bhavitvya Malik and Farrokh Mehryary and Vladislav Mikhailov and Nikita Moghe and Amanda Myntti and Dayyán O'Brien and Stephan Oepen and Proyag Pal and Jousia Piha and Sampo Pyysalo and Gema Ramírez-Sánchez and David Samuel and Pavel Stepachev and Jörg Tiedemann and Dušan Variš and Tereza Vojtěchová and Jaume Zaragoza-Bernabeu},
year={2025},
eprint={2503.10267},
archivePrefix={arXiv},
primaryClass={cs.CL},
url={https://arxiv.org/abs/2503.10267},
}
```
|
HPLT/hplt_bert_base_2_0_cym-Latn
|
HPLT
| 2025-06-18T10:46:06Z | 40 | 0 | null |
[
"pytorch",
"BERT",
"HPLT",
"encoder",
"fill-mask",
"custom_code",
"cy",
"cym",
"dataset:HPLT/HPLT2.0_cleaned",
"arxiv:2503.10267",
"license:apache-2.0",
"region:us"
] |
fill-mask
| 2025-02-22T22:41:15Z |
---
language:
- cy
- cym
inference: false
tags:
- BERT
- HPLT
- encoder
license: apache-2.0
datasets:
- HPLT/HPLT2.0_cleaned
pipeline_tag: fill-mask
---
# HPLT v2.0 BERT for Welsh
<img src="https://hplt-project.org/_next/static/media/logo-hplt.d5e16ca5.svg" width=12.5%>
This is one of the encoder-only monolingual language models trained as a second release by the [HPLT project](https://hplt-project.org/).
It is a so called masked language model. In particular, we used the modification of the classic BERT model named [LTG-BERT](https://aclanthology.org/2023.findings-eacl.146/).
We present monolingual LTG-BERT models for more than 50 languages out of 191 total in the [HPLT v2.0 dataset](https://hplt-project.org/datasets/v2.0).
All the HPLT encoder-only models use the same hyper-parameters, roughly following the BERT-base setup:
- hidden size: 768
- attention heads: 12
- layers: 12
- vocabulary size: 32768
Every model uses its own tokenizer trained on language-specific HPLT data.
[The training code](https://github.com/hplt-project/HPLT-WP4).
[The training statistics of all runs](https://api.wandb.ai/links/ltg/kduj7mjn)
## Example usage (tested with `transformers==4.46.1` and `tokenizers==0.20.1`)
This model currently needs a custom wrapper from `modeling_ltgbert.py`, you should therefore load the model with `trust_remote_code=True`.
```python
import torch
from transformers import AutoTokenizer, AutoModelForMaskedLM
tokenizer = AutoTokenizer.from_pretrained("HPLT/hplt_bert_base_2_0_cym-Latn")
model = AutoModelForMaskedLM.from_pretrained("HPLT/hplt_bert_base_2_0_cym-Latn", trust_remote_code=True)
mask_id = tokenizer.convert_tokens_to_ids("[MASK]")
input_text = tokenizer("It's a beautiful[MASK].", return_tensors="pt")
output_p = model(**input_text)
output_text = torch.where(input_text.input_ids == mask_id, output_p.logits.argmax(-1), input_text.input_ids)
# should output: '[CLS] It's a beautiful place.[SEP]'
print(tokenizer.decode(output_text[0].tolist(), clean_up_tokenization_spaces=True))
```
The following classes are currently implemented: `AutoModel`, `AutoModelMaskedLM`, `AutoModelForSequenceClassification`, `AutoModelForTokenClassification`, `AutoModelForQuestionAnswering` and `AutoModeltForMultipleChoice`.
## Intermediate checkpoints
We are releasing 10 intermediate checkpoints for each model at intervals of every 3125 training steps in separate branches. The naming convention is `stepXXX`: for example, `step18750`.
You can load a specific model revision with `transformers` using the argument `revision`:
```python
model = AutoModelForMaskedLM.from_pretrained("HPLT/hplt_bert_base_2_0_cym-Latn", revision="step21875", trust_remote_code=True)
```
You can access all the revisions for the models with the following code:
```python
from huggingface_hub import list_repo_refs
out = list_repo_refs("HPLT/hplt_bert_base_2_0_cym-Latn")
print([b.name for b in out.branches])
```
## Cite us
```bibtex
@inproceedings{samuel-etal-2023-trained,
title = "Trained on 100 million words and still in shape: {BERT} meets {B}ritish {N}ational {C}orpus",
author = "Samuel, David and
Kutuzov, Andrey and
{\O}vrelid, Lilja and
Velldal, Erik",
editor = "Vlachos, Andreas and
Augenstein, Isabelle",
booktitle = "Findings of the Association for Computational Linguistics: EACL 2023",
month = may,
year = "2023",
address = "Dubrovnik, Croatia",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/2023.findings-eacl.146",
doi = "10.18653/v1/2023.findings-eacl.146",
pages = "1954--1974"
}
```
```bibtex
@misc{burchell2025expandedmassivemultilingualdataset,
title={An Expanded Massive Multilingual Dataset for High-Performance Language Technologies},
author={Laurie Burchell and Ona de Gibert and Nikolay Arefyev and Mikko Aulamo and Marta Bañón and Pinzhen Chen and Mariia Fedorova and Liane Guillou and Barry Haddow and Jan Hajič and Jindřich Helcl and Erik Henriksson and Mateusz Klimaszewski and Ville Komulainen and Andrey Kutuzov and Joona Kytöniemi and Veronika Laippala and Petter Mæhlum and Bhavitvya Malik and Farrokh Mehryary and Vladislav Mikhailov and Nikita Moghe and Amanda Myntti and Dayyán O'Brien and Stephan Oepen and Proyag Pal and Jousia Piha and Sampo Pyysalo and Gema Ramírez-Sánchez and David Samuel and Pavel Stepachev and Jörg Tiedemann and Dušan Variš and Tereza Vojtěchová and Jaume Zaragoza-Bernabeu},
year={2025},
eprint={2503.10267},
archivePrefix={arXiv},
primaryClass={cs.CL},
url={https://arxiv.org/abs/2503.10267},
}
```
|
zhefeigong/carp
|
zhefeigong
| 2025-06-18T10:45:56Z | 0 | 1 | null |
[
"robot learning",
"visuomotor-policy-learning",
"generative models for robotics",
"arxiv:2412.06782",
"license:mit",
"region:us"
] | null | 2025-03-05T03:06:06Z |
---
tags:
- "robot learning"
- "visuomotor-policy-learning"
- "generative models for robotics"
license: mit
---
<div align=center>
<h1>
CARP: Visuomotor Policy Learning <br>
via Coarse-to-Fine Autoregressive Prediction
</h1>
<h4 align="center">
<a href='https://zhefeigong.github.io/'>Zhefei Gong</a><sup>1</sup>,
<a href='https://dingpx.github.io/'>Pengxiang Ding</a><sup>12</sup>,
<a href='https://scholar.google.com/citations?user=3_DtxJ8AAAAJ&hl=zh-CN'>Shangke Lyu</a><sup>1</sup>,
<a href='https://kyonhuang.top/'>Siteng Huang</a><sup>12</sup>,
<a href='https://github.com/ZhefeiGong'>Mingyang Sun</a><sup>12</sup>,
<a href='https://github.com/ZhefeiGong'>Wei Zhao</a><sup>1</sup>,<br>
<a href='https://zhaoxinf.github.io/'>Zhaoxin Fan</a><sup>3</sup>,
<a href='https://en.westlake.edu.cn/faculty/donglin-wang.html'>Donglin Wang</a><sup>1✉</sup>
<sup>1</sup>Westlake University, <sup>2</sup>Zhejiang University, <br>
<sup>3</sup>Beijing Advanced Innovation Center for Future Blockchain and Privacy Computing
</h4>
<!-- <a href='https://carp-robot.github.io/'><img src='https://img.shields.io/badge/Project-Homepage-green'></a>
-->
</div>
## 👀 Overview
<p align="center"> <img src="asset/framework.png" width="1000" align="center"> </p>
> **TL;DR**: introduce **C**oarse-to-**F**ine **A**uto**R**egressive Policy (**CARP**), a novel paradigm for visuomotor policy learning that redefines the autoregressive action generation process as a **coarse-to-fine**, next-scale approach.
<p align="center"> <img src="asset/comparison.png" width="1000" align="center"> </p>
> The left panel shows the final predicted trajectories for each task, with CARP producing smoother and more consistent paths than Diffusion Policy (DP).
The right panel visualizes intermediate trajectories during the refinement process for CARP (top-right) and DP (bottom-right).
DP displays considerable redundancy, resulting in slower processing and unstable training, as illustrated by 6 selected steps among 100 denoising steps.
In contrast, CARP achieves efficient trajectory refinement across all 4 scales, with each step contributing meaningful updates.
## 🙏 Acknowledgment
We sincerely thank the creators of the excellent repositories, including
[Visual Autoregressive Model](https://github.com/FoundationVision/VAR),
[Diffusion Policy](https://github.com/real-stanford/diffusion_policy),
and [Sparse Diffusion Policy](https://github.com/AnthonyHuo/SDP),
which have provided invaluable inspiration.
## 🏷️ License
This repository is released under the MIT license. See LICENSE MIT for additional details.
## 📌 Citation
If our findings contribute to your research, we would appreciate it if you could consider citing our paper in your publications.
```bibtex
@misc{gong2024carpvisuomotorpolicylearning,
title={CARP: Visuomotor Policy Learning via Coarse-to-Fine Autoregressive Prediction},
author={Zhefei Gong and Pengxiang Ding and Shangke Lyu and Siteng Huang and Mingyang Sun and Wei Zhao and Zhaoxin Fan and Donglin Wang},
year={2024},
eprint={2412.06782},
archivePrefix={arXiv},
primaryClass={cs.RO},
url={https://arxiv.org/abs/2412.06782},
}
|
adugeen/authorship-e5-small-v2
|
adugeen
| 2025-06-18T10:45:36Z | 0 | 0 |
sentence-transformers
|
[
"sentence-transformers",
"safetensors",
"bert",
"sentence-similarity",
"feature-extraction",
"generated_from_trainer",
"dataset_size:276686",
"loss:MultipleNegativesRankingLoss",
"arxiv:1908.10084",
"arxiv:1705.00652",
"base_model:intfloat/multilingual-e5-small",
"base_model:finetune:intfloat/multilingual-e5-small",
"model-index",
"autotrain_compatible",
"text-embeddings-inference",
"endpoints_compatible",
"region:us"
] |
sentence-similarity
| 2025-06-18T10:43:25Z |
---
tags:
- sentence-transformers
- sentence-similarity
- feature-extraction
- generated_from_trainer
- dataset_size:276686
- loss:MultipleNegativesRankingLoss
base_model: intfloat/multilingual-e5-small
widget:
- source_sentence: 'query: Печенеги отступали. Они могли запросто убить оставшегося
позади князя Владимира, мальчишку и старика, но получили приказ - уходить. Куря
- печенежский хан, проигравший бой с князем, был смертельно ранен.
Воины забрали его и вернулись на прежнее место стоянки, где были оставлены обозы
с провиантом и разбит временный лагерь. Гийяр не отходил от отца ни на шаг, надеясь
не то на чудо, не то на лекарей. Ведь кроме него у мальчишки никого не было. Мать
он потерял ещё совсем крохой.
Куря был властным и жестоким правителем. К сыну относился хорошо, но никогда не
баловал. Для Гийяра отец всегда был идеалом, многие завидовали его решимости и
хитроумию. "Власть держится на страхе" - часто говорил он. Но теперь он находился
между жизнью и смертью. И чёрная чаша весов была намного тяжелее...
Великий хан умер ночью, не приходя в сознание.
Парень понимал, что вынужден стать следующим ханом, ведь по линии отца у него
больше родственников не было. Но это значило одно. Снова совершать набеги на Киев
и Новгород, продолжать дело Кури, а значит - обернуться против своих друзей, поступить
подло по отношению к князю, Алекше и Оленьке. А есть ли у него выбор?
Да. И сейчас это его выбор. Отец не подскажет ему, не поможет, не укажет верный
путь. Да и не послушал бы Гийяр его. Он никогда не сможет стать таким жестоким,
как отец. Но теперь мальчик понимал, откуда тот черпал свою ненависть, злость,
обиду и жажду крови. У него никогда не было настоящего друга, который смог бы
подставить плечо, дать дружеский совет. Несмотря на орды подчинённых ему печенегов
и хазар, отец был одинок. Не ставил никого рядом с собой, унижал, жестоко наказывал
воинов, заслужив тем самым "страх и уважение". Так считал он сам. И такой позиции
придерживались печенеги...
А Гийяр? Алекша спас ему жизнь, не зная, что тот враг. А когда узнал, разве захотел
убить его? Ведь печенеги сожгли его деревню и убили дедушку.
Но Гийяр не мог понять, как вообще такое возможно. То ли христианину так и полагается,
молча переносить все невзгоды, что посылает ему судьба, то ли русский дух настолько
силён, что не может опускаться до мести. Не понимал..., а жажда мести разгоралась
в его душе. Оленька... Храбрая девчушка с чёлкой и длинной светлой косой... Нет!
О ней даже не думай!
Он должен наказать убийцу отца, даже если тот сам, обманутый Кривжей, ввязался
в бой. И тут же сердце возражало. "Так нельзя".
Ты ведь уже принял решение. Там, на поле боя, когда отец проиграл. Ты остановил
разъяренных печенегов, готовых разорвать ненавистного князя Владимира. А чудной
дед и мальчишка? Помешали бы они этому? Нет.
Разве парень мог сказать такие слова?
Перед глазами снова появляется та картина.
Молодой князь ударил Курю мечом и выбил из седла. Мальчик бросается к отцу. Орда
печенегов уже не сдерживает коней, рвущихся к бою. Ещё секунда, и они сорвутся
с места. Поляна обагрится кровью.
"Нет! -останавливает их Гийяр. - Это был честный поединок. Уходим!"
Воины нехотя, но послушно разворачивают коней.
Почему они послушали его? Он ведь не хан. Ответ один. Они доверяют ему. Как и
его отцу.
Так что же делать?
Глупый мальчишка. Ты всё решил. Ты возглавишь печенежский союз племён, но не посмеешь
напасть на Киевскую Русь.
Гийяр вышел из шатра. Кругом, куда не посмотри выстроилось войско. В ожидании
молодого хана они перешёптывались, спорили, ругались. Но тут все разом замолчали.
Они были готовы услышать решение Гийяра.
- Слушайте! Печенеги- свободные воины! -голос мальчика не дрогнул.- Вы можете
следовать за мной, а можете примкнуть к кангарам! Я же считаю, что мы должны разбить
половцев, которые давно зарятся на наши земли! Кто со мной?!
Ответом было одобрительное и дружное "Ура!"
Печенеги ушли с русской земли, но не навсегда. Через какое-то время они вернулись
с новым ханом, чтобы ввязаться в междоусобную войну между Ярославом Мудрым и Святополком
Окаянным, на стороне последнего.'
sentences:
- 'query: http://vk.com/audio?performer=1&q=Hollywood%20Undead%20Coming%20Back%20Down
Пустые улицы большого города, что освещались утренним солнцем. На переулках встречались
редкие прохожие, которые с удивлением смотрели на полураздетого парня, шагающего
вдоль улиц Магнолии.
"Сумасшедший,"- подумают многие, но разве это неправда? Нет, это, правда, это
чистейшая, правда, которая с каждым днём гложет его душу. Он был сумасшедшим до
того как она пришла в его жизнь, и остался таким после того как она ушла...
Каждый день, прогуливаясь по улицам утреннего города, он с улыбкой на губах, и
с грустью в глазах вспоминал все моменты, когда она ходила вместе с ним. Каждый
раз, ему чудилось, что она с ним, что она не оставила его, но это ведь неправда,
или правда? Что за чушь? Конечно, же, она уже не с ним, она там далеко наверху
от них...
Он всегда слушал её звонкий, но одновременно робкий голос, от которого так и хотелось
прижать к себе и не отпускать никогда, но он отпустил, туда, от, куда не возвращаются....
И теперь, её голос постепенно растворяется из его мыслей.
С ней, он чувствовал, что он не такой как все, с ней, он мог быть особенным, но
зачем теперь быть таким, если её нет? Теперь, он лишь одно лицо, в той толпе,
что окружила его. Возможно, его и заметят, но точно не как личность, его знала
лишь она, но она ушла...
Someday, someday
Но когда-нибудь, когда-нибудь
I know you''re coming back
Я знаю, ты вернешься...
Строчки сами всплыли у него в голове. Песня, которую он услышал недавно по радио,
всегда преследовала его. Не важно где, на улице, в метро, в машине, или дома,
он всегда вспоминал её... Ту, что изменила его жизнь, и ту, которая сейчас очень
далеко от него...
Шагая по улицам просыпавшегося города, он невольно прошёл-то место, где она покинула
этот мир. Воспоминания нахлынули его, но он попытался их отогнать, но разве это
возможно? Нет... Он это знал, но всё же противится судьбе. Какая ирония, не правда
ли?
Грязная улица, в старом районе Магнолии, насквозь была пропитана кровью, куревом,
и алкоголем. Она ведь предлагала уйти, а он не послушался её. Глупец. Маленький
наивный глупец, который ничего не боится, хотя всё совсем наоборот...
Маньяк, от которого они бежали, был пропитан безумством, но разве безумством называют
алкоголь? Кто знает, кто знает... А жертвы, пьяного человека, прибежали в какую-то
улочку, из которой убежать невозможно, или тупик... Одно всего лишь слово, а сколько
паники оно приносит... Пятясь, они встали, во что-то похожее не грязь, или это
и была грязь? Кто знает, кто знает... Замахнувшись, маньяк направил перечный ножик
на парня, и кинул его. Банально да? Но девушка, успела встать перед ним, и по
этому, удар пришёлся прямо в живот.
Что было дальше, парень помнил смутно, но было очевидно, на его глазах, за него
умерла его Джувия. Странно, да? Вроде бы должно быть наоборот, а получилось так.
На его руках, была её кровь, а он видимо потерял сознание...
Теперь, мир слишком серый, хотя нет, он кроваво-красный, такой же, как и её любимый
цвет. Странно да? Любит дождь, но любимый цвет красный... Но разве имеет ли это
значение, если Джувия ушла со сцены, навсегда? Возможно, это и был её час, а может
быть, она жила бы ещё дольше, но всё же прошла мимо, так же, как и всё хорошее,
в этом алчном мире...
И этот факт, заставил его повзрослеть, и принять реальность со всеми её составляющими...
Трудно, было лишь по началу, а сейчас он привык, и даже вполне справляется, но
что-то поменяется, и это, что-то произойдёт слишком быстро...
Она никогда не задумывалась, о том, будут ли её помнить, или не заплачут ли они,
когда она умрет, нет, у неё даже мыслей таких не было, ведь ты была в своих мечтах.
Думала, что будешь жить вечно, как бог, или дьявол. Она думала, что тебя не пробьёт
никакая пуля, но всё же ошиблась... Простой ножик отнял твою жизнь, и знаешь,
я не жалею об этом, ведь, ты всегда была с крыльями, как у ангела, хоть ты не
всегда была счастлива, пока, в твоей жизни не запели посланники Божьи...
И снова, его пробирает дрожь, он думает, что сейчас она подбежит, сзади, и, закрыв
глаза, скажет "Угадай кто?" И ты как обычно просто скажешь с улыбкой "Джувия.
Моя Джуви." И темноволосый поклянётся, всем богам, что она смущается от его слов.
Ведь это правда...
Будние дни потихоньку вытесняют её голос из его головы, а сам он погружается,
в суету города. Возможно, он забудет её, найдёт другую, и они заживут счастливо,
или будет одинок всё жизнь, вспоминая её. Кто знает, чем закончится эта история,
но однажды они встретятся. Через сто лет, через века, тысячелетия, не важно...
Они встретятся, и это главное....
А пока, темноволосый скажет лишь одно предложение, и с ухмылкой пойдёт в сторону
дома...
- Кода же ты спустишься, Джуби?
Всего лишь за несколько секунд, мир может поменяться, до неузнаваемости. Берегите
это время, и возможно, в будущем время само преподнесет вам подарок...'
- 'query: Больно... Слишком больно... Больно каждое мгновение, каждый вздох причиняет
просто немыслимую боль. А она лежит совсем рядом, бездыханная. Вокруг люди, но
он их просто не видит. Он видел как она умерла, она смотрела прямо на него в этот
момент и хотела поцеловать.
"Magic can do much, but not death".
Он отгородился от всего вокруг, осталась только боль. И вдруг вспышка ярости,
а перед его взором гаснущие глаза Белль. Ярость заставила его подняться с колен
и направиться к убийце. При ходьбе, в ноге проснулся вулкан, но это было уже не
важно. Боль в душе заглушала все остальное.
"Она умерла из-за меня".
Он подошел к убийце, тот лежал на земле и ухмылялся. Он выполнил свою месть и
был собой доволен. Мужчина с яростью начал душить убийцу своей тростью, но ухмылка
не сходила с его лица. Голда пытались оттащить, но ярость придала ему огромную
силу, и вскоре глаза пирата погасли. Но Голду не стало от этого легче, он лишь
почувствовал, что предал ее веру. Убив Белль, пират убил все человеческое в Голде,
остался только монстр. Монстр с разбитым сердцем.
Эмма хотела надеть на него наручники, но не смогла. Импульсом он отбросил ее и
ее родителей от себя. Его кожа начала меняться, и одежда также вмиг переменилась.
Совершив убийство, он снова стал крокодилом, безжалостным Румпельштильцхеном.
Он снова подошел к Белль и упал перед ней на колени. Он смотрел на ее холодное
лицо и просто не мог поверить, что ее теплые глаза не посмотрят с нежностью на
свое чудовище. Из груди вырвался жуткий нечеловеческий крик, будто он звал душу
любимой, но она не откликалась.
И снова ярость, безумная ярость и слезы. Она виновата лишь в том, что влюбилась
в чудовище, подарила ему счастье. Но ее смерть забрала все.
Было совсем не так, как тогда в замке. Тогда он хотя бы знал, что его принцесса
в порядке, теперь...
Слишком больно...
Румпельштильцхену не хотелось ступить за черту города и все забыть. Он не мог
забыть свою принцессу, хоть воспоминания и приносили страдания. Он хотел просто
умереть рядом с той девушкой, которая забрала его сердце.'
- 'query: До этого момента я ничего не чувствовал. Пустота и темнота. После того,
как эта тварь вцепилась мне в шею я успел мысленно со всеми попрощаться и был
готов к смерти. Но это была не она. На том свете не может быть так неопределенно
и темно. Значит, я все ещё жив. А раз так, я скоро выберусь отсюда...
По телу словно прошел электрический разряд. Я вздрогнул и распахнул глаза.
Честно признаться, я даже не сразу понял где нахожусь. И в данный момент меня
это совсем не тревожило, потому, что перед собой я увидел знакомое лицо мага.
Единственный, кто мне нравился после Джейса и с первого взгляда сумел заполучить
моё сердце. Да, это несомненно был он. За столькие годы впервые в стенах института
кто-то кроме сумеречных охотников.
- Магнус Бейн, - с максимальной холодностью, какая только возможна в данной ситуации,
прокомментировал очевидное я.
Так уж принято у нас, охотников. Не кинусь же я к нему на шею с поцелуями и фразочками
примитивных типа: "О, привет! Давненько не виделись. Я так скучал".
Чисто физически в данный момент я и не мог себе такого позволить. Да и видел я
мага всего во второй раз в своей жизни. Но, черт возьми, этого было достаточно,
чтобы подцепить меня на крючок как глупого карася!
- Александр Лайтвуд, - снисходительно улыбнулся Магнус.
Похоже после долгой отключки у меня начала кружиться голова, но это показалось
даже приятно.
Я открыл было рот чтобы задать вопрос, но гость опередил меня.
- Только не спрашивай, что я здесь делаю, - он прожег меня взглядом медовых глаз.
- Ходж переживал за твою жизнь и, как я вижу, не напрасно.
Это было именно то, что я и хотел спросить. Если он умеет читать мысли - это весьма
плачевно. Предпочитаю держать свои мысли при себе.
Бейна снова что-то развеселило и он криво улыбнулся отворачиваясь от меня. Это
подтвердило мои догадки.
- Ладно, не буду тебя смущать, - маг поднялся. - Ты еще слишком слаб и отдых лишним
не будет.
Магнус сделал странное движение похожее на полупоклон и направился к двери.
"Нет, так просто ты от меня не уйдешь".
Мне действительно хотелось, чтобы он побыл рядом, чтобы не уходил так быстро.
Он мне нравился, насколько можно судить по одной мимолетной встрече глазами. Хотя
я не готов был признаться в этом даже себе.
- Я нормально себя чувствую, - не своим голосом заметил я, провожая мага взглядом.
Тот не остановился. - Бейн! - снова никакой реакции. - Стой! - в яростном бессилии
я ударил рукой по кровати и мгновенно вернувшаяся боль заставила меня стиснув
зубы едва слышно простонать.
Маг замер.
- Хочешь, чтобы я остался? - в его словах я услышал весьма недвусмысленный намек.
- Я нужен тебе?
Фигура в черной мантии развернулась ко мне. Бейн вскинул бровь ожидая ответа.
- Ой, иди к дьяволу! - психанул я, неожиданно даже для самого себя, но пути назад
уже не было.
- ...
- Убирайся, - процедил я сквозь зубы, в душе умоляя его не слушать моих слов.
- Ладно, - примирительно тряхнул головой Магнус. - Прости.
Он вернулся к моей койке.
Я смерил его сердитым взглядом и "совершенно случайно" встретился с прекрасными
глазами. Его взор проникал прямо в душу, заставлял подчиняться воле хозяина.
Другого описания я бы дать не смог, но может только на меня он так действовал.
- У тебя тоже красивые глаза, - сделал комплимент он.
- Хватит! - я прикусил губу, чувствуя, как краска приливает к моему лицу.
- Да, извини, - опомнился Магнус. - Я понял, что тебе это не нравится. Что ж,
придется играть по твоим правилам. - Бейн пожал плечами и весьма глупо улыбнулся.
Мне осталось только покачать головой.
- Там, на вечеринке вампиров... - я замялся, - Как ты узнал, что я... гей?
- Глупый вопрос, не находишь? - сладко улыбнулся он, в то время как его обволакивающий
голос в очередной раз взял меня в свой плен.
- Да, пожалуй. - поспешно ответил я, и добавил как-бы между прочим, - Как ты меня
тогда назвал?
- Жгучей бестией, - маг будто ждал этого вопроса.
Я скорчил скептическую физиономию, а вот Бейн выпрямился и посерьезнел.
И неожиданно положил руку на мою ладонь, заставив меня невольно напрячься.
- Знаешь ли, - откровенно признался он, - я не занимаюсь благотворительностью
и не спасаю от смерти сумеречных охотников...
На секунду он замолчал, видимо размышляя, стоит ли продолжать признание или лучше
забить пока не поздно.
Я чуть наклонил голову в знак крайней заинтересованности и маг, вздохнув, продолжил.
- Мне было наплевать на просьбу Ходжа и поначалу я отказал ему... Но... после
того как он назвал мне имя... Будь на твоем месте кто-то другой, меня бы здесь
не было.
Магнус пронзил меня взглядом. И тут я решился.
- Мог бы сформулировать проще, - заметил я.
- В смысле?
- Ты мне тоже небезразличен.
Плечи мага затряслись от смеха.
- Что на этот раз не так? - возмутился я освобождая руку.
- Ты тоже не очень красноречив. Но не беда. Я не беседовать сюда пришел.
Бейн провел ладонью по моей щеке, отчего меня бросило в жар, потом наклонился
и осторожно коснулся моих губ.
Я подался было вперед требуя большего, но тот неожиданно отстранился.
- Что опять? - недовольно закатил глаза я.
- Мне нравится тебя злить, - признался Магнус скривив столь желанные губы в усмешке.
- Ты такой сексуальный, когда заводишься.
- Ты просто пользуешься моей дееспособностью. Если бы я мог подняться...
Маг не дал мне закончить угрозу и с новой страстью накрыл мои губы своими. На
этот раз я превозмогая боль обхватил руками его шею и сильнее притянул его к себе.
Тот слегка улыбнулся не прерывая поцелуя. Моя голова продолжала кружиться.
Наконец, тяжело дыша, Бейн отстранился.
- Пока ты в таком состоянии, на большее не рассчитывай, - с улыбкой пригрозил
он.
- Можно подумать, ты делаешь мне одолжение. - принял вызов я. - Тебе это нужно
не меньше.
- Ты наглеешь прямо на глазах, - вынес вердикт маг.
- Ты ещё плохо меня знаешь.
- Тогда до скорой встречи. Признаюсь, буду скучать, - Магнус Бейн уже во второй
раз за этот вечер направился к двери. И на этот раз я его не останавливал.
- Да, я тоже, - выдохнул я жалея, что не вижу сейчас его лица.
Дверь за Бейном закрылась. Я остался один и через пару минут вновь отключился.
С того дня минули почти два месяца. Я старался не думать о возможностях встречи
с магом. Чтобы первым делать шаг навстречу я был слишком горд... Или стеснителен,
но все-же многое в моей жизни изменилось после нашей встречи. В первую очередь,
я стал по-другому смотреть на Джейса. Он не привлекал меня так как раньше, хотя
несомненно все же нравился. Однако фантазии мои занимал исключительно этот высокомерный
и эпатажный тип - Магнус Бейн. Даже если я пытался мысленно послать его к черту
и выкинуть из головы, со временем все больше убеждался, что это невозможно.
- Алек, ты здесь? - в дверях появился Джейс.
- Что случилось? - я не оглянулся на него: не хотел видеть.
"Правда?"
- Ходж сказал - вечером отправляемся на охоту. Ты с нами?
- Естественно, что за вопросы?
- Просто ты выглядишь усталым, - с сочувствием заметил парень.
"Будто тебя это волнует", - с горечью подумал я.
- Тебе кажется.
Повисло напряженное молчание. Я хотел, чтобы он ушел. Впервые в жизни я не хотел
с ним разговаривать. С человеком, которого ещё недавно мечтал затащить в постель.
Боже!
- Слушай, - он вошёл в комнату и прикрыл за собой дверь, - мы же друзья... мы
братья. Если у тебя какие-то проблемы, ты не должен держать их в себе. Поговори
с нами. Со мной. Я уверен, что вместе мы легко справимся с твоей... депрессией.
Джейс положил руку на мое плечо. Раньше он часто так делал и мне это нравилось,
но сейчас его вмешательство в мою личную жизнь лишь нагнетало ситуацию. В последнее
время я всеми силами пытался унять уже много лет мучившие меня чувства к приёмному
брату. Бейн должен быть уверен в том, что кроме него мне никто не нужен.
- Нет у меня никаких проблем, я просто хочу побыть один. Ты можешь оставить меня
в покое? - как можно мягче постарался сказать я.
"Вообще-то он хочет помочь. Не его вина, что я гей".
- Я понимаю твои чувства... - осторожно начал он.
- Нет, - отрезал я, вдруг оглянувшись на него.
Тот даже отступил назад.
- Ты не понимаешь меня, а я не понимаю вас с Клэри. Это вполне логично, это совершенно
разные чувства и никто не винит тебя в моих переживаниях, но я разберусь с ними
сам. Я знаю чего хочу.
- Хорошо, - Джейс опустил глаза.
Никогда за ним такого не наблюдал.
- Твое дело, - пожал плечами он и, выйдя за дверь, вновь оставил меня в одиночестве.
Не знаю, сколько времени я простоял так размышляя, правильно ли поступил и не
обидел ли чувства брата.
Дверь в комнату открылась. Я решил, что Джейс вернулся, бросил на него недовольный
взгляд и... замер в изумлении.
На пороге стоял Магнус Бейн, одетый, как и всегда, в лучших своих традициях: в
серых облегающих брюках с заниженной талией и усыпанным блестками широким ремнем,
белой майке и кожаной куртке с бессчетным количеством цепей и заклепок. Броский
макияж составлял темную подводку глаз сверху и золотисто-перламутровую, потолще,
снизу.
Я понимал, что нужно как-то поприветствовать гостя, но, будто проглотив язык,
продолжал безмолвно пялиться на него.
- Пришел проверить, как ты себя чувствуешь, - без лишних формальностей сообщил
Бейн.
"Мое сердце упало на пол и откатилось к его ногам, оставляя кровавую полосу".
- Если бы ты хотел проверить как я себя чувствую - пришёл бы раньше. - с нотками
обиды ответил я. - Тебе просто заняться нечем? Решил прогуляться до института?
- А мог бы вообще не придти, - заметил маг.
Такая перспектива меня совершенно не вдохновила.
- У меня тоже есть чувства, Алек. Я мог колебаться, сомневаться, правильно ли
поступаю и хочу ли этого на самом деле. - Магнус подошел ближе и остановился напротив
меня.
Я стоял опустив голову и потупив взгляд. Кто я такой, чтобы обвинять его в чем-то?
Эгоист. Всё это время, страдая и мечтая о встрече, я ни на секунду не задумался
о том, что чувствует он. С каким трудом ему дается признание самому себе. У него
тоже есть гордость, на которую ему пришлось наступить, чтобы явиться сюда. Ко
мне. Снова.
- Ты бы сам ко мне ни за что не пришел, - снова в точку.
"Да".
- Прости, - шепчу едва различимо.
Маг изучает меня кошач'
- source_sentence: 'query: А если бы мы встречали Новый Год вместе, м?
Знаешь, я бы не хотела, что бы мы проводили его в гостях у кого-то из нас, нет.
Это была бы беготня, еще и суета, готовка и прочее, а это немного не то, чего
бы я хотела, это не то самое, не идеальное-неидеальное-простое-непростое. Может,
если бы нас какими-то силами свыше пустили к друзьям, то мы бы посидели, пообщались
бы. Это было бы классно, знаешь? Просто сидеть и говорить то, что хочешь, а потом
мы пошли бы в комнату, взяв что-то из выпивки и вкусностей. То, что выбрала бы
ты, ведь знаешь - я не умею пить. Бейлиз, может? И я либо не выпью больше глотка,
либо выпью очень много. Я люблю шоколад с не очень давних пор. Мы сели бы на кровать,
а ты сняла бы свои каблуки, высокие и очень крутые, жалуясь мне на усталость и
боль от них. Я пожалела бы, но все-таки не смога бы удержаться и не позлорадствовать
о том, что на мне балетки. Может, даже просто носки, раз уж у друзей. Ты положила
бы ноги на кровать, возможно, согнула бы их в коленях, и это выглядело бы очень
мило в роскошном платье. Нам было бы очень жарко, но, знаешь, не из-за того, что
мы рядом или что-то в этом роде, нет, а просто из-за того, что сумбурный и иногда
многолюдный Новый Год всегда так поступает. А ведь, казалось бы, зимний праздник.
Я бы хотела держать тебя за руку, ведь я люблю твои малюсенькие ручки, как у ребенка,
разве что со взрослым маникюром и взрослыми кольцами, которые так мешают сжимать
крепко руку. И ты бы разрешила, ведь так? Хах, возможно ты бы даже колола меня
своими большими ногтями, мы бы начали щекотать друг друга, в этом я уверена, а
ведь и так жарко, эх. Волосы растрепанные, мокрые от пота, фу. Но классно.
Мы болтали бы всю ночь, мы же любим это дело, да? Может, мы вспоминали бы что-то
из наших старых приколов в интернете, вспоминали бы наше общение до того, как
между нами началось зарождаться что-то большее, чем "Привет, кло*, как дела? Норм,
а ты?". Мы бы, думаю, посидели в гаджетах, посмотрели бы фотографии. Если бы у
меня попадалось что-то такое, чего не хотелось бы показывать тебе - неудачное
фото, к примеру - я начала бы прятать телефон, а ты пыталась бы отнять, чтобы
все-таки посмотреть. И наоборот. А под утро мы уснули бы.
И, знаешь, мы когда-то называли себя парой. Мы никогда не были парой, хах? Чертовски,
чертовски глупо. Но кто мы тогда? А никто не знает, ведь, как сказала как-то раз
ты, моя любимая ванилька и любительница статусов, "Определить - значит, ограничить".
Это, вроде, Оскар Уайльд, мне он нравится.
*производное от "клон", аналог "бро". Смысл в том, что было много общего.
Описать прогулку? Пусть это будет лето. Жарки Питер, м? Очень жаркий, как в прошлом
году, когда дышать было нечем, и я буквально купалась в Неве и ходила так мокрой
по городу. В Бургер Кинге на это даже не особо обратили внимание, как я помню
- понимали. Мы бы вышли из дома и поехали бы к метро на маршрутке. На маршрутке,
так как мы бы просто не выжили после сорокаминутной ходьбы от моего дома до метро,
хоть я уже и проходила через такое. И это ужасно. В метро мы купили бы жетоны
и немного поспорили бы по поводу питерских жетонов и московских карточек, я одержала
бы победу. Ведь, знаешь, жетоны в замкнутом кругу, их не нужно особо производить.
Карточки же одноразовые, они выкидываются и приходится производить новые. Мы бы
закончили на этом и продолжали бы шутить на тему "вражды" Питера и Москвы - наше
любимое. И, знаешь, Питер лучше. Войдя в вагон, мы бы сели, так как станция, на
которой живу, почти что конечная. Кто-то из нас положил бы голову на плечо другой,
это было бы очень мило и, возможно, неудобно. В пользу своего метро ты бы еще
сказала, что у вас есть WiFi и бесконечная ветка. Я бы согласилась, так как тоже
так считаю. Слишком много о метро, не так ли, хах?
Мы вышли бы на нужной станции и умирали бы от жары, таскаясь с сумками. Войдя
в ТЦ Галерея (он у нас большой и многолюдный, я его называю "местом всех встреч"),
мы бы, думаю, направились на предпоследний этаж к фудкорту. Мы бы долго решали,
где мы будем есть, хотя... нет, нет, недолго. Ты бы все взяла в свои руки и потащила
бы к... не к Макдональду, не захотела бы ты стоять в очереди. Может, блинчики
или крошка-картошка? Не знаю. Возможно, мы выбрали бы Бургер Кинг или KFC, ведь
там можно энное количество раз наливать воду. Взяли бы один стакан на двоих и
налили бы спрайт, наш особенный напиток. У нас были бы в нем две трубочки. А еще,
мы мыкали бы от удовольствия, попивая блаженный и, главное, холодный спрайт. Это
было бы мило, мы даже сказали бы это вслух. Доев, мы бы набрали еще раз полный
стакан спрайта и пошли бы ходить по торговому комплексу. Представим, что у нас
много денег с собой, м? Мы бы зашли рядом с едой в отдел, где много сладостей:
леденцов, мармеладок, карамелек, жвачек, сладких "лент", конфет. Набрали бы много-много
всего, чтобы потом ходить по магазином и есть это все. Мы взяли бы еще чего-нибудь
для моей племянницы, которая обязательно спросила бы: "А что вы мне купили?".
Мы ходили бы по отделам, я люблю "H&M" и "RESERVED" и не люблю "Zara". Хотя, скорее
всего, именно ее ты больше всех и любишь. Но мне было бы жутко скучно в ней.
Я купила бы себе футболок, а ты обуви. Я знаю, как ты любишь обувь. Я постоянно
бы нападала на клетку, вспоминая Винчестеров*, ты бы тоже со мной шутила на эту
тему, только без лишнего фанатизма и посмеиваясь надо мной. А я нашла бы и любимую
рубашку Миши, и любимую шапку Джареда, и любимый джемпер Дженсена. Уставшие, мы
вернулись бы домой и, было бы логично предположить, что мы завалимся в кроватку.
Но нет, конечно, ни в коем случае. Мы ляжем очень поздно, потому что нельзя спать,
когда мы рядом, во сне мы теряем время. Да?
*персонажи сериала "Сверхъестественное". Дальше идет перечисление ведущих акторов
данного шоу.
Я соскучилась, так давай побудем вместе в письменной форме еще, ты не против?
Только я не знаю, куда нам пойти. А давай просто лежать на кровати.
Так вот, мы просто лежим, и между нами молчание, наше любимое молчание. Та тишина,
которую нельзя назвать неловкой. У нас нет такой. Скорее, родная, теплая, привычная,
уютная. Даже когда мы разговариваем о чем-то действительно, так сказать, неловком
и волнительном, мы можем замолчать, и это не будет опять же чем-то неуместным.
Я бы сидела в айпаде, думаю, а ты в телефоне. О да, мы поспорили бы, что лучше
- эпл или андройд. Отняли бы друг у друга гаджеты, ища в них неудобства и недочеты.
Надеюсь, я одержала победу в этом вымышленном споре. Черт, а может, мы посмотрим
фильм или сериал? Я столько раз выказывала в переписках наших желание посмотреть
с тобой вживую что-то, я так хотела этого, и все еще хочу. Мы даже на расстоянии
несколько раз умудрялись так смотреть сериалы и фильмы. И так часто мы не досматривали,
ты всегда убегаешь куда-то по делам. Среди нас двоих только я лодырь, который
сидит дома, выходя из помещения лишь на учебу.
Хм, так что бы мы посмотрели? Давай "Faking it", давно хочу посмотреть его. Или,
если ты разрешишь включить что-то мной уже просмотренное, то я посажу тебя смотреть
"Shameless". Я правда хочу, что бы ты посмотрела его. Я постаралась бы не спойлерить,
но хорошо, что ты спокойно к ним относишься, и мне не надо опасаться за свое здоровье,
если я проговорюсь. Я буду говорить: "Вот, вот, смотри, сейчас такое будет". А
ты, надеюсь, меня заткнешь. Прозвучало так, почему-то, будто поцелуем, но нет.
Ой, а еще у нас будут чипсы и "наш спрайт". Хотя, я лучше возьму что-то мучное,
а не чипсы. Но ты, я знаю, их любишь. Если мы просидим так до самой ночи, мы захотим
спать, наверное. И, если мы не выключим и нормально не ляжем, то мы просто уснем
на фоне голосов Ноэля, Кэма, Эммы и прочих людей нам знакомых-незнакомых. Черт,
нет, мы же будем смотреть в озвучке. Как жаль. Я проснусь раньше, чем ты, но не
встану, я бду ждать, пока проснешься ты. Посижу в айпаде, может. Когда же ты проснешься,
я скажу, что ты просто невероятная соня. Я, кстати, хочу, что бы именно ты сделала
завтрак. Ты же умеешь готовить, ты не я.'
sentences:
- 'query: Не слушай меня, прошу! Я хочу тебе кое-что сказать, поэтому не слушай
меня. Я хочу это сказать тебе, прямо тебе, но чтобы ты не слышал. Или чтобы забыл
спустя мгновение.
Я ЛЮБЛЮ ТЕБЯ
Кричу это. У себя в голове. Знакомым. Не тебе. Всем, всему, всегда, но не тебе,
но никогда тебе. Господи, не слушай меня. Отвлекись от меня сейчас же, чтобы я
мог сказать тебе то, что хочу, и то, что чувствую. Тихо. Внутри это будет очень
громко, но не могу с такой громкостью сказать это вслух, не при тебе. Ты должен
отвлечься, тогда я скажу тихо, ты не услышишь. Может, ты спросишь: "Что ты сказал?"
И я отвечу: "Ничего, ничего". И ты не переспросишь снова, не станешь просить сказать,
потому что ты привык. Я часто говорю себе под нос и не отвечаю, что сказал, когда
переспрашиваешь. Тебя это так бесило. Может, и сейчас бесит, но ты уже не обращаешь
внимания.
У меня есть столько всего тебе сказать. Но когда ты говоришь: "Ну, расскажи что-нибудь.
Что угодно. Давай же". Я замолкаю. Я не знаю, что говорить. Спустя много минут
я могу рассказать что-то. Например, какой-то глупый сон или впечатления о только
что прочитанной книге. А ты любишь книги.
Господи, как я ненавижу то, что ты ненавидишь себя! Хватит!
Прекрати! Мне больно на это смотреть.
Но прекрати это делать не ради меня, а ради себя. Ты же знаешь, только так это
будет правильно. Не ненавидь себя, пожалуйста, не вини себя, когда знаешь, что
не виноват. Почему всегда все обстоятельства и весь мир против тебя, а? Мне так
жаль.
Сильнее людей я не встречал. Да, я не так много людей встречал... Но разве может
человек быть еще сильнее? Да может, наверное, кому я вру, мир большой, людей много...
но к черту, важно ли это? Нет. Важна лишь твоя сила и дух. Ты воин, ты мой воин.
У тебя даже есть такая футболка, на ней написано "warrior". Ах, как она идет тебе.
Воин.
Борись, Дин, борись, не сдавайся. Отдыхай, расслабляйся, но не сдавайся и живи,
живи, живи. Ты самый живой человек с мертвенно уставшей душой. Настолько живой,
что я с тобой рядом чувствую, что тоже живу. Такое ощущение, что до тебя я и не
жил. Потому что до тебя все было слишком иначе. Теперь я вижу мир другими глазами.
Может, дело в возрасте, вырос или что. Но все же ты принял огромное участие в
выстраивании мира вокруг меня, потому что ты огромная часть этого мира. Это можешь
даже услышать, послушать. Да я тебе даже это писал.
Ах, да я и говорил тебе, и писал, что люблю. Но мы же друзья, это нормально. Просто
то "я люблю тебя", что хочу прокричать... это не то "я люблю тебя", которое ты
говоришь с улыбкой, растрепывая мне волосы. Я люблю быть низким. Рядом с тобой.
На ум приходят строчки группы "A Big Great World"
I am feeling so small*
Черт, да эта песня вообще сплошной... я. Я почувствовал в ней себя тогда, когда
мы... перестали по моей вине общаться на какое-то время. Я убивался и даже бился
головой об шкаф, сидя на полу, кажется. Тогда к моим крикам о любви добавлялись
другие.
Say something, I''m giving up on you**
Не хочу больше чувствовать именно эту строку.
Потом я кинула тебе клип этой песни. Спустя какое-то время. Этим я призналась
тебе во многом, это было письмо с шифром, которое не должно быть никогда расшифровано.
Я кричала, а ты не слушала. Потому что я умею тихо кричать. И слава богу.
*Я чувствую себя таким маленьким/незначительным
**Скажи же что-нибудь, я отдаляюсь от тебя'
- 'query: Pov Хорхе.
Всем привет, меня зовут Хорхе Бланко. Я работаю в оффисе своего отца, совсем скоро
я стану главным. Мне двадцать четыре года, у меня есть девушка Макарена Мигель,
внешность у неё на любителя, но это не имеет значения главное что я люблю её.
Макарена она очень взрывная девушка, очень эмоциональная, не только в жизни, но
и в постели. Но от статуса бабника я не избавился, я продолжаю ходить по клубам,
признаюсь честно девушек я просто обожаю, но сплю только с одной. Ещё у меня есть
бывшая девушка Мартина, эта девчонка сводила меня с ума в школьные годы, она была
просто шикарна в постели, такое умеет только она. К сожалению или к счастью мы
расстались, правда совсем недавно, буквально полтора года назад, но мы продолжаем
общаться.
Встав с тёплой постельки я направился в душ, после бурной ночи с Макареной, целую
ночь она ублажала меня, ещё у неё очень слабый характер, я могу издеваться над
ней, но в хорошем смысле, в этом союзе главный я. Когда я встречался с Тини, доминировала
она, у неё сильный характер, она даст отпор любому. Приняв душ я вышел из ванной
и направился в спальню.
- Жожик, ты что сегодня работаешь? помоему у тебя выходной, куда ты собрался?
- послышался голос любимой из-под одеяла.
- Никуда я не собрался, я просто принимал душ, кстати сегодня идём в клуб, - сказал
я и надел на себя спортивные штаны.
- Ок, в восемь буду готова, твои друзья пойдут с нами? - недовольно спросила она.
Мои друзья самые лучшие люди в мире, они не только мои друзья, но и друзья Мартины.
Диего и Лодовика, эта просто двое невменяемых людей, но они такие милые. Руджеро
и Канди, они не очень любят клубы и шумные вечеринки, они любят побыть наедине
друг с другом, несмотря на то что мы разные, мы лучшие друзья. А ещё Мечи, она
лучшая подруга Ти, а заодно и моя.
- Конечно, куда я без них, не надо мне говорить что они плохие, - недовольно проговорил
я и вышел из спальни. Дом у нас большой, но тут всегда такой беспорядок. Это просто
невыносимо, Макарена почти не убирается, целыми днями сидит дома и бездельничает,
как только заговоришь про уборку и готовку, она начинает целовать меня, а дальше
вы знаете что происходит.
- Я и не собиралась, - послышалось из комнаты. Я спустился вниз и принялся искать
свою футболку, но найти её просто не реально. Спустя несколько минут, я всё-таки
нашёл свою футболку. Пройдя на кухню я залез в холодильник, но ничего съедобного
я там не нашёл.
- В этом доме, есть что-нибудь поесть? - прокричал я и поставил руки в бок. Макарена
спускалась со второго этажа, она была почти обнажённой, лишь простынь скрывала
её прелести. Хотя скрывать особо было нечего, грудь была очень маленькой, ноги
короткие, другое дело Марти.
- Что ты кричишь? Ты же знаешь что я не умею готовить, найми домработницу и вообще
зачем тебе еда когда у тебя есть я, - прошептала она и сбросила с себя простынь,
ткань упала к её ногам, оставив Макарену обнажённой. Я подошёл к ней и страстно
поцеловал её, я любил грубость. Я могу целую ночь над ней грубо издеваться и она
не скажет мне не слова. Повалив нас на диван я спустился к её груди....
- Бланко, ты в своём репертуаре? - нежный, но в тоже время наглый голосок послышался
у меня за спиной. Конечно это была Тинка, её голос я узнаю из тысячи. Встав с
дивана и подняв кареглазую за собой, я чмокнул Ти в щёчку.
- Ты чего здесь делаешь? Тебя никто не звал сюда, - злобно прошипела Макарена
и натянула на себя простынку. Я всегда был рад видеть Мартину, она всегда для
меня останется родным человеком, но я её не люблю.
- Не ори, Хорхе я пришла по делу, - серъёзно сказала она и посмотрела на меня.
Когда она звала меня по имени, то это значит что действительно что-то срочное.
- Да я весь во внимание, - спокойно сказал я и сел на диван.
- Можно поговорить наедине? - неуверенно спросила она. Что это с ней, первый раз
вижу её такой, неуверенной.
- Макарена выйди, - сказал я, та недовольно цыкнув покинула гостиную. Мартина
присела рядом со мной на диван, теребя в руках край своего платья.
- Хорхе, мне негде жить, я продала свой дом, хочу купить побольше, родители уехали,
а ключи не оставили, единственный вариант это ты, можно у тебя пожить? - с надеждой
спросила она и посмотрела на меня. У неё самые красивые глаза, которые я только
встречал в жизни.
- Хм, я конечно не против, но если Мака против, то ты извини, - сказал я, Макарена
конечно откажется, но не буду же я перечить собственной девушки, ради своей бывшей.
- Понятно, значит пойду к Мечи, - поникше сказала она и встала с дивана. Блин
что же делать, нельзя так поступать.
- Стой, давай спросим у неё, может она согласиться, Макарена иди сюда, - крикнул
я и поссотрел на Тини, на лице у неё было полное отчаинье.
- Чего надо? - грубо спросила она и встала напротив нас.
- Мака, понимаешь Мартине негде жить, можно она поживёт у нас? - спросил я и посмотрел
на неё, её лицо тут же изменилось.
- Ещё чего, пускай у своих друзей живёт, - грубо произнесла она и вздёрнула головой
вверх, она возомнила себя здесь королевой, ну уж нет, мой дом и моя бывшая будет
жить здесь.
- Макарена, ты похоже забыла чей это дом, Мартина будет здесь жить сколько нужно,
это не обсуждается, - прошипел я и злобно взглянул на Маку, она похоже расстерялась
и не знала что сказать, поэтому просто убежала в комнату.
- Может не нужно было так, я могла пожить у Мечи, - тихий голос раздался на ухом.
Я был очень зол.
- Замолчи, тебе сказали можно, значит можно, надоели, - прокричал я и ушёл в кухню.
Как же дальше жить, эти двое сведут меня с ума.
Pov Хорхе.
- Где мой лифчик? - кричала Мартина с первого этажа.
- Где мои штаны? - а это уже Макарена из соседней комнаты. Еслиб я знал что эти
две девушки сведут меня с ума за два дня, я бы никогда не пустил Мартину жить
к нам. Макарена постоянно меня ревновала и просто ненавидела Тини, а та в свою
очередь делала ей всё назло. Два дня подряд в моём доме не умолкают женские голоса,
соседи приходили уже три раза, я не знаю что с ними делать. А ещё у меня не было
секса уже два с половиной дня, только мы с Макареной начинаем процесс, Марти вваливается
к нам в комнату, за это я готов её убить. Сейчас я собираюсь на работу, Мартина
в институт, а Макарена на какую-то важную встречу, посиделки с подружками называются,
хотя подруг у неё маловато.
- Ну Хорхе, иди сюда, помоги найти мне мой лифчик, пожалуйста, - ныла Тинка со
второго этажа, я бы предложил ей надеть лифчик Макарены, но ведь он ей маловат.
- Мартина, я его даже в глаза не видел, - спокойно сказал я и спустился вниз.
Конечно вся эта ситуация меня не радует, но в этом есть плюс я могу видеть Марти
и её шикарное тело голым, пару раз когда она мылась я "нечаянно" заходил в ванну
и смотрел на Тини, она такая милашка когда злиться. Не было-бы у меня Макарены,
я бы вновь начал встречаться с Тини, сказать честно пару раз в постели я представлял
Ти, её волосы пахнущие шоколадом и стройные ножки, а у Макарены нет таких потрясающих
волос как у Тини, да и ножки не подарок.
- Ну и где его искать? - спросил я и начал искать этот чёртов лифчик Тини.
- Твоя девушка умеет убираться? Почему у вас такой бардак в доме? Я не могу так
жить, - простонала она и, устало села на диван. Эх, как же она права, Макарена
совсем забросила мой дом, нужно нанимать домработницу. Повернув голову в сторону
и приподняв непонятную вещь я обнаружил, чёрный кружевной лифчик и я сразу понял
что вещь принадлежит Марти, ведь у Макарены нет таких лифчиков, они у неё все
невзрачные и серые.
- Это твоё? - спросил я и поднял вещицу с тумбы. Марти заметно покраснела и попыталась
отнять у меня свою вещь, но я совсем не хотел этого делать.
- Оставь его мне, он очень красивый, он когда-нибудь тебя пригодится, обещаю,
- прошептал я на ушко Ти, она удивлённо посмотрела на меня, а потом пошло улыбнулась.
Она всегда понимала меня с полуслова, ей не нужны были мои намёки.
- Я к твоим услугам, а сейчас я пойду и возможно сегодня не приду ночевать, я
останусь у Мерси, она говорит что соскучилась по мне, я же всё-таки долгое время
была в Лондоне, - сказала она и скрылась в ванной.
- Ты была в Лондоне? Почему ты не сказала мне? - спросил я и натянул на себя брюки,
а затем и рубашку.
- Я знала что у тебя были проблемы с твоей девушкой и не звонила долгое время,
помнишь четыре месяца мы с тобой не общались, вот тогда я и была в Лондоне и,
знаешь я прекрасно отдохнула, - мечтательно сказала она и вышла из ванной, на
ней была одета юбка чуть выше колена, нежно-розовая блузка и туфли на шпильке,
это её обычная одежда в институт.
- Макарена мы уехали, я буду поздно вечером, а Тини сегодня ночует у подруги,
так что ты можешь целый день, а потом и ночь отдыхать, - спокойно сказал я и обул
лаковые туфли. Через два месяца я займу места своего отца, я в предвкушение этого
дня. Родители у меня очень порядочные люди, они просто ненавидят Макарену.
- Я счастлива, пока, - крикнула она со второго этажа. Я вышел из дома и направился
к своей машине. Сев в неё я принялся ждать Тини, иногда мне кажется что она не
бывшая, а настоящая. Любви конечно нет, но влечение как к женщине есть огромное.
Спустя минуту из дома вышла Мартина, бормача что-то при этом себе под нос.
- Твоя девушка просто идиотка, она не умеет ни готовить, ни убираться, даже нормально
формулировать свои мысли не умеет, как ты можешь с ней встречаться? - нервно спрашивала
она, усаживаясь ко мне в машину.
- Зато в постели она просто бомба, - сказал я и выехал со двора.
- Ясно, - произнесла она и отвернулась. Она что обиделась? Я не стал ничего больше
спрашивать, лишь продолжил путь к универу.
Закончив свой рабочий день я устало откинулся на спинку стула и тяжело выдохнул.
На часах восемь вечера, а домой совсем не хочется. Каждый день одно и тоже, хочется
разнообразия. Телефон который лежал на столе, начал настойчиво трезвонить, посмотрев
на экран я увидел незнакомый номер, нажав кнопку принять я поднёс телефон к уху.
- Алло, - тихо сказал я.
- Эм, здравстуйте, вы знаете девушек по имени Мартина Штоссель, Мерседес Ламбре,
Лодовика Комельо и Канделария Молфесе? - мужской голос раздался на том конце прово'
- 'query: Сегодня, прыгая на кровати, Кира сломала ее. Она отчаянно пыталась допрыгнуть
до потолка, но ничего не получалось, и опилки лишь тщетно сыпались на пол. Никто
не слышал ни скрежета пружин, ни грохота; не было видно и самой поломки.
Мать, ругая дочь, в ответ получила лишь усталое равнодушие, что, конечно же, вывело
ее из себя. Крича что-то нечленораздельное, она стучала ногой по сломанному предмету.
Женщина не понимала, что она делала только хуже, но гнев в ее крови взял верх.
- Да как ты смеешь, паршивая девчонка! Я только и делала, что ухаживала за твоей
кроватью! А ты решила устроить погром?! Знаешь, что?! Я это так не оставлю! -
на этих словах женщина, чуть ли не снимая дверь с петель, выбежала из комнаты.
Кира резко опустилась на колени. Прижав руки к кровати, она пыталась сдерживать
ее невыносимый скрежет.
Взяв молоток и гвозди из кладовой, девочка безнадежно колотила по обломкам, пытаясь
хоть как-то их соединить. Но все оказалось безрезультатно: обломки лишь с еще
большим стремлением раскалывались под гнетом гвоздей.
Она легла на пол. Легкий сквозняк щекотал ее спину.
- Я никогда не смогу допрыгнуть до потолка, - сказала Кира и выдохнула.
- А вдруг это не так?
Кира резво встала. На ее лице появилась маска недоумения, а в груди начал разжигаться
огонек страха. Откуда этот голос?
- Не бойся, глупышка, - голос был очень мягок.
- Откуда ты? Я тебя раньше не слышала...
- А разве это важно?
- А что, нет?
- Почему это должно быть важно? Разве нельзя просто поговорить с тобой?
- Ты думаешь, я буду говорить с незнакомым голосом?
- А почему нет?
- Так. Мне надоедает эта игра в вопросы. Говори, что или кто ты есть?
Внезапно наступило молчание, после чего последовало продолжительное гудение.
Голос начал напевать песенку, не песню, а именно песенку. Любимую песенку Киры,
которую она заводила каждый раз, когда ломалось что-нибудь в ее комнате.
- Я могу построить тебе новую кровать. Гораздо лучше этой. В ней будет много цветов
и сладостей...
Девочка оживилась. В ее речи послышались нотки радости.
- Правда? Ты сделаешь это?
- Да, но вот только...
- Что "только"?
- Только она будет не настоящей. Ты не сможешь на ней спать, но она будет в твоей
комнате. - голос откашлялся. - Ах, да. Кроме тебя ее никто не увидит.
Девочка задумчиво улыбнулась.
- Но когда же я смогу увидеть свою кровать?
Голос начал смеяться. Сильно, долго, но мягко. Этот смех был очень и очень необычен:
вроде бы и добрый, а вроде бы и с насмешкой.
Жалость.
Жалость управляла им.
- Почему ты смеешься?
- Да потому что ты глупая девочка, которая даже не может решить.
- Я вовсе не глупа!
- Да? Так ответь: тебе нужно то, что я предлагаю?
- Но это же вовсе не настоящая кровать! - Кира приложила руки к лицу. - На ней
я не смогу допрыгнуть до потолка!
Голос опять залился смехом.
- ПОЧЕМУ ТЫ СМЕЕШЬСЯ ВСЕ ВРЕМЯ?!
- Да потому что ты уже решила. Уже давным-давно решила.
- И что же я решила?
- Ты согласна, ведь так?
Кира замешкалась, но, все же, выдавила из себя неуверенное "да".
Голос пропал, оставив после себя огромную кровать, с большим матрасом и мягкими
подушками. На такой кровати, определенно, можно было бы допрыгнуть до потолка.'
- source_sentence: 'query: Тяжёлые портьеры с тихим шелестом разъехались в стороны,
впуская внутрь свет. Он был серо-белым и больно бил по привыкшим к темноте глазам.
Я потушил стоявшие на ночном столике свечи и поднялся с кровати.
Этот день не предвещал ничего необычного. Я как всегда проснулся на несколько
мгновений раньше всеобщей побудки. На автомате привёл себя в порядок и облачился
в свой длинный чёрный балахон, подпоясав его серебряным шнурком - знаком жнецов.
Надел на голову ненавистный обруч, который сильно давил на лоб, но без которого
я не мог появиться вне своей кельи - он указывал на мою принадлежность к Высшей
касте. Последний штрих - Кольцо верности.
Моя келья располагалась на самом престижном ярусе - нижнем. Местные ещё называли
его Колыбелью теней. Там имели право находиться только жнецы Высшей касты - те,
кого Смерть выбрала своими советниками.
Каждый рассвет я поднимался на отсчётный ярус, где получал указания от Старейшин,
а затем приступал к своей работе. Я - собиратель душ.
Я пересёк учебный зал, где обучались молодые жнецы. Когда-то я и сам сидел на
этих скамьях и тщательно внимал каждому слову профессора. Наверное, именно мои
старательность и упорство помогли мне дослужиться до Высшей касты.
Само место, где мы обитали, называлось Храмом. Он располагался вне пространства
и времени. Храм был сделан из белого, красного и чёрного мрамора и имел очень
высокие своды. Кое-где они достигали такой высоты, что их невозможно было увидеть.
Такие своды назывались небесами.
Обитатели Храма жили в кельях - просторных круглых комнатах. Поскольку времени
для нас не существовало, но внутри всё равно тикали биологические часы, были придуманы
рассветы и закаты. Храм был окутан белой, светящейся пеленой, поэтому на закате,
когда требовалось ложиться спать, портьеры на всех окнах задвигались. На рассвете
же наоборот - они разъезжались в разные стороны. Делалось всё это в единое для
всех время, и изменить закрытие и раскрытие портьер даже в личных кельях было
невозможно.
Наконец, я на своём ярусе. Сегодня в зале было на удивление пусто - внутри оказался
лишь один Старейшина. Когда я вошёл, он стоял спиной ко мне, опрокинув назад голову
и разглядывая небеса.
- Вам следует быть более расторопным, брат Рихард, - сказал он спокойно, не отрывая
взгляда от небес. - Особенно когда для Вас припасено такое задание.
Его слова заставили меня оживиться: они обещали что-то посложнее простого сбора
душ.
- И каково же оно? - спросил я, стараясь придать голосу безразличие.
- Не обольщайтесь, это не просто интересная игра, - Старейшина наконец обернулся
и посмотрел мне в глаза. - Вы будете иметь дело с очень необычным экземпляром.
Чуть приподняв полы путавшегося в ногах балахона, Старейшина подошёл ближе ко
мне.
- Мы давно охотимся за душой этого человека. Смерть не раз вносила его в свои
списки, но каким-то неведомым образом он уже четыре раза от нас ускользал. Опытнейшие
жнецы не смогли справиться с этим заданием. Тогда Смерть отдала приказ отправить
к этому человеку именно Вас, - Старейшина сделал ударение на последнем слове.
- Не подведите её. Иначе Вы знаете, что Вас ждёт.
Он бросил взгляд на Чёрное око. Это колодец, располагавшийся в центре этого зала.
Он использовался в качестве наказания для неверных или просто неугодных Смерти
жнецов. Они подвергались так называемому Перевоплощению. Виновного сбрасывали
в чёрное жерло этого колодца, после чего он исчезал из Храма навсегда. Ходил слух,
что казнённые обретали новую жизнь на земле, только в другой ипостаси (поэтому
процедура называлась Перевоплощением). Однако не было никого, кто бы смог подтвердить
это или опровергнуть, поэтому все боялись быть подвергнутыми Перевоплощению.
- Я ни разу не позволял Вам и Смерти усомниться в своём профессионализме. Задание
будет выполнено, - сухо произнёс я.
- Приятно слышать уверенность в Вашем голосе, но не теряйте бдительности. На этот
раз Ваша вылазка в мир людской будет длительной. Времени Вам будет дано столько,
сколько потребуется, но помните - Смерть не любит ждать. Вам нужно войти в доверие
к этому человеку, узнать его как можно лучше, чтобы его душа сама потянулась к
Вам. Тогда Вы сможете беспрепятственно её забрать, и задание будет считаться выполненным.
Воровато оглянувшись, Старейшина склонился к моему уху и шепнул:
- А ещё в случае успеха я позабочусь о том, чтобы Вы примкнули к нам.
Он намекал на то, что поможет мне получить самую высокую должность Храма - должность
Старейшины.
Я коротко кивнул.
- Я могу приступить к заданию?
- Разумеется. Служки соберут Вам всё, что потребуется для людской жизни, и Вы
можете немедленно отправляться.
Я снова кивнул и направился к выходу. Уже у самых дверей я обернулся и спросил:
- А как зовут моего подопечного?
- Тилль Линдеманн.
Едва я почувствовал, что твёрдо стою ногами на земле, как на меня налетел сильный
порыв холодного ветра и начал нещадно резать оголённые участки кожи. Я потёр замёрзшие
руки, прижал их ко рту, чтобы согреть своим горячим дыханием, но от этого было
мало толку. Шапкой меня снарядить не удосужились, поэтому голова тоже ощущала
все прелести выдавшейся в этом году суровой немецкой зимы.
Я осмотрелся. Вокруг лишь засыпанные снегом деревья. Никаких признаков того, что
поблизости кто-то обитает. Выкидывать меня прямо на порог объекта было опасно
и подозрительно, поэтому я оказался в некотором отдалении от места назначения.
И теперь, стоя в этом заснеженном лесу, я понятия не имел, куда мне направляться.
Я решил поддаться интуиции, которая меня редко подводила. Жнецы имеют много способностей:
например, мы умеем подавлять сознание людей или становиться невидимыми, когда
нам это необходимо, но почему-то внутреннего компаса в нас не встроено.
Ноги проваливались в глубокие сугробы. Чертыхаясь, я медленно продвигался вперёд,
внимательно выискивая вдалеке хоть какие-то признаки человеческого жилья, однако
тщетно. Я мысленно перебирал все те знания, которые когда-то получил об этом регионе,
но так и не смог припомнить, чтобы тут были характерны такие погодные условия.
Даже подумал о том, что вышла ошибка, и меня закинули в какое-то другое место.
Время шло, а пейзажи вокруг не менялись, зато начинало темнеть. Я уже начал беспокоиться,
но не давал панике полностью овладеть мной. Только когда над лесом поднялся ополовиненный
диск луны, я обессилено повалился на землю, подложив под себя рюкзак, в котором
был собран минимум одежды. Рук я уже совершенно не чувствовал, а голова раскалывалась
от холода. В мыслях крутилось, что такой мастер своего дела как я не может так
глупо провалиться, но сил дальше двигаться не было.
- Я лишь немного... отдохну, - успокаивал я самого себя, пытаясь разлепить настырно
закрывающиеся веки. Но тело меня уже не слушалось. Перед тем, как окончательно
отдать себя в объятия сна, я, кажется, услышал скрип снега.
Придя в себя, я первым делом почувствовал запах молока. Было на удивление тепло,
даже жарко. Приоткрыв один глаз, я увидел напротив себя задорно пляшущие язычки
пламени в камине. Опустил взгляд вниз - моё тело плотно закутано в толстое одеяло,
а сам я лежу на каком-то диванчике.
Где я?
В голове неохотно начали ворочаться шестерёнки воспоминаний, проворачивая назад
сегодняшние события. Рассвет, Старейшина, задание, лес, холод, обморок, пустота.
Я ещё раз по мере возможностей осмотрел себя, даже заглянул под одеяло. Кто-то
заботливо притащил меня из леса, стянул всю одежду и согрел. Окинул взглядом комнату
- моего добродетеля не наблюдалось.
Я осторожно попытался подняться на локтях, на что тело отозвалось неприятной ноющей
болью. Скривившись, я всё же привёл себя в сидячее положение и ещё раз тщательно
всё осмотрел. Комната была небольшой и весьма неухоженной. Повсюду валялись какие-то
обёртки, на полу стояли пустые бутылки, кое-где виднелись и грязные тарелки. Обои
местами отходили, обнажая деревянные стены, практически всё было исписано именами
каких-то людей и различными странными названиями, значения которых я не понимал.
Однако было видно, что хозяин любит свою берлогу и ни за что не расстанется с
ней.
Входная дверь протяжно заскрипела, и в комнату вошёл здоровенный детина, державший
в руках кружку, по размерам больше похожую на ведро.
- Очухался, - буркнул он, протягивая мне "ведро". - Пей.
Тёплое молоко. Я не был большим поклонником этого напитка, но внезапно ощутил,
что именно его сейчас требует мой организм, и жадно припал к кружке. Парень, сидевший
напротив и угрюмо наблюдающий за мной из-под отросшей чёлки, смотрел на меня несколько
минут, после чего спросил:
- Какого лешего тебя в лес-то понесло?
Я кое-как оторвал себя от молока.
- Машина на трассе заглохла, пошёл за помощью и заблудился, - выдал я заранее
подготовленную легенду.
- Считай, пропала твоя тачка, - фыркнул незнакомец. - У нас тут сейчас не самый
спокойный народец обитает. Скорее всего, уже прибрали к рукам твою лошадку.
Я постарался сделать разочарованный вид.
- Эх, ну что ж я так!
- Ты в полицию попробуй обратиться, но это вряд ли тебе поможет. Меня кстати,
Тилль зовут.
Я аж подавился, услышав имя своего спасителя.
- Эй, ну ты аккуратнее! - Тилль дернулся в мою сторону, но я жестом остановил
его.
- А я..кхм-кхм...Рихард, - прохрипел я, пытаясь перебороть приступы кашля.
- Застрял ты, похоже, здесь, Рихард, - Тилль кивком указал на окно. На улице не
на шутку разбушевалась метель.
- Удача, если мы завтра вообще сможем из дома выйти, - вздохнул Тилль. - Уже неделю
метёт, зараза, и всё никак не успокоится. Так что обождать придётся, прежде чем
я докину тебя хотя бы до Шверина.
Я неуверенно пожал плечами, чтобы Тилль не подумал, что я напрашиваюсь.
- Только ты, слышь, сам себе будешь жрать готовить, я тебе не хозяюшка. Ну и мне
заодно можешь, - ухмыльнулся Тилль. - Арендная плата, так сказать, за предоставленную
жилплощадь.
Я согласно кивнул.
- Ну и ладушки. Ах, да, пшёл вон с моего дивана!
Помня о том, что мне нужно наладить с этим человеком контакт, и злить его ни в
коем случае не следует, я послушно встал, укутавшись в одеяло.
- Пф, тоже мне, - хмыкнул Тилль, глядя на то, как я пытаюсь поудобнее завернуть'
sentences:
- 'query: scrtrm - piano #11
В тихом-тихом углу улицы(если это вообще угол) сидели два ребенка примерно одинакового
возраста точно не достигнувшие десяти, а то может и девяти лет от роду. Вокруг
не было никого из тех шумных взрослых, которых все дети почему-то недолюбливали.
Однако, кроме этих двоих, на улице изредка пробегали, а то и проезжали, на полной
скорости подростки на велосипедах и на скейтбордах. Некоторые из них тихо и не
спешно ездили на роликах, оборачиваясь по сторонам и смотря ларьки с мороженным.
На улице лето. Июнь вроде бы, а дети уже во всю развлекаются, забыв про учёбу.
А те два ребёнка всё так же сидели на двух лавочках, параллельных друг другу,
изредка бросая взгляды на друг друга и поспешно отворачиваясь, когда один из них
замечал эти взгляды. Шум листьев рядом цветущей поздней черёмухи добавлял романтичности
картине. Быстрые школьники не раз смеялись над ними, не задумываясь над тем, что
чувствуют эти дети. Первая любовь всегда приходит по разному.
Мальчик с голубыми волосами, одетый в тонкую светло-оранжевую рубашку и загнутыми
до колена коричневыми брюками подошёл к девочке и спросил:
- П-привет. Тебе не нужен кот? С-синий такой, с чёрными глазами и маленьким рюкзачком
на спине?
- Н-нет, спасибо, - ответила девочка, отворачиваясь в сторону. - Да и у меня уже
есть кот. Второго родители не разрешат.
- Понятно, а этого кота Хэппи звали. Добрый такой, отзывчивый, понимающий. Хороший,
в общем, кот.
- А у меня кота, ну вернее не кота, а кошку, Шарли зовут. Но она странная, не
разговаривающая, грубая, даже стер... Как там взрослые говорят, сте-рво-зная,
она у меня. И общаться не любит.
- Я уверен, Хэппи бы нашёл к ней подход и разговорил бы её. И она б стала такой
же как и он.
- Не знаю, я, то есть мы никогда не пробовали.
- А давай попробуем и узнаем! Ну, так ты со мной?
- Х-хорошо!
Через девять лет
- Шарли, а ты бы хотела стать кошкой? Ну или её завести?
- Нет, Хэппи, у меня уже есть один. Одного достаточно.
- Вспоминаем детство, а Шарли?
- Угадал, Хэппи! Вспоминаю детство и то самое место.
- Ну а всё же, кто этот кот?
- А почему ты думаешь, что это кот?
- Так ты же сама сказала! Склеротичка!
- Я не говорила такого!
- Говорила!
- Нет!
- Не нет, а да!
В старом парке на двух параллельных скамейках сидела молодая пара, которая о чём-то
спорила и ни одна из сторон не хотела уступать. А парк всё так же никто не посещал,
лишь изредка подростки катались на велосипедах и роликах. А на дворе всё так же
был июнь и под шум поздней черёмухи влюблённые шли по старому заброшенному углу
улицы старого отстроенного парка.'
- 'query: Бабах! - новая молния с грохотом разрезала небо. Непогода продолжалась
уже третий день. Кагура поёжилась. Дождь она не любила - такая погода лишала её
единственного доступного ей счастья - полётов. Общение с Кохаку успело надоесть
хуже горькой редьки - парень не говорил ни о чём, кроме как о способах убить Нараку.
Девушка, конечно, понимала, почему он очень был сосредоточен на своей мести, но
- ветер свидетель! - нельзя же было думать только об одном! Настроение не улучшало
и то, что с самого начала грозы сам Нараку был необычайно деловит: создавал новое
порождение, что Кагуру немало беспокоило, и варил какое-то чрезвычайно вонючее
зелье, отравлявшее воздух.
- Кагура! - голос Нараку заставил демоницу вздрогнуть. - До моего приказа из замка
- ни шагу! Ты мне понадобишься!
- Напомню, что в дождь я летать не могу, - стараясь сдержать в своём голосе гнев,
ответила девушка. После того как Нараку избавился от Хакудоши, поглотив ребёнка
за то, что заподозрил его в предательстве, Кагура старалась быть максимально осторожной.
- Я никогда ничего не забываю, - в небрежно брошенной фразе Повелительнице Ветра
послышалась угроза - Нараку словно бы напомнил ей про попытку улететь с двумя
осколками Шикона.
Два последующих дня каждый был занят своими делами: Нараку корпел над своими котлами,
Кохаку тренировался, Кагура боролась с завистью к Канне, которая эмоций не испытывала
и от смеси страха с нервным ожиданием не мучалась.
Всё проходит. Прошли и дождь, и время приготовления зелья, и время создания нового
порождения. Кагура рассматривала сидящую перед ней девушку и ощущала, что что-то
с ней явно было не так. И лишь через минуту поняла - она вообще не чувствовала
новое порождение Нараку! Не было ни демонической ауры, ни запаха, ни малейшего
звука - даже стука сердца не улавливали чуткие уши демонессы!
- Кагура, что застыла? Я же сказал тебе - слетай и принеси своей сестре одежду!
- Нараку заметно возвысил голос.
- В замке и так одежды полно - пусть сама подберёт! - ответила та.
- Я сказал: слетай и принеси, - сквозь зубы прошипел полудемон.
"Чёрт, что этот паук задумал, что я услышать не должна? Точно какую-нибудь гадость,
чтобы меня помучительней убить! Что же делать, что же делать?! Сбежать? Нет, у
него моё сердце... Дьявол, мне поставлен мат!" - рассуждала Повелительница Ветра,
идя по коридорам.
- Кагура-доно, что-то случилось? - демонесса так ушла в свои мысли, что не заметила
появления рядом Кохаку.
- Кохаку-кун... - девушка замялась и присела на одно колено - смотреть на парня
сверху вниз сейчас ей совершенно не хотелось, - в моей комнате есть шкатулка...
красная с синими птицами...
Охотник на демонов внимательно смотрел в глаза если не подруге, то уж точно союзнице,
и старался угадать, что у той на душе.
- ...прямоугольная. Длиной... немного длиннее моего веера, - Кагура на двух руках
показала своё оружие, и ребёнок кивнул в знак того что запомнил, - шириной - примерно
как твоя ладонь от пальцев до основания ладони. Закрытая. В общем, если... хотя
скорее уж "когда"... меня убьет Нараку, постарайся передать её как-нибудь Сессёмару.
Ты ведь его помнишь?
Кохаку снова кивнул.
- Скажешь, что это от меня. Пусть ломает замок - ключ всегда при мне.
- А Вы?
- Ты же знаешь, какие небезопасные игры мы с тобой затеяли... - Кагура встала,
провела ладонью по волосам парня и вышла из замка. Кохаку украдкой смахнул набежавшую
слезу.
Когда через полчаса девушка вернулась с ворохом одежды, разговор уже явно завершался.
- Отлично. Раз уж их сила в единстве и воле каждого - вряд ли что-то сможет уничтожить
их лучше. После такого даже Кохаку их перебьёт без проблем! - казалось, даже голос
нового порождения был неуловим, появляясь словно из неоткуда и ежесекундно меняя
тембр.
- Кстати, забыл представить, - полудемон явно был чем-то доволен, - её зовут Чиё.
Этой ночью вы действуете вдвоём. Компания Инуяши разделилась - это их и погубит.
Кстати, Кагура, ты хорошо мне послужила. Если этой ночью не облажаешься - получишь
своё сердце.
"Интересно, я хотя бы рассвет увижу?" - мысленно попрощалась с жизнью Повелительница
Ветра.
- Кагура, повторяю специально для тебя - делаешь всё, что прикажет Чиё, - с ядовитой
усмешкой промолвил Нараку. Повелительница Ветра первую фразу прослушала - в тот
момент полудемон демонстративно отдавал Чиё сердце первого порождения Нараку.
Вместо ответа женщина взмахнула веером, и перо с двумя демонессами взлетело.
- Эй, Чиё, а что ты умеешь, а? Как будешь Инуяшу и остальных убивать?
- Даже не пытайся на меня напасть, чтобы отобрать сердце - я сильнее, - проговорила
своим непонятным голосом та. Кагура дернулась: "Догадливая стерва!"
- И я не буду их убивать. Я сделаю так, что они сами все будут искать смерти.
Давай быстрее, нас ждут, или, вернее, не ждут в трёх местах.
- В трёх? - удивлённо вскинула бровь Повелительница Ветра. - Группа Инуяши разделилась
на три?
Чиё коротко хохотнула. Хохот был столь же неприятным, как и голос.
- Не твоё дело. Начнём с...
- Санго, уверен, их души пребывают в лучшем мире, - тихо проговорил Мироку.
- Спасибо за поддержку, хооши-сама.
С момента резни в замке Нараку и селении охотников на демонов прошёл ровно год.
Санго, оставив Инуяшу, Шиппо и Кагомэ в деревне Каэдэ, отправилась навестить могилы
своих родственников и товарищей. То, что девушка взяла с собой Мироку, парень
воспринял как знак особого доверия и, несмотря на всё своё желание, старался себя
вести подобающе, что ему пока удавалось. За день он с Санго обновил надгробные
таблички, помог, по её просьбе, повыдергать разросшиеся на могилах растения, совершил
нужные обряды.
- Эх. Интересно, где сейчас Кохаку? - вздохнула охотница.
Монах поднял к глаза к небу: его потаённые молитвы услышаны не были. Парень до
последнего надеялся, что девушка не вспомнит про брата - каждый раз, когда это
происходило, она впадала в тяжёлую меланхолию.
- Санго-тян, мы обязательно найдём его. Найдём и вырвем из лап Нараку, - Мироку
обнял охотницу. Та хныкнула ему в плечо. Кирара принялась утешительно мяукать.
- Хооши... можно Вы... поспите в одном доме со мной? - всхлипывая, тихонько попросила
девушка.
- Санго, я могу спросить...
- Я просто не хочу оставаться одна. Надеюсь, моё предложение Вы не воспримете,
как разрешение распускать руки! - последнюю фразу Санго произнесла уже более жёстким
тоном. Мироку подавил вздох разочарования.
- Ладно, обещаю вести себя соответственно своему духовному званию.
- Спасибо. Пойдём укладываться - скоро стемнеет.
- Блин, ну вот понесла бабку нелёгкая чёрти куда на ночь глядя! - раздражённо
рявкнул Инуяша.
- Заметь, я, как мико, должна была бы пойти сама! И пошла бы, да только она запретила
- сказала, что незачем лекарства из моего мира всем подряд показывать - вопросы
ненужные возникнут.
- А она не права?
Тррррр.
- Шиппо, хватит уже - достал до одурения своей трыкалкой! - Инуяша бросил в кицунэ
злой взгляд.
- Отстань! Мне Кагомэ-тян игрушку принесла, и я буду играть! - выкрикнул ребёнок,
прикрывая собой наполненный бубенчиками мячик.
- Чёрт, ну уши же вянут и голова звенит! Кагомэ, дура, зачем эту гадость принесла?
- Сидеть!
Трещ.
- Это не гадость. Это игрушка. Инуяша, ну он же ребёнок - пусть играется! И нет
бы за себя порадоваться - смотри, сколько я твоей любимой лапши принесла! - мико
постаралась переключить его внимание на что-то приятное.
Тррррр.
- Хоть какая-то польза от тебя и твоей эпохи, - буркнул полудемон.
- Хам!
- Стерва!
- Сидеть!
Трещ.
- Второй раз уже! - проорал беловолосый парень с пола.
Трррррррр.
- Заслужил! - в тон ему ответила Кагомэ, потирая пальцами виски - звон мячика
начал и у неё вызывать головную боль, но доброта, подпитываемая упрямством и нежеланием
согласиться сейчас с полудемоном, не давали ей запретить играть лисёнку. - Интересно,
как там Мироку с Санго?
- Поди этот блудист там разошёлся, - ответил парень, поднимаясь с пола.
- Инуяша, Мироку-сама знает, когда нужно сдержаться.
- Угу. Как от нашей охотницы получит - так сразу начинает сдерживаться.
Тррррр.
- Ладно, давайте спать! - Кагомэ демонстративно улеглась в спальный мешок, надеясь,
что её примеру последуют и остальные. Вскоре в хижине действительно стало темно
и тихо.
Кагура и Чиё приблизились к первой цели.
- ...сюда...
Санго, услышав непонятно чей голос, открыла глаза и увидела, как на неё падает
человеческая тень. Девушка отреагировала полностью инстинктивно - пнула тень двумя
ногами в живот. Та охнула.
- Сопротивляешься, недотрога? Не бойся - я оттрахаю тебя приятно!
Девушка с удивлением узнала по голосу Мироку и поняла, почему Кирара её не разбудила,
как она это обычно делала при появлении чужих запахов.
- Эй, ты что, головой ударился? - ошарашенно спросила охотница. Вместо ответа
парень снова прыгнул на Санго. Та откатилась со своего футона в сторону и поморщилась
от боли - под локоть попали осколки какого-то сосуда, и пара впилась в кожу.
"Какого чёрта! Он, что ли, напился? Нечем вроде! И что тут делает эта керамическая
гадость - мы же только убрались, и на полу ничего не было! - судорожно пыталась
разобраться Санго, просыпаясь окончательно и уворачиваясь от новой попытки схватить
её. - Точно! Значит, отрава такая!"
- Не уйдёшь теперь! Сделай же мне приятно! - Мироку в очередном скачке удалось
навалиться на девушку. Одну руку он смог захватить, вторую при неудачном кувырке
прижала собой сама Санго. Ноги девушки парень придавил своими, так что ударить
та не могла никак. Обычного мужчину тренированная охотница смогла бы без проблем
сбросить, но её нынешний противник тоже был хорошо подготовлен. Свободной рукой
парень разорвал бельё девушки.
- Кирара, убери его!
Единственной причиной, по которой кошка не вмешалась раньше, были особые отношения
между её хозяйкой и компаньоном - если бы кто другой попытался сотворить такое
на её глазах с охотницей, он уже через секунду валялся бы с разорванным горлом
и выпущенными кишками. Теперь же, наконец-то получив приказ, Кирара мгновенно
обернулась и просто снесла в прыжке ударом тела Мироку с Санго.
- Держи, но не трогай! - крикнула девушка, бросаясь в угол, где лежали её вещи.
Большинство сост'
- 'query: Кто придумал праздновать Рождество всем вместе? Какой садист? За что он
меня так ненавидит?
За окнами была метель, которая, казалось, отрезала наш домик от всего остального
мира. А мне хотелось отрезать себя от всех в принципе. Угораздило же меня согласиться
помогать Риху на кухне. Надо было предвидеть, что с ним будет он.
Я крошил овощи для салата с особой сосредоточенностью, стараясь не поднимать глаз
от разделочной доски, но у меня не всегда это получалось. Я не удержался и бросил
взгляд на них: Пауль подошёл к Рихарду сзади и приобнял его за талию, Рих мягко,
но настойчиво отодвинул его руки, намекая на то, что они сейчас не одни, но всё
же довольно улыбнулся. Я непроизвольно сжал рукоятку ножа ещё сильнее, так, что
костяшки пальцев побелели, и принялся крошить овощи ещё мельче, превращая их в
кашу. Я упорно пытался загнать обуревающие меня чувства и эмоции куда-нибудь в
самый дальний уголок своей души, стараясь, чтобы они не проступили у меня на лице.
Какое мне дело до наших голубков? Никакого.
Рука Рихарда плавно легла на мою. Я вздрогнул от неожиданности и выронил нож,
жалобно звякнувший от удара об пол.
- По-моему, уже достаточно, - мягкий голос лид-гитариста нежно обволакивал моё
заиндевевшее сердце, словно тёплое одеяло, и заставлял его оттаивать. Рих поднял
с пола нож, положил его на стол, забрал у меня доску с овощами и направился обратно
к плите. С некоторых пор у Рихарда появилась привычка ходить по дому с обнажённым
торсом, и сейчас, когда он дефилировал по кухне в фартуке поверх чуть смуглого
голого тела, мне стоило больших усилий не пялиться на него и не захлёбываться
слюнями. Поэтому, бросив короткий взгляд на его спину, я постарался как можно
быстрее отвернуться.
С недавних пор мне стало казаться, что Пауль за мной следит. Я не раз замечал
на себе его прищуренный взгляд. Может, ревнует? Ну и пускай, пусть хоть немного
помучается.
- Спасибо, Тилль, - настойчиво произнёс Пауль и посмотрел на дверь. Уж не знаю,
был ли этот жест случайным или же преднамеренным, но я и так понял намёк. Угрюмо
кивнув, я вышел, прикрыв за собой дверь. Стоило мне отойти на пару шагов, как
я услышал, что со стола упали кастрюли (или же были специально оттуда скинуты
чьими-то нетерпеливыми руками). Я стиснул зубы и отошёл подальше от кухни.
Шнайдеру кое-как удалось уговорить меня спуститься к ужину. Я резко захлопнул
блокнот, в котором уже почти не осталось чистых страниц, неохотно поднялся со
стула и спустился в столовую, мрачно думая, что впереди ещё неделя такого кошмара.
Почему надо было тащить меня в этот чёртов загородный дом, где вокруг один лес?
И на глазах вечно Рихард с Паулем... Я был уверен, что вид этой парочки за столом
сразу отобьёт у меня аппетит. Например, когда Пауль снова как бы незаметно положит
Рихарду руку на колено, отчего у Риха покраснеют уши, он начнёт нервно посмеиваться,
затем как бы случайно уронит вилку на пол, нагнётся, чтобы неловко клюнуть своего
любовника в руку, после чего у Пауля на лице обязательно появится довольная улыбка
сытого кота. Ненавижу.
Вся группа уже сидела за столом, орудуя столовыми приборами над приготовленным
нами ужином. Моя порция одиноко стояла в стороне - значит, они не были уверены
в том, что я приду. Я молча взял её и сел за стол, никак не отреагировав на пожелания
приятного аппетита. Кажется, они думают, что у меня творческий кризис. Это было
бы мне на руку - меня побаивались трогать, предоставляя меня самому себе. А вот
рука Пауля медленно потянулась вправо, к Рихиному колену. Во рту всё окислилось,
я с трудом сдержал рвотный позыв. Не стоит заводиться... Не стоит заводиться...
Не стоит заводиться!
Я откинул вилку в сторону, за столом воцарилась гробовая тишина. Я знал, что ещё
несколько минут никто ничего не скажет: все будут дожидаться, пока я уйду, чтобы
не попасться под горячую руку.
И я ушёл. Зачем портить людям настроение. У них ведь атмосфера праздника. Завтра
же грёбаное Рождество.
Оливер зашёл ко мне, когда было уже за полночь. Я сидел за столом и усердно строчил
в блокноте. Рифма хлестала из меня без остановки, меня словно тошнило строчками
стихотворения; мне было плохо, но всё, чем я мог себе помочь - это писать и писать,
выплёскивая из себя всё то, что накопилось.
В комнате было темно: я писал, сидя у окна, и мне вполне хватало света фонаря
на улице.
- Я могу чем-нибудь тебе помочь?
Я едва сдержался, чтобы нервно не засмеяться: конечно, можешь, Олли! Задуши Пауля.
Нет, лучше застрели. Или утопи. Сделай хоть что-нибудь, чтобы это маленькое чудовище
не появлялось рядом с Рихардом!
- Нет, спасибо, у меня всё в порядке.
Оливер недоверчиво посмотрел на меня, но не стал ничего говорить, за что я был
от души ему благодарен. Я порой завидовал его спокойствию, терпению и, пожалуй,
мудрости. У нас с ним значительная разница в возрасте, но порой мне кажется, что
он значительно опытнее меня. Наверное, всё дело в его спокойном и немного загадочном
взгляде. Говорят, глаза - зеркало души. Я бы с большим интересом заглянул в душу
к Оливеру. Пожалуй, это один из немногих людей, чья душа меня в принципе интересует.
Мы молчали. За окном в причудливом вальсе кружились снежинки, а ветер, словно
строгий балетмейстер, сурово ворчал на них. Тикали настенные часы, тихо и глухо,
будто подстраивались под стук моего сердца. Оливер ещё стоял за моей спиной. Мне
казалось, он хочет ещё что-то мне сказать, но я не понимал, почему он медлит,
вроде бы в его взгляде не было нерешительности. В конце концов, он развернулся
и направился к выходу, очевидно, передумав и решив оставить этот разговор на потом.
Он лишь спросил напоследок:
- Тебе что-нибудь привезти из города? Мы со Шнайдером забыли лыжи, а нам уж больно
хочется покататься, пока снег не начал превращаться в грязь.
- Захватите мне чистый блокнот.
И Оливер ушёл, снова оставив меня наедине с блокнотом. Черкнув ещё пару строк,
я понял, что фонтан идей иссяк. Я задумчиво пролистал исписанные неаккуратным
почерком страницы. Осталась лишь одна чистая. Только сейчас я понял, что все стихи,
написанные здесь, посвящены Рихарду.
Я решил лечь спать не столько потому что устал, сколько из желания убить время.
Время... Как же я его ненавижу. Вероятно, потому что упустил его. Пока я писал
свои стихи, время капало, словно вода из плохо закрытого крана. И я опоздал. Теперь
Рихард разделяет свою широкую кровать не со мной, а с тем, кто оказался проворнее,
быстрее, сообразительнее. А я так и остался лежать под холодным одеялом один,
наедине со своими стихами, которые я никому и никогда не покажу. И я постепенно
становлюсь колючим, и, кажется, обрастаю коркой льда.
Сон не приходил. Я уже потерял счёт тому времени, в течение которого я лежал на
спине, глядя на белоснежный потолок, по которому скользили тени снежинок. Тишина
гудела в ушах. Хотя я довольствовался ей не так уж и долго.
Спустя какое-то время, к моему негодованию, я услышал скрип кровати в соседней
комнате. Я до последнего надеялся, что мне это показалось. Нет. Не показалось.
Скрипы стали сильнее, деревянные башенки у изголовья кровати начали стучаться
б стену, и я услышал его голос. Громкий протяжный стон, затем серия чуть более
частых. Мне казалось, я слышал даже его дыхание.
Меня словно ударили в грудь, выбив весь воздух из лёгких. Было больно и обидно.
Я пожалел, что поселился рядом с Рихардом. Я накрыл голову подушкой, стараясь
не слышать этого кошмара, но тщетно; вскочил с кровати, начал ходить по комнате,
подавляя желание броситься в соседнюю и раскидать любовников как котят. Хотелось
обличить, пристыдить их. Впрочем, перед кем? Все итак давно обо всём знали и,
как взрослые, адекватные люди, закрывали на это глаза. Так что я просто выставлю
себя дураком.
Какофония из стонов и скрипов становилась всё громче. Я обессилено упал на кровать,
моля Бога, чтобы скорее всё закончилось, и закрыл глаза. Слышны были стоны только
Рихарда. Я представил, что он сейчас здесь, со мной, что это я сжимаю в руках
его ягодицы, оставляя на них иссиня-красные полумесяцы, что это я нежно вхожу
в него, что он подо мной вздрагивает от наслаждения...
В паху медленно созревал огненный шар. Он обжигал всё внизу живота, периодически
посылая наиболее жаркие импульсы. Я приспустил резинку пижамных штанов, всё ещё
не открывая глаза. Моё дыхание заходилось, стоны по ту сторону стены учащались,
горячая плоть была готова лопнуть от напряжения.
Два громких, резких выдоха. Его - мой. В моём, кажется, проскользнуло эхо его
имени, которое обожгло мне горло.
Всё вокруг стихло. Тишина снова прокралась в мои уши.
Мне было гадко. Но всё-таки я был счастлив от того, что нам с Рихардом было хорошо.
Я бы смог удовлетворить его не только физическое желание, я бы смог доставить
удовольствие и его душе. Я бы многое смог...
Откинув со лба влажные от пота волосы, я повернулся на бок и достаточно быстро
уснул.
Меня разбудили холодные лучи-иголочки недружелюбного зимнего солнца, проникавшие
в мою спальню. Едва я разлепил глаза, будильник на прикроватной тумбочке услужливо
показал мне время: без пяти десять. Я впервые за долгое время чувствовал себя
хорошо. Мне казалось, что несколько предыдущих недель я карабкался в высокую,
крутую гору и, наконец достигнув вершины, скатился с неё вниз, будто на санках,
наслаждаясь скоростью и свистом ветра в ушах. Казалось, что я только что передал
эстафетную палочку и был рад, что предыдущий, мой этап остался позади. Пускай
я его и проиграл.
Я не стал нежиться в кровати, упиваясь своим хорошим настроением, а спешно встал,
накинул халат и спустился вниз, в столовую. Там был один лишь Флаке, он сидел
за столом, читая книгу и прихлёбывая кофе маленькими глоточками.
- Доброе утро!
Клавишник оторвался от книги и дружелюбно улыбнулся.
- Доброе. Как спалось?
- Замечательно! - широко улыбаясь, сказал я. Впервые за последнее время мне ничего
не снилось, чему я был несказанно рад, ведь все мои сны крутились вокруг Рихарда.
Либо это были кошмары, в которых он был с Паулем, либо это были прекрасные сны,
в которых мы были вместе и любили друг друга, и от этого мне было невыносимо больно
просыпаться. Поэто'
- source_sentence: 'query: Фэш думал, что Василиса - глупая рыжеволосая шпионка, которая
выполняет любые приказы своего отца, идет по стопам Огнева для достижения высшей
точки власти. Думал, она пытается разрушить жизни Ника и старшего Лазарева. Парень
считал, что девочка лишь втирается в доверие, делает вид, что она такая добрая
и милая, вечно краснеющая и невинная красавица. А на самом деле внутри ее души
свернулась кольцами змея, ожидающая момента, когда придется вонзить свои зубы
в шею противника и впрыснуть яд.
Фэш думал, что Василиса никогда не сможет научиться летать. Люди, расхаживающие
по земле, не могут почувствовать крылья за спиной, "отключить руки" и взмыть в
голубое небо. Не способны почувствовать порывы ветра на своей коже и понять, какого
это превратиться в птицу.
Драгоций уверял себя в том, что совершенно не завидует ее умению находить выход
из сложных ситуаций, улыбаться, продолжать шутить и веселиться, хорошо зная о
приближающемся нападении Астрагора. Драгоций считал правильным скрывать эмоции,
не открывать толпе свои чувства, мысли и страхи, ведь так живется легче. Поэтому
об этой легкой зависти никто и не знал. Даже Ник.
Фэш думал, что Василиса вечно будет выделять из толпы, потому что уважающие себя
часовщики не делают всякие акробатические номера в свободное время. И, тем более,
не лазают по деревьям.
Парень считал, что Василиса - глупая девчонка, потому что дерзит и перечит старшим,
постоянно пререкается с компанией Марка, подбрасывая в пламя напряженности все
больше сухих поленьев. Парень точно знал, когда-то она заплатит за все свои действия
и колкие слова, и даже позволял себе растягивать губы в фальшивой улыбке, размышляя
об этих недалеких временах.
Драгоций ненавидел ее за то, что она одарила его сочувствующим взглядом и попыталась
пожалеть, понять, когда узнала об его сиротстве. Фэш считал, что девочка могла
не спрашивать у него о старых временах и не пытаться подбодрить, что ему жалость
совершенно не нужна.
Фэш думал, Василиса - слишком слабая для того, чтобы выжить после случая с Алым
Цветком, ведь никто ранее из носителей черного ключа не выживал. Наверное, поэтому
Драгоций решил помочь ей. На парня повлияла милая улыбка Огневой. Фэш тогда для
себя решил, что в последний раз делает ей подобное одолжение и дарит жизнь, пообещал
не вспоминать о злополучном дне возвращения к Астрагору из-за рыжеволосой.
Драгоций думал, что Василиса не победит великого духа, пусть даже выучит тысячу
эферов, что Огнева - немощная и бессильная девчонка, которая только и умеет, что
помогать другим и строить из себя героиню дешевого романа. Он пообещал, что не
присоединится к ней, не будет помогать. Фэш считал, что лишь делает вид и притворяется
ее другом.
Драгоций думал, что не влюбится в нее, не пойдет на поводу каких-то нелепых чар
рыжеволосой, но он лишь в очередной раз ошибался.'
sentences:
- 'query: Гарри крутит колесико зажигалки, Тикки заканчивает есть свое печенье и
смотрит на него укоризненно, как бы говоря прекрати-это-парень-не-поможет (но
он не может, черт, попросту не может, потому что курение - это привычка, единственный
быстрый способ перестать желать смерти Элеонор, потому что, хэй, он супергерой,
ему нельзя убивать невинных людей).
Гарри виновато улыбается и з-а-т-я-г-и-в-а-е-т-с-я сигаретным дымом до жжения
в горле, черных точек перед глазами и адской боли где-то между ребер, вспоминая
переплетенные пальцы любви всей его жизни и девушки, отравляющей его существование
с самого первого класса.
У нее папа - мэр города, вещи от мировых брендов, красивая (но пустая) внешность
и целый воз ужасных поступков, и Гарри понятия не имеет, что Луи в ней мог найти
(нашел).
- Ты сильный, - говорит его маленькая подруга, садясь на плечо. - То, что Луи
начал встречаться с Элеонор, не так страшно, как создания, с которыми ты постоянно
сражаешься.
(гораздо страшнее)
- Конечно, - хрипит Гарри вместе с косой, натянутой улыбкой на лице, и Тикки ему,
кажется, верит, кладя маленькую ладошку на щеку в знак одобрения.
Гарри шестнадцать. Он должен ходить на свидания, веселиться с друзьями и наслаждаться
жизнью, но вместо этого он спасает Париж чуть ли не ежедневно, летая по городу
на дурацком йо-йо, словно человек-паук, и полагаясь на силу маленького браслета
(красного, в крапинку, как крылья Божьей Коровки).
(а еще Гарри пытается скрыть от всех свою (не очень) маленькую влюбленность в
Луи Томлинсона, его одноклассника, рядом с которым не может связать даже двух
слов и удержаться на ногах.
теперь это неважно, потому что (его) Лу встречается с Элеонор, и парень чувствует,
как в груди что-то жжет, а желание жить с каждым днем уменьшается в геометрической
прогрессии, ой-ой).
Первым замечает Нуар, и не то чтобы Гарри удивлен этому факту, просто как-то странно,
что этот раздражающий, дерзкий и совершенно-не-похожий-на-взрослого кот почувствовал
его притворство.
- Все в порядке, Божья Коровка? - спрашивает он, когда они побеждают Рефлекту,
и остается несколько минут до превращения.
Зеленые глаза за маской выглядят (по-настоящему) обеспокоенными, и Гарри хотел
бы поверить в реальное волнение Кота о своей жизни, но это не в его силах.
Гарри фыркает и пытается держать себя в руках (вдох-выдох, мальчик), потому что
они ведь напарники, и он не обязан открывать свою душу, верно? (к тому же, говорить
с Нуаром о любви все равно что с ребенком, он рассмеется, не поймет)
- Разумеется, с чего ты взял, что что-то не так, котик? - Гарри легонько бьет
его по носу, Гарри смеется и делает вид, что он действительно в порядке, пусть
внутри и все ноет и скандирует пиздец-пиздец-пиздец-я-так-облажался (снова).
Нуар морщит нос и смотрит еще более пристально, перехватывая его ладонь и качая
головой, не верю, мол, придумай что-нибудь получше.
- Я просто чувствую, - ушки на его голове дергаются, и Гарри дергается тоже, пытаясь
уйти (убежать) и вернуться домой, чтобы покурить в одиночестве, но хватка Кота
крепкая, а голос отчаянный, почти умоляющий, когда он просит рассказать (поделиться).
- Это не твое, черт возьми, дело, - шипит Гарри, все-таки вырывая руку, и спрыгивает
с крыши. - До встречи на следующем задании, напарник.
У Луи - морские глаза, ослепительные улыбки и вечный румянец на щеках (и он такой
красивый, господи, что Гарри готов поклоняться ему, как своему личному Богу).
Иногда Луи замечает его взгляды и подмигивает, и Стайлс, правда, знает, что это
все несерьезно, но ничего не может с собой поделать, улыбаясь так широко, что
болят скулы, потому что, черт, он влюблен, влюблен, влюблен так сильно, так глупо,
так по-детски (кажется, уже целую вечность).
Гарри мечтает взять Луи за руку (чтобы тот позволил это сделать), превратиться
в чертову Божью Коровку и подняться на самый верх Эйфелевой, чтобы обниматься
с ним над всем Парижем.
(и Гарри знает, что в шестнадцать он должен желать заняться сексом с человеком,
который нравится, но этого нет, потому что уже четыре года Луи хочется только
л-ю-б-и-т-ь, и ничего больше).
В понедельник Луи целует Элеонор на глазах у всего класса, и Гарри чувствует,
как внутри него взрываются (города, вселенные, сверхновые), но молчит (когда любишь,
всегда молчишь).
Гарри приходит в свою пустую квартиру (родители уехали по работе на неделю куда-то
в Америку, и не сказать, что Стайлсу все равно, или что он не скучает, просто
ему не до них сейчас, правда) и падает на диван, желая только одного - умереть
(впервые так сильно за последнее время).
Он вытаскивает из комода бутылку вина, хотя ему еще лет пять как нельзя принимать
спиртное, и пьет весь вечер, пока перед глазами не начинают летать черные точки,
а голова кружиться. Гарри думает, что притворится больным и останется завтра дома
(нет никакого желания видеть любимого человека, который счастлив с другим).
Тикки говорит, что он не может просто так взять выходной, зло не дремлет, и все
такое, но Гарри все равно, он верит, что Нуар справится сам.
В итоге Квами вытаскивает его на задание, и Гарри ненавидит ее так так сильно,
что не хочет видеть еще ближайшие несколько дней.
Кот уже на месте и смеряет его (снова) взглядом, наполненным волнением, но Гарри
лишь отмахивается и отворачивается, чтобы быстренько выпить еще одну таблетку
ибупрофена - голова раскалывается так, будто там целый пчелиный улей.
Они едва не заваливают эту битву, потому что Нуар постоянно оглядывается на Стайлса
и пытается его прикрыть, а Гарри просто чувствует себя зомби (мозги не соображают,
тело едва слушается), но в конце концов все заканчивается как всегда, хорошо,
и Гарри обессиленно прислоняется к стене какого-то здания, прикрывая глаза (сейчас
бы оказаться на необитаемом острове, посреди дикой природы и бушующего океана).
- Ты можешь рассказать мне, что происходит, я пойму, - говорит Нуар, подходя к
нему, и Гарри хмыкает, потому что Кот все еще последний, кому бы он доверился.
- Все в порядке, - цедит Гарри с раздражением. - Просто небольшие проблемы в жизни
и похмелье.
- Я лишь хочу помочь, - в голосе парня проскальзывают обиженные нотки, и Гарри
(почти) его жаль.
- Мне никто не может помочь, понимаешь? Мне нужно, чтобы все оставили меня в покое,
и перестали пытаться что-то выяснить и исправить.
- Дай мне шанс, - просит Нуар и, черт, он действительно волнуется, теперь Гарри
не может это игнорировать. - Мы можем встретиться где-нибудь и поговорить. В костюмах,
конечно же.
И Гарри не знает, что руководит им, когда он говорит "да".
В среду к Стайлсу приходит Зейн (лучший друг из категории вместе-с-детства-и-навсегда).
Он приносит с собой "1+1" и мороженое, но когда видит состояние Гарри, то просто
утягивает его с собой на кровать, чтобы обнять.
- Как ты думаешь, от любви можно умереть? - спрашивает Гарри, положив голову Зейну
на грудь и прислушиваясь к мерному стуку сердца, чувствуя (господи-боже-мой-наконец)
умиротворение.
Зейн тихо смеется над глупостью Гарри, но все равно обнимает крепче, прижимая
к себе, потому что знает, что нужно его младшему другу (знает, как лечить его
больное сердце).
- Хаз, ты же знаешь, что Луи с Элеонор не смогут быть дольше недели, она достанет
его своим отвратительным характером и писклявым голосом, - шепчет он. - Твоя любовь
никуда от тебя не денется.
Гарри тихо всхлипывает и прижимает ноги к телу, сворачиваясь клубочком. Он выглядит
истощенным и слабым, и Зейн чувствует боль от этого, но ничего не может поделать
(разве что врезать Томлисону, хоть это и глупо).
Гарри чувствует себя маленькой букашкой, которую вот-вот растопчут, у него нет
сил, энергии (и веры в лучшее, кстати, тоже с недавних пор).
Гарри думает, что не достоин быть супергероем и спасать мир, потому что не может
спасти даже самого себя.
Гарри обещает себе стать чуть сильнее (ради всего мира) и поговорить-таки с Нуаром
(потому что вина гложет его изнутри, и с ней надо что-то делать), ведь именно
это и делают супергерои - забывают о себе, заботясь о других - верно?
(на следующий день Гарри замазывает круги под глазами и выкуривает последнюю сигарету,
выкидывая пачку к черту с хватит себе под нос.
Гарри учится терпению, начинает здороваться с Луи и Элеонор и даже поздравляет
их, и пытается меньше смотреть на парня (последнее не получается, но ни одну великую
цель нельзя достигнуть сразу, так что)).
В четверг Гарри покупает чипсы, конфеты и газировку (он понятия не имеет, что
именно любит Кот) и идет на встречу с Нуаром в один из самых малонаселенных районов
города, где никто точно не заметит их, даже не надеясь на то, что разговор с ним
хоть как-то поможет ему.
- Ты здесь, - вскрикивает парень, вскакивая со своего места, и его глаза загораются
искренней радостью, когда он видит конфеты и все остальное. - Господи, тебе не
нужно было все это приносить.
Гарри пожимает плечами, потому что, черт, это же ерунда, и усаживается, откидываясь
на спинку лавочки.
- Давай начнем сразу. Чем быстрее, тем лучше, верно? - усмехается он, сплетая
свои пальцы в замок от внезапного чувства неловкости и испуга.
- Ты расскажешь мне, что происходит? - недоверчиво интересуется Нуар.
- Ты ведь не отстанешь, а мне уже осточертела твоя забота, словно я маленький
ребенок. Со мной не случилось ничего такого, от чего надо оберегать. Просто человек,
которого я люблю уже четыре года, встречается с другим, и это, оказывается, гораздо
хуже, чем описывают в книгах. Мне кажется, что я сгораю заживо, когда вижу их,
идущих по коридору, и это убивает, понимаешь? Потому что я знаю, что у меня нет
никаких шансов, я всего лишь глупый троечник с последней парты, у которого ни
внешности, ни богатого отца, в отличие от его чертовой девушки с отцом-мэром,
- заканчивает Гарри с полным опустошением внутри, ведь это первый раз, когда он
рассказывает свою историю кому-то, кроме лучшего друга.
- Я думаю, я понимаю, - кивает Нуар, выглядя серьезным и неожиданно удивленным,
и приобнимает его за плечи, заставляя прижаться к себе.
Гарри тяжело дышать после такого откровения, и его сердце бьется чересчур быстро,
так что он забывает о том, что они с Кот'
- 'query: Аято сжимает кулаки, глядя на уже въевшееся в душу имя. "Юи Комори".
Он - её Господин. И она обязана подчиняться ему. И, следуя этому правилу, сейчас
должна воскреснуть.
Злоба пожирает его, заставляя тихо рычать. Обычно подвёрнутая штанина опущена.
- Знаешь, так ты выглядишь немного... Небрежно.
Удар - по надгробному камню проходит трещина. Фото расщепляется надвое. Он готов
поспорить, что она сейчас стоит позади него. Губы поджаты, девушка едва ли сдерживает
слёзы. Руки нервно теребят и без того помятую юбку. Он готов поспорить, что сейчас
она тихо скажет что-то про то, что хозяин могилы будет недоволен. И он готов поспорить,
что если он обернётся, она исчезнет.
Аято устало облокачивается на дерево. Дождь приятно охлаждает разгорячившееся
тело.
- Я не разрешал тебе умирать...
И он готов поспорить, что она сейчас улыбается.
Рейджи садится на скамейку. Луну скрыли тучи - он уверен, что скоро пойдёт дождь.
Вампир элегантным движением поправляет очки. И почему ему захотелось придти сюда
именно сейчас?...
Чутьё вампира не обмануло. На каменный портрет падает несколько капель, а через
несколько секунд дождь уже льёт стеной.
Рейджи так и не двинулся с места, несмотря даже на настойчивое мяуканье за спиной.
Видимо, не выдержав, на скамейку запрыгивает небольшая кошка. Сиреневые глаза
чуть светятся, а насквозь мокрая белая шёрстка больше похожа на половую тряпку.
- Знаешь...
В шуме дождя голос парня едва различим, но кошка лишь наклоняет голову набок.
- Это крайне не вежливо. Из-за тебя я тут промок до нитки.
На шее кошки едва различимо поблёскивает миниатюрный нательный крестик на серебряной
цепочке... Наверное, показалось.
- Райто, а ты всегда носишь эту шляпу?
Вампир усмехается. Он сам не знает, когда и зачем он начал носить эту шляпу. Но
девушка действительно заметила - при ней он всегда был в шляпе. Был...
Райто провёл пальцами по трещине, разделяющей камень на две части. Парень тут
же распознал запах брата. Прикусив губу, он вновь присел на скамейку. Он уже знал,
кому сегодня влетит по полной программе.
- Считай себя избранной, маленькая стервочка.
Чёрная шляпа с красной лентой ложится на замысловатые узоры камня. Вампир усмехается
и встаёт.
Обострённое обоняние тут же улавливает знакомый запах. Усмешка тут же перерастает
в широкую довольную улыбку. Зелёные глаза хитро прищуриваются.
- Мы ещё встретимся, маленькая стервочка.
Запах клубники с примесью металла.
Канато вновь и вновь вглядывается в так полюбившиеся ему черты. Несмотря на новизну,
изображение на надгробном камне уже слегка стёрлось. Тонкие пальцы судорожно сжимают
плюшевого медвежонка, перебирая короткую искусственную шерсть. Парень до сих пор
не понял, как это могло случиться. Он отчётливо помнил, как вошёл в её комнату,
намереваясь испугать девушку. Он отчётливо помнил ту безмятежность, что застыла
на лице Юи. Он отчётливо помнил тот неистовый холод, исходящий от коченеющего
тела девушки.
Слёзы катятся из глаз, оставляя за собой мокрые дорожки. Он редко плакал. Уж лучше
смеяться, не правда ли?
- Знаешь, ты права.
Уголки губ парня чуть приподнимаются. Слёзы начинают течь с новой силой. Улыбка
становится ещё шире, обнажая белоснежные клыки.
- Смех продлевает жизнь, ведь так?
И он смеётся. Несмотря на то, что уже задыхается от рыданий.
Шу чуть щурится и отворачивается от фонаря, по его мнению так неуместно расположенному
здесь по его же просьбе. И о чём он тогда думал?! Ах да, о Юи...
- Знаешь... Я вовсе не боюсь темноты, Шу. Просто я хочу видеть лицо того, кто
скрывается в этой тьме.
Вампир еле слышно вздыхает. Фонарь полностью освещает его фигуру, что немного
раздражает. Ему неловко просто сидеть на могиле когда-то настолько заинтересовавшей
его девушке. Шу жутко хочется спать, но вновь услышать её голос хочется ещё больше.
Парень смотрит прямо в глаза портрета из-под опущенных ресниц. Ему кажется, что
он слышит её тихий смущённый голос. Два пальца ложатся на глаза портрета Юи, хоть
и не закрывая, но хотя бы перекрывая им обзор на вампира.
Лёгкая, даже немного грустная усмешка отражается на лице Шу.
- Закрой свои глаза, пожалуйста.
Ему показалось, или Юи действительно ему улыбнулась?..
- И не оправдывайся передо мной.
Субару фыркает, смотря на чёрно-белую фотографию Юи. Парень, тихо рыча, кидает
нож на могильную плиту. Он тут же втыкается в неё, оставляя вокруг себя паутину
мелких трещин. Субару, сжав кулаки, приседает напротив портрета и долго всматривается
в знакомые черты лица.
- Ты... Мне кажется, ты не такой, как они.
Парень скалится и уже более вольно располагается напротив камня.
- А ведь ты мне обещала, помнишь? Ты обещала, что убьёшь меня. И что теперь?..
Первые капли дождя упали на щёку Юи. Какому-нибудь сопливому романтику покажется,
что это напоминает её слёзы. В ответ на это Субару вполне может рассмеяться этому
человеку в лицо. Уж он-то знает, что её слёзы не такие. Её слёзы всегда внутри.
Беловолосый улыбается. Он уверен - она его слышит.
Несколько парней стоят около свежей могилы, не решаясь проронить и слова. По разноцветным
зонтам барабанит дождь. Один из вампиров не выдерживает и делает шаг к могиле.
- Она... Умерла навсегда, да? - голос Канато дрожит.
Парень, не получив ответа на свой вопрос, сильнее прижимает к себе своего плюшевого
мишку. Он обводит взглядом братьев и делает ещё одну попытку разрушить эту мёртвую
тишину.
- Но ведь... Рейдзи, ты же когда-то спасал Юи!
Рейдзи качает головой и поправляет очки. На смену всем недавним чувствам пришла
уже знакомая, но тем не менее ненавистная апатия.
Канато благоразумно замолкает и сжимает мягкую лапу Тедди. В голову влетает рассеянная
мысль о том, что Юи всегда говорила с медведем, как со старым знакомым. Пусть
когда-то это и раздражало, но сейчас он был готов простить Юи и это.
Небо просветлело. Райто, отреагировав на это первым, сложил зонт и игриво посмотрел
на белую кошку, сидящую на могиле. Рейдзи, проследив за взглядом брата, понятливо
хмыкнул.
- Слушайте, а вы верите в переселение душ? - голос Райто звучит непривычно громко.
Аято усмехается и смотрит на надпись, которую до этого загораживала кошка. И ему
почему-то кажется, что они немного поспешили.
"Заткнись и спи."'
- 'query: -Мукуро, смотри, смотри - это облачко похоже на барашка.
Иллюзионист открыл глаза, солнце на миг ослепило его, но он все уже умудрился
рассмотреть то самое облачко, о котором говорил Тсуна.
-Мм. Скорее похоже на гору сладкой ваты, чем на барашка.
При этих словах он улыбнулся Саваде, отчего тот сразу же покраснел. Легкая усмешка
сорвалась с губ Хранителя Тумана, ему всегда до безумия нравилось смотреть как
смущается его любимый...босс, нет, любимый.. просто любимое Небушко.Несмотря на
то, что Тсунаёши повзрослел, порой он вел себя как ребенок.
-Знаешь, Мукуро,а мне кажется, что ты будучи иллюзионистом обладаешь довольно
странной фантазией.
Иллюзионист посмотрел на Десятого. Разве мог он рассказать ему, Тсунаёши, о тех
фантазиях, что посещали его, особенно по ночам.
Когда начались их отношения, Мукуро согласился на некоторые условия, которые поставил
перед ним Савада.Он, несмотря на свою горячую итальянскую кровь, страсть, присущую
любому представителю данной национальности, согласился на эти условия. Слишком
поздно он осознал, что его любимый такой стеснительный, что даже порой сорвать
с его губ поцелуй - такая проблема. Несмотря на то, что они жили вместе уже второй
год, Савада оставался...девственником.И снова на губах Рокудо отразилась странная
задумчивая улыбка. Когда он так сильно изменился, когда стал изменять своим принципам?
Раньше, он бы не задумываясь просто взял был бы Вонголу, не спрашивая того - хочет
он этого или нет. Однако многое поменялось, насилие в отношении этого парня он
отмел сразу же. Он ведь любит .Савада любит его, но почему и от чего? Продолжая
смотреть на Тсуну, он задавал себе эти вопросы уже, наверное, в тысячный раз.
Почему он так рад тому, что может вот так спокойно сидеть здесь, в парке на лужайке
и улыбаться ему? Савада Тсунаёши - человек, который изменил его и мир внутри.
Странный мальчик, без особого дарования, не смелый, но и не трусливый .А когда
дело касалось его семьи, друзей - отважнее его не найдешь никого .От чего же он,
Рокудо Мукуро, холодный, циничный, ненавидящий мафию, убийца, так счастлив, находясь
рядом с Десятым боссом Вонголы?
Легкое прикосновение к его руке вывело Рокудо из потока размышлений.
-Мукуро, что-то случилось?
В глазах, этих карамельных глазах, неожиданно отразилось переживание и страх.
-Все в порядке, милый, все хорошо. Просто задумался.
Потянувшись к Саваде,он, обхватив того за талию, усадил себе на колени, нежно
прижимая к своей груди. Пальцы ласково поглаживали волосы, губы трепетно целовали,
заставляя Тсунаёши смущаться еще больше. Податливое, разгоряченное тело парня
сносило крышу у Мукуро и, когда легкий стон вырвался из груди любимого, иллюзионист
скользнул ладонями под рубашку, поглаживая спину, заставляя выгибаться, стонать
и сильнее прижиматься. Губами провел влажную дорожку по шее к ушку.
-Му-ку-ро..
Тсуна дрожал всем телом от возбуждения каждый раз, когда Мукуро ласкал его, ему
хотелось, чтобы тот ни за что и никогда не останавливался.
-Не останавливайся, Мукуро.
От этих слов руки Мукуро замерли, он ведь давно мечтал, чтобы его любимый сказал
ему это.А сейчас он взглянул в глаза Тсунаёши, пальцем провел по щеке и, неожиданно
для себя, прижал его к себе со всей нежностью. Как же хотелось вот так сидеть
с ним, прижимаясь, слушая биение любимого сердца, ощущать ласковые прикосновения
теплых рук, чувствовать дыхание на своей коже, что обжигало и сводило с ума. В
уголках глаз сверкнули слезы. От чувства, что сейчас охватило Рокудо, хотелось
плакать. Какое же это счастье - быть кому-то нужным, важным. Быть любимым.
-Я никогда не остановлюсь, обещаю тебе, мое Небо!
Отстранившись слегка от Мукуро, Тсуна поцеловал того в губы, пальцами стирая слезы
с щек.
-А я никогда не оставлю тебя, мой Туманчик!
Солнце уже коснулось макушек деревьев, а они продолжали сидеть молча, ведь им
не нужны были слова. Они понимали друг друга и без них.
-Джудаймее...Где вы?
Вдали послышали крики Гокудеры. Хранитель Урагана носился по парку в поисках своего
босса.
Рокудо выдохнул, Тсуна улыбнулся, они понимали, что пришло время им возвращаться
в тот мир, который не терпит сентиментальностей и нежностей. Мир мафии жесток
и беспощаден, но эти двое, живя в нем, хранили чувство, которое связало их .И,
несмотря на войны, потери, они пронесут это чувство до того дня, когда их не станет
уже на земле. Но, кто знает, может придет время и они встретятся снова, ибо настоящая
любовь вечна и не угасает, несмотря на года и века.'
- source_sentence: 'query: - Канда! Я ещё согласился на пассив "снизу" ! Но это уже
даже не пассив, это уже без актив какой-то!
- А что ты от меня хочешь-то? Я уже не могу сдерживаться!
- Не вдавливай меня ТАК в стену-то!
- Тч. Мояши, хватит елозить и наслаждайся моментом!
- Но это не честно! По отношению, между прочим, к те...ммммм!!!
- Тч. Мояши, что это?
- Бантик!
- Я вижу, на кой чёрт ты мне его завязал?
- Так ты похож на подарок!
- Счас Мугеном огребёшь!
- А почему ты не спросишь "Кому?"
- Мне это не интересно! А кому?
- Мне!!! ... *Чмок*
- Хм... меня это не устраивает!
- Чего?!!
- Того!
- ММММ!!!
- Комуи! Что это значит? Что с Алленом?
- Что? А, Канда. Аллена Уолкера ранили на миссии!
- Это я уже понял! Что с ним, говори конкретней! - самурай встряхнул начальника.
- Не повышай на меня голос! - возмутился смотритель.
- Вот с вашей сестрой что-нибудь случится, я вам тоже скажу "Не кричите!" Что
с Мояши?
- Эх... на миссии Аллен ослеп. Но не переживай. Это временно! Зрение восстановится!
Месяца через 3!
- 3 МЕСЯЦА?!
- Да! Ты уж не обижай его пока.
- Без вас знаю!
- Ты куда?
- К Аллену, куда же ещё! - грозно рявкнул самурай.
- Ох уж эти голубки...
- К-кто здесь? - Аллен сидел на койке, завернувшись в одеяло.
- ... - шаги приближались.
- Н-не подходи! - а вы бы не испугались, прежде оставшись в одиночестве, среди
акум, в густом лесу, без зрения? То-то же!
- "Не оставлю!"
- Чистая Сила! - занёс руку, предупреждая врага.
- "Ни за что больше не оставлю одного!" Аллен! - подхватить тонкое тельце на руки,
прижать к себе, ладонью накрыв глаза Мояши, как в первом поцелуе. И коснуться
уголка ротика своими губами.
- К-Канда?!
- Не волнуйся! Я стану твоими глазами пока ты продолжаешь быть моим Сердцем Невинности.
А ты уставший идёшь с миссии.
А я уставший иду с тренировки.
Твои ноги истоптаны.
POV Канды.
Моя голова болит.
Твои руки ноют.
Моё сердце истомилось.
И вот мы идём друг на друга, поднимаем грустные, измученные глаза друг к другу.
Ты останавливаешься.
Дурак, что-то говоришь.
Что-то кричишь.
О чём-то молчишь.
Как-то смотришь.
О чём-то волнуешься.
Снова о чём-то кричишь.
С грустью смотришь.
О ком ты мучаешься?
Делаешь шаг, ещё один.
Хватаешь за воротник.
Привстаёшь на носочках.
Целуешь...
Дурак, ты же устал!
Дурак, я же устал!
Я останавливаюсь.
Дурак, что-то отвечаю.
Что-то кричу.
На чём-то замолкаю.
Тупо смотрю.
Что-то щемит.
Опять что-то ору.
Отрешённо смотрю.
За кого-то волнуюсь.
Стою.
Настораживаюсь.
Всё равно.
Неужели?!
Отвечаю на поцелуй.
Как же мы устали!
- Давно?
- Всегда, Мояши.
- Нет, честно, я ненавижу голубей! А особенно белых! - скандалил Лави идя по коридору
Чёрного Ордена.
- Чем же они тебе не нравятся? - спросила девушка-китаянка.
- Да блин, сидят везде где не попадя и сверху какают!
И только они зашли за поворот, как услышали:
- Нет, Канда, прекрати! Нас могут увидеть!
- Да кто нас тут может увидеть, Мояши?
- Ну, кто-нибудь! Ах... Юу!
- Мимо голубятни никто не проходит! Это надёжная часть замка!
- Ну, ну, ну ладно... но почему именно тут?
- А кто верещал что ему романтики не хватает? - Канда недвусмысленно зажимал Аллена
на подоконнике.
Лави и Линали шарахнулись обратно.
- Хотя знаешь, Ли. Может в этих голубках что-то и есть!
Дышать становится всё труднее, меня загоняют в угол. Я испуганно оборачиваюсь
и вижу... его.
- Ты, проклятый! - окрикивает строгий японец.
А я молчу, дыхание сбилось, взволнован. Что ему нужно?
- Не думал что ты опустишься до краж, Мояши.
Что? Краж? Каких краж, Юу?
- Ты о чём?
- Именно ты, о я не сомневаюсь, - он издевается? - ты украл у меня одну вещь.
- Канда, я ничего не брал! - откуда это чувство безысходности? Он остановился.
- Либо верни мне его, либо я заберу твоё! - Что? Я его не понимаю! Что он делает?
Хватает за подбородок, тащит на себя. И... боже, что это? Он... Я чувствую его
губы и сам не пониая - отвечаю! Канда, ты, ты, ты... настоящий вор! Ты крадёшь
моё сердце!
- К-канда... - руки повисли. Не соображаю.
- Верни моё сердце, Грёбанный Стручок!
- Я... ни за что! Я оставлю его себе! А ты... уже забрал моё...
Волновался как-то Аллен, ведь Канда был на миссии. И вот шлёт он ему письмо через
голема.
А: Ты там вообще живой, БаКанда?
К: Да, Аллен. Живой, я живой!
А: Канда! Что с тобой? Тебе плохо? Умираешь? Тебя Линали поцеловала? Держись друг!
К: Ты чё? Со мной всё хорошо, Мояши!
А: Фух... не пугай меня так больше.
- Эй, Канда, не грусти! Это так на тебя не похоже!
- Тебе легко говорить. У вас с Лави всё налаживается. А на меня Уолкер даже не
смотрит!
- Ты поговори с ним!
- Тч, и так каждый день видимся!
- Нет, Юу, поговори с ним, как со мной! Всё образумиться слышишь?
- Не верю я в это.
- А ты поверь! Чудо - бывает!
http://vkontakte.ru/photo63528512_276702591
-Не отдам. Слышите?! Никогда не отдам вам Канду!!!
- Это не тебе решать, Аллен Уолкер!
- Не. Подходите. К. Нам.
- Он принадлежит нам!
- Я... он... УБЬЮ!!!
http://vkontakte.ru/photo63528512_276702661'
sentences:
- 'query: Сегодня, прыгая на кровати, Кира сломала ее. Она отчаянно пыталась допрыгнуть
до потолка, но ничего не получалось, и опилки лишь тщетно сыпались на пол. Никто
не слышал ни скрежета пружин, ни грохота; не было видно и самой поломки.
Мать, ругая дочь, в ответ получила лишь усталое равнодушие, что, конечно же, вывело
ее из себя. Крича что-то нечленораздельное, она стучала ногой по сломанному предмету.
Женщина не понимала, что она делала только хуже, но гнев в ее крови взял верх.
- Да как ты смеешь, паршивая девчонка! Я только и делала, что ухаживала за твоей
кроватью! А ты решила устроить погром?! Знаешь, что?! Я это так не оставлю! -
на этих словах женщина, чуть ли не снимая дверь с петель, выбежала из комнаты.
Кира резко опустилась на колени. Прижав руки к кровати, она пыталась сдерживать
ее невыносимый скрежет.
Взяв молоток и гвозди из кладовой, девочка безнадежно колотила по обломкам, пытаясь
хоть как-то их соединить. Но все оказалось безрезультатно: обломки лишь с еще
большим стремлением раскалывались под гнетом гвоздей.
Она легла на пол. Легкий сквозняк щекотал ее спину.
- Я никогда не смогу допрыгнуть до потолка, - сказала Кира и выдохнула.
- А вдруг это не так?
Кира резво встала. На ее лице появилась маска недоумения, а в груди начал разжигаться
огонек страха. Откуда этот голос?
- Не бойся, глупышка, - голос был очень мягок.
- Откуда ты? Я тебя раньше не слышала...
- А разве это важно?
- А что, нет?
- Почему это должно быть важно? Разве нельзя просто поговорить с тобой?
- Ты думаешь, я буду говорить с незнакомым голосом?
- А почему нет?
- Так. Мне надоедает эта игра в вопросы. Говори, что или кто ты есть?
Внезапно наступило молчание, после чего последовало продолжительное гудение.
Голос начал напевать песенку, не песню, а именно песенку. Любимую песенку Киры,
которую она заводила каждый раз, когда ломалось что-нибудь в ее комнате.
- Я могу построить тебе новую кровать. Гораздо лучше этой. В ней будет много цветов
и сладостей...
Девочка оживилась. В ее речи послышались нотки радости.
- Правда? Ты сделаешь это?
- Да, но вот только...
- Что "только"?
- Только она будет не настоящей. Ты не сможешь на ней спать, но она будет в твоей
комнате. - голос откашлялся. - Ах, да. Кроме тебя ее никто не увидит.
Девочка задумчиво улыбнулась.
- Но когда же я смогу увидеть свою кровать?
Голос начал смеяться. Сильно, долго, но мягко. Этот смех был очень и очень необычен:
вроде бы и добрый, а вроде бы и с насмешкой.
Жалость.
Жалость управляла им.
- Почему ты смеешься?
- Да потому что ты глупая девочка, которая даже не может решить.
- Я вовсе не глупа!
- Да? Так ответь: тебе нужно то, что я предлагаю?
- Но это же вовсе не настоящая кровать! - Кира приложила руки к лицу. - На ней
я не смогу допрыгнуть до потолка!
Голос опять залился смехом.
- ПОЧЕМУ ТЫ СМЕЕШЬСЯ ВСЕ ВРЕМЯ?!
- Да потому что ты уже решила. Уже давным-давно решила.
- И что же я решила?
- Ты согласна, ведь так?
Кира замешкалась, но, все же, выдавила из себя неуверенное "да".
Голос пропал, оставив после себя огромную кровать, с большим матрасом и мягкими
подушками. На такой кровати, определенно, можно было бы допрыгнуть до потолка.'
- 'query: Конец года - это пора для радости, в предчувствии надвигающихся каникул,
свободы. Это было начало мая, когда на улице уже тепло, а по утрам зябко. Когда
цветы уже расцвели и начали благоухать. Сырая земля покрывалась травиночками,
и по ней туда-сюда сновали букашки-таракашки.
Птицы летали над деревьями, чирикая и стрекоча, а какая-то особенно усердно напевала:
~ midori tanabiku namimori no
dainaku shounaku nami ga ii
itsumo kawaranu
sukoyaka kenage
aa~
tomo ni utaou
namimorichuu ~
Да... это была та самая чокнутая птичка, хозяином которой был не мене чокнутый
Хибари Кёя. Хотя назвать его так прилюдно ни у кого бы язык не повернулся... ну,
почти ни у кого.
Времена школьной поры прошли, и теперь настали не менее насыщенные времена студенчества.
Так уж получилось, судьбы злая шутка, что бедного Саваду Тсунаёши перенаправили
в университет, где главой дисциплинарного комитета был страх и ужас его жизни
- Хибари Кёя! Ну, разумеется после репетитора... но не об этом сейчас. Любопытно,
что бедного Саваду Тсунаёши, ошибочно, запихнули сразу на 2 курс! М-да... не повезло
ребёнку...
Но тут фортуна повернулась к нему своим рылом, и в его классе он повстречал замечательного
человека - Аллена Уолкера.
С ним они мигом сдружились и стали, не разлей вода. Но это было осенью, а теперь
весна! А это значит...
Сцена 1. Дубль 1.
- Тсуна, не переживай ты так! Сдашь ты эти экзамены! Ведь и я, и твой репетитор
занимались с тобой весь учебный год! Ты даже начал понимать азы электрофизики!
- успокаивал вечно лояльный седой, поглаживая Тсуну по пушистой каштановой шевелюре.
- Ну, а если что, останешься на второй год! Вон, некоторые так уже 3 раза делали!
- кивнул он на Канду, что сидел у окна в конце класса.
Канда Юу, о-о-о! Это, вообще, отдельная история! Хулиган, отличник, красавец,
последняя скотина, человек чести, бездарь, гроза всех и вся... чувства смешанные.
Как всё это и ещё много "положительных" качеств находятся в одном человеке, Аллен
отказывался понимать!
- Но он хотя бы крутой, и отличник, а я как был никчемным, таким и останусь. Мне
не сдать эти экзамены, ни за что в жизни! - продолжал страдать Тсуна, схватившись
за голову. Таким он был, слишком неуверенным в себе, пессимистичным, а ещё последним
неудачником... список можно продолжить. Но в тоже время, ради друзей он был готов
на многое! Его отзывчивость, доброта не знала границ. Если кто-то обижал его друзей,
его глаза становились оранжевыми, а сам он серьёзным и мега-сильным.
- БаКанда-то?! Ха-ха-ха! - рассмеялся Уолкер. - Дурак дураком! Он просто везунчик
с репутацией и внешностью! И всё! - он многозначительно хмыкнул. - А ты, ты добрый
и милый! Просто будь поувереннее в себе, и всё получится!
- Эх, и как ему удается быть таким уверенным? У меня так не получается... - вздохнул
Савада, посмотрев на Канду. - Да, и при этом он ничего не делает, лишь сидит на
своём месте, но все девчонки возле него вьются.
Но тут, вдруг, Канда посмотрел в их сторону, а Тсуна тут же отвернулся и сжался,
будто его только что облили ледяной водой.
- Фух...
Аллен тоже посмотрел на Канду и, показав ему язык, отвернулся.
- Пф! И что они в нём нашли, не понима... - вот теперь уже Аллен замер уставившись
на дверной проём, откуда излучалась аура смерти. Это был Хибари Кёя
"Что ему нужно?!"
Сцена 2. Дубль 1.
- Кто... кто посмел прийти в университет без сменки?!!!
Тут Уолкер посмотрел на пол и вздрогнул. Грязь! Лужи грязи от военных сапог, а
такие сапоги только у...
- Канда Юу! - взревел Кёя.
Но парень лишь одарил его своим обычным, равнодушным взглядом, полным холода.
- Что-то не так?
- Ты, травоядное! - подойдя к Канде, Хибари ласково отодвинул парту. - Ты ответишь
за то, что испачкал полы! - он насквозь прожигал взглядом.
- Хм, ещё чего, - гордые синие глаза пронизывали холодом в ответ. Вдобавок он
закинул ногу на ногу. - Сменка порвалась, другой я не нашёл, пришлось идти в университет
так.
- Да плевать я хотел! Босиком ходи! А помещение пачкать не смей! - рычал Кёя.
- Завтра так и сделаю - фыркнул тот. - Это всё?
- Будешь неделю мыть полы в этом коридоре! - нахмурился глава дисциплинарного
комитета. - И начнёшь, прямо сейчас!
- Тч, не намерен. Для этого есть уборщицы, и... - бросил короткий взгляд в сторону
Уолкера и Тсуны. - Дежурные.
- Чего-о-о?! - возмутился Уолкер. - За коридор мы не отвечаем!
- Хм, - хмыкнул Кёя, и мальчик решил помолчать. - Ты запачкал ты и убирай, а иначе...
- глаза сверкнули не по-доброму. - Камикорос!
- Нет желания драться, но раз ты настаиваешь! - Канда поднялся с места, смотря
на парня с вызовом. Он не собирался отдавать своему главному сопернику звание
грозы университета.
- О, это будет интересно, - злорадно ухмыльнулся. - Все вон! Пока не перебил.
Весь класс, что жался по стеночкам, моментально высыпал в коридор. Кроме Тсуны
и Аллена, что заворожено наблюдали за событиями. Савада со страху вцепился в руку
Уолкера, а сам парень обеспокоенно смотрел в сторону длинноволосого японца. -
Юу... - тихо позвал он.
- Правильно, свидетели ни к чему, - так же ухмыльнулся Канда, разминая руки. -
Вы, двое, разве не ясно было сказано? - глянул он в сторону парней.
- Аллен, может... - тихо проскулил Тсуна, прекрасно знавший нрав Хибари.
Белобрысый, что всё это время переводил взгляд с Кёя на Канду, вздохнул, опустив
глаза, и поддался на уговоры Савады, позволив утащить себя в коридор.
Сцена 3. Дубль 1.
- Хе... - Хибари странно хмыкнул, краем глаза наблюдая за ушедшими.
Канда так же молча, проводил подростков взглядом и вновь посмотрел на своего противника.
Эта ухмылка ни о чём добром не говорила.
Хибари неожиданно ударил парня в живот так, что тот отлетел к окну.
- Тч... - Канда согнулся, но быстро пришёл в себя и поднялся. Последовал ответный
удар.
- Хм... слабак! - Кёя быстро блокировал этот удар и подсечкой сбил противника
с ног.
Юу не растерялся и ударил его по ногам, тоже завалив на пол и сел на него, как
на скамейку. Потом поднялся и заломил тому руки, пригибая к полу.
- Бесишь!
Хибари вывернулся и с разворота ударил по лицу.
- Травоядные должны молчать и подчиняться!
- Я такой сволочи подчиняться не собираюсь! - удар в бок по печени.
Кёя ударил по голове тонфа.
- А тебя никто не спрашивает! Дисциплина на первом месте!
Канда заехал ногой в живот. Сапогами это очень жестоко.
- Пока меня никто не трогает, я спокоен!
- Пока не нарушаешь правила, спокоен я! - парень с силой ударил по солнечному
сплетению.
- Кх... ублюдок, - сморщился Юу.
- Тоже мне - наглый! Думаешь, хуй отрастил, и тебе всё дозволено?! - прорычал
Хибари.
- Говори, что хочешь, но полы мыть я не собираюсь, - тем же тоном ответил противник.
- Но таки вымоешь! - снова ударил глава дисциплинарного комитета.
- Завтра вообще не явлюсь. И плакал ваш кубок за первое место по баскетболу, -
вытерпел Канда.
- Ты мне тут не угрожай! Незаменимых людей не бывает! А тем более тебя заменить
- раз плюнуть!
- Ох, тогда это же отлично! Завтра целый день проваляюсь в кровати и не увижу
этого мелкого. Задолбал пялиться.
- М? А причём тут Аллен?! - Кёя вскинул бровь.
- Притом, что достал, - вздохнул Юу, - странный он какой-то. И смотрит на меня
как-то странно.
- Радовался бы! Все остальные от тебя шарахаются. С такими темпами и до онанизма
недалеко, или ты уже? - усмехнулся Хибари.
- Пф, нет... и что вообще за вопросы? Уолкер меня в последнюю очередь интересует.
- Я не об этой козявке говорю! А про то, что с твоим характером ни одна девушка
к тебе не подойдёт!
- Хе, - усмехнулся Канда. - Спорим, я любую за день смогу закадрить? И заняться
сексом.
- Ты-то? Ха! И за месяц не справишься! - оскалился Кёя.
- Так значит, спорим? - приподнялся Юу. - Но тогда и ты участвуешь.
- Хе, даю тебе неделю! - Хибари убрал тонфа и протянул свою руку.
- Договорились, - пожал руку тот. - И кто станет целью?
- Хм... а тот, кто первый войдёт в этот кабинет! Чтоб уж честно было. В подтверждение
победы принесу тебе нижнее бельё жертвы! - глава дисциплинарного комитета крепче
сжал руку и, рванув на себя, перекинул Канду через спину на пол. - Но учти, если
ты проиграешь, будешь драить университет весь год!
- Тч... ладно - Юу поднялся, держась за спину. - Я тебе это не прощу.
Тут в дверь тихонько постучались.
- А если выиграешь ты, я на год от тебя отстану! - хмыкнул Кёя и повернулся к
двери.
- Хибари-сан! Я, конечно, понимаю, что дисциплина - это святое, и поддерживаю
ваше решение надрать этому придурку зад! Но у нас тут урок, а мне реферат сдавать!
- зашёл безупречный Аллен Уолкер, в которого намертво вцепился Савада пытаясь
остановить.
Сцена 4. Дубль 1.
Канда посмотрел на мальчишку и издал тихий звук, похожий на кошачье шипение. Видимо
он не ожидал, что первыми в класс зайдут именно эти двое.
- Проходи, зашёл уже, - хмыкнул Юу и, отвесив Хибари подзатыльник, поспешил вернуться
на своё место.
- О, ты ещё живой?! Печально... - покачал головой Аллен. - Ребята заходите, Хибари
ушёл! - тут же в дверь повалили остальные. И последним зашёл преподаватель. Беловолосый
достал из сумки рисунки и чертежи, после чего развесил, взял указку и начал рассказывать
реферат по экологии.
Вообще, он не был отличником, но большим трудягой!
Если раньше Юу мечтал отсидеть последние уроки и свалить домой, то теперь его
желанием было, чтобы уроки никогда не заканчивались.
"Тч, Шпендель. Почему, почему ты так не вовремя свалился мне на голову?!" - думал
он, делая вид, что слушает.
- ... И вот поэтому для спасения китов так важно прекратить стрельбу и перевоз
нефти через океан! У меня всё! - закончил рассказ.
- Ну что ж, думаю, на 4-ку вполне хватит.
- Что?! Но учитель, у него потрясающий доклад! - защебетал одногруппник.
- Он много готовился, волновался, почему четыре?! - заступился за Аллена Тсуна.
- Да прекрасный доклад, если честно, не ожидал, - высказался человек, которого
меньше всего это могло волновать. Канда смотрел на преподавателя.
- Э-Э-Э?! - ошалел весь класс.
- А... э-эт-то... - залился румянцем Уолкер.
- Ну ладно, 5!
Юу, победно ухмыльнувшись, перевел взгляд на Аллена. Тот потупился и уставился
в пол.
"Хм, возможно это будет не так уж и ужасно", - почему-то только сейчас Кан'
- 'query: - Доброе утро, - шепот щекочет мне ухо. Совсем не хочется разлеплять глаза
и встречать новый день. Поворачиваюсь, притягивая тебя ближе, и утыкаюсь носом
тебе в грудь, ощущая запах сладостей, которые нравятся нам обоим. Я ежусь от холода,
пытаясь вслепую найти края уютного одеяла и снова окунуться в сон. Ты замечаешь
это и заботливо укрываешь меня. Твои пальцы перебирают мои волосы, а губы легко
касаются моего лба. Мы так и застываем в этой позе на некоторое время.
Проходит всего несколько минут, а потом я резко сажусь на кровати и начинаю ворчать,
что уже давно пора вставать, ведь сегодня предстоит поездка на природу вместе
с друзьями. У тебя на лице появляется улыбка, а руки тянут обратно, заставляя
вновь откинуться на подушки. На улице льет дождь, барабаня в окна, а что еще делать
в такой день, если не нежиться в уютной постели в объятиях любимого?
Сколько времени мы были знакомы, прежде, чем узнали о чувствах друг друга? Да,
я не помню этого, но кто считает? Главное, что в моей памяти до сих пор бережно
хранится момент, когда ты наконец услышал те важные слова. Перед глазами всплывают
счастливые мгновения, словно кадры, запечатлевшие всё в мельчайших деталях. Это
произошло в морозный январский день. Весёлая компания молодых людей не могла просто
сидеть дома взаперти и упустить такой хороший случай для прогулки по заснеженному
лесу и прочих зимних забав.
Ты тогда оказался вне нашего поля зрения, а темнота уже начала опускаться на землю.
Конечно, мне ничего не оставалось, кроме как отправиться на поиски. На моем лице
застыло удивление, когда я застал тебя за странным занятием: было забавно наблюдать
за тобой, выводящим акварелью и баллончиками с краской некие узоры прямо на снегу.
Твои необычность и непредсказуемость притягивали к себе мою натуру.
- Ты мне нравишься. Очень, - кажется, будто всё замерло, и в звенящей тишине прозвучали
простые слова, которые тяжело произнести. Что могло толкнуть меня просто взять
и сказать их? Однако ответ на этот вопрос уже не важен, теперь он оставил место
для беспокойства. Твои эмоции сложно прочитать. Так было всегда. Молчание нагнетает
напряжение между нами.
Прикосновение ледяных пальцев к моей щеке выводит из оцепенения, сковавшего тело.
Я еле-еле различаю, что ты сейчас говоришь, но некоторые обрывки фраз всё же приобретают
смысл. Никогда не верил в чудеса, да вот только сейчас понимаю: они случаются.
Маленькое чудо - узнать об ответных чувствах того, кто так много значит для тебя.
Мы идем с тобой по заметенным снегом улицам. Вьюга, завывая, дует в лицо, сбивая
прохожих с пути, а у меня на душе - спокойствие и умиротворение... Когда ты рядом,
происходящее вокруг не имеет значения, и нет дела до всех остальных.
Мне слышно, как твои зубы стучат от холода. Сжавшись, ты прячешь нос в высокий
ворот куртки. Я уверен, что твои руки в карманах давно не могут отогреться и принять
нормальную температуру.
- Замерз? - спрашиваю, заглядывая в карие глаза, обрамленные черными ресницами,
на которые тихо падают снежинки, и, не дожидаясь ответа, тяну тебя в ближайшее
кафе.
- Пойдем домой, а то воспаление легких подхватишь, - строго замечаешь ты, уже
направляясь в сторону нашего подъезда.
- Постой, разве не видишь, какая чудесная погода? - знаешь ведь, что мне нравится
гулять под дождем, подставляя лицо падающим холодным каплям.
Тебе в голову быстро приходит мысль, как заставить меня уйти в более сухое и теплое
место. Долго не раздумывая, рывком притягиваешь к себе, прижимаясь к моим губам.
От неожиданности я приоткрываю их, а руками начинаю гладить твою спину, к которой
прилипла изрядно промокшая рубашка. Не спеша, ты углубляешь поцелуй, еще больше
раззадоривая. Именно так и предполагалось, правда?
Кое-как справившись с замком, мы вваливаемся в полутемную квартиру, едва сумев
устоять на ногах. Перед глазами до сих пор стоит пелена дождя. Ты сразу же резко
прижимаешь меня к стене, и твой язык врывается в мой рот в неистовом поцелуе,
беспорядочно двигается вдоль зубов и возвращается к моему языку. Я не стремлюсь
брать инициативу на себя, мне всегда нравилось плавиться под натиском твоих ласк
и ожидать, что же ты предпримешь дальше. У тебя почти всегда ледяные пальцы, и
у меня мурашки бегут по коже от приятных, но холодных прикосновений. Тебе нравится
смотреть, как прогибается моя спина, когда ты рисуешь на ней невидимые линии.
В джинсах уже становится тесно, а в голове образуется пустота, заполняемая лишь
тобой. Твои руки опускаются ниже, нащупывая пряжку ремня. О, ты же сам затеял
эту игру, малыш, так давай поиграем?
Я, всё так же находясь в крепких объятиях, делаю неожиданный разворот, привычно
занимая роль актива. Ты с замиранием сердца смотришь на меня, прекратив все действия.
Улыбнувшись, провожу языком по твоему уху, чуть прикусывая мочку, от чего твои
дрожащие пальцы перемещаются вверх и судорожно сжимают мои волосы, с которых стекает
вода. Нетерпеливо расстегиваю пуговицы твоей рубашки, попутно оставляя несколько
багровых отметин на шее и на груди. До меня доносится стон, и я продолжаю медленную
пытку, стягивая с тебя брюки вместе с бельем. В тишине, разбавляемой нашим тяжелым
дыханием, раздается шумный выдох, когда я делаю несколько движений рукой по основанию
члена, а затем, лизнув головку, отстраняюсь, глядя в одурманенные глаза.
- Спальня, - шепчешь ты, крепко держась за край тумбочки, стоявшей рядом.
Просить дважды нет смысла, ведь у меня самого уже нет сил терпеть это тянущее
ощущение, образовавшееся внизу живота.
Легко подхватываю тебя на руки и иду в ту комнату, в которой мы столько раз занимались
любовью.
Кровать встречает нас знакомым скрипом, когда я опускаю тебя, нервно кусающего
губы. Ты хватаешь меня и тянешь на себя, отчего оказываешься прижатым моим телом.
Твои руки скользят по моим бокам, помогая снять футболку и, приложив некоторые
усилия, приподнявшись, обводишь языком мои соски, слегка царапая их зубами.
Чувствуя необходимость скорейшей разрядки, я пытаюсь как можно скорее снять джинсы
и нашарить в ящичке шкафа смазку и презервативы. Нетерпеливо устраиваюсь поудобнее
между твоих ног, разводя их в стороны и немного сгибая в коленях. Выдавливаю гель
и поочередно аккуратно ввожу в тебя пальцы, растягивая проход. Слышу твое сдавленное
шипение и стараюсь отвлечь своими ласками, покрывая грудь и плечи поцелуями, кое-где
чуть прикусывая кожу.
Ты заерзал и недовольно уставился на меня, требуя большего. Я с удовольствием
подчиняюсь. Приставляю член ко входу и медленно вхожу, на что получаю еле заметный
кивок, как разрешение продолжать. Спустя несколько толчков ты выгибаешься в позвоночнике,
и на моем лице появляется улыбка. Я увеличиваю темп, двигаясь всё быстрее.
Оргазм стремительно накрывает нас с головой, даря столь долгожданное наслаждение.
Со сбившимся дыханием, со звездочками в глазах падаю рядом с тобой, раскрасневшимся,
тяжело дышащим, но таким любимым. Ты прижимаешься ко мне, положив голову на мою
грудь. Делать сейчас что-либо выше всяких сил - я продолжаю лежать, поглаживая
твои волосы и вслушиваясь в биение наших сердец.
Почему я тебя тогда не послушал? Зачем позволил тебе мокнуть под дождем вместе
со мной? Если бы не эта ошибка, ты бы не подхватил серьезную болезнь. Меня до
сих пор терзает чувство вины. Очень тяжело осознавать, что погубил чью-то жизнь...
Особенно того, кто был центром моей Вселенной.
Я продолжаю жить прошлым, не могу не вспоминать те немногие, но такие дорогие
моему сердцу моменты, проведенные с тобой. Мы совсем недолго были вместе. Меня
часто можно встретить на том самом месте в лесу, где я открылся тебе. Иногда мне
кажется, что сквозь сильную метель вижу твой силуэт. Ты улыбаешься и делаешь несколько
шагов навстречу, а потом исчезаешь...
Если бы только была возможность еще раз услышать такое теплое "доброе утро", почувствовать
горячее дыхание, щекочущее ухо, хоть что-нибудь...
Пока ты был рядом, было совсем не важно, что происходит вокруг. Но теперь, когда
я наблюдаю за ненастной погодой в окно, у меня нет светлых мыслей и легкости,
что возникали раньше. Даже летом мое сердце сковывает лед, который уже не удастся
растопить.'
pipeline_tag: sentence-similarity
library_name: sentence-transformers
metrics:
- cosine_accuracy
- cosine_accuracy_threshold
- cosine_f1
- cosine_f1_threshold
- cosine_precision
- cosine_recall
- cosine_ap
- cosine_mcc
model-index:
- name: SentenceTransformer based on intfloat/multilingual-e5-small
results:
- task:
type: binary-classification
name: Binary Classification
dataset:
name: Unknown
type: unknown
metrics:
- type: cosine_accuracy
value: 0.9195837942177977
name: Cosine Accuracy
- type: cosine_accuracy_threshold
value: 0.7977851629257202
name: Cosine Accuracy Threshold
- type: cosine_f1
value: 0.7452597402597402
name: Cosine F1
- type: cosine_f1_threshold
value: 0.788260817527771
name: Cosine F1 Threshold
- type: cosine_precision
value: 0.7437625558939797
name: Cosine Precision
- type: cosine_recall
value: 0.746762964408875
name: Cosine Recall
- type: cosine_ap
value: 0.8382557870831471
name: Cosine Ap
- type: cosine_mcc
value: 0.6941905963765231
name: Cosine Mcc
---
# SentenceTransformer based on intfloat/multilingual-e5-small
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [intfloat/multilingual-e5-small](https://huggingface.co/intfloat/multilingual-e5-small) on the json dataset. It maps sentences & paragraphs to a 384-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
## Model Details
### Model Description
- **Model Type:** Sentence Transformer
- **Base model:** [intfloat/multilingual-e5-small](https://huggingface.co/intfloat/multilingual-e5-small) <!-- at revision c007d7ef6fd86656326059b28395a7a03a7c5846 -->
- **Maximum Sequence Length:** 512 tokens
- **Output Dimensionality:** 384 dimensions
- **Similarity Function:** Cosine Similarity
- **Training Dataset:**
- json
<!-- - **Language:** Unknown -->
<!-- - **License:** Unknown -->
### Model Sources
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
### Full Model Architecture
```
SentenceTransformer(
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: BertModel
(1): Pooling({'word_embedding_dimension': 384, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
(2): Normalize()
)
```
## Usage
### Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
```bash
pip install -U sentence-transformers
```
Then you can load this model and run inference.
```python
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("sentence_transformers_model_id")
# Run inference
sentences = [
'query: - Канда! Я ещё согласился на пассив "снизу" ! Но это уже даже не пассив, это уже без актив какой-то!\n- А что ты от меня хочешь-то? Я уже не могу сдерживаться!\n- Не вдавливай меня ТАК в стену-то!\n- Тч. Мояши, хватит елозить и наслаждайся моментом!\n- Но это не честно! По отношению, между прочим, к те...ммммм!!!\n- Тч. Мояши, что это?\n- Бантик!\n- Я вижу, на кой чёрт ты мне его завязал?\n- Так ты похож на подарок!\n- Счас Мугеном огребёшь!\n- А почему ты не спросишь "Кому?"\n- Мне это не интересно! А кому?\n- Мне!!! ... *Чмок*\n- Хм... меня это не устраивает!\n- Чего?!!\n- Того!\n- ММММ!!!\n- Комуи! Что это значит? Что с Алленом?\n- Что? А, Канда. Аллена Уолкера ранили на миссии!\n- Это я уже понял! Что с ним, говори конкретней! - самурай встряхнул начальника.\n- Не повышай на меня голос! - возмутился смотритель.\n- Вот с вашей сестрой что-нибудь случится, я вам тоже скажу "Не кричите!" Что с Мояши?\n- Эх... на миссии Аллен ослеп. Но не переживай. Это временно! Зрение восстановится! Месяца через 3!\n- 3 МЕСЯЦА?!\n- Да! Ты уж не обижай его пока.\n- Без вас знаю!\n- Ты куда?\n- К Аллену, куда же ещё! - грозно рявкнул самурай.\n- Ох уж эти голубки...\n- К-кто здесь? - Аллен сидел на койке, завернувшись в одеяло.\n- ... - шаги приближались.\n- Н-не подходи! - а вы бы не испугались, прежде оставшись в одиночестве, среди акум, в густом лесу, без зрения? То-то же!\n- "Не оставлю!"\n- Чистая Сила! - занёс руку, предупреждая врага.\n- "Ни за что больше не оставлю одного!" Аллен! - подхватить тонкое тельце на руки, прижать к себе, ладонью накрыв глаза Мояши, как в первом поцелуе. И коснуться уголка ротика своими губами.\n- К-Канда?!\n- Не волнуйся! Я стану твоими глазами пока ты продолжаешь быть моим Сердцем Невинности.\nА ты уставший идёшь с миссии.\nА я уставший иду с тренировки.\nТвои ноги истоптаны.\nPOV Канды.\nМоя голова болит.\nТвои руки ноют.\nМоё сердце истомилось.\nИ вот мы идём друг на друга, поднимаем грустные, измученные глаза друг к другу.\nТы останавливаешься.\nДурак, что-то говоришь.\nЧто-то кричишь.\nО чём-то молчишь.\nКак-то смотришь.\nО чём-то волнуешься.\nСнова о чём-то кричишь.\nС грустью смотришь.\nО ком ты мучаешься?\nДелаешь шаг, ещё один.\nХватаешь за воротник.\nПривстаёшь на носочках.\nЦелуешь...\nДурак, ты же устал!\nДурак, я же устал!\nЯ останавливаюсь.\nДурак, что-то отвечаю.\nЧто-то кричу.\nНа чём-то замолкаю.\nТупо смотрю.\nЧто-то щемит.\nОпять что-то ору.\nОтрешённо смотрю.\nЗа кого-то волнуюсь.\nСтою.\nНастораживаюсь.\nВсё равно.\nНеужели?!\nОтвечаю на поцелуй.\nКак же мы устали!\n- Давно?\n- Всегда, Мояши.\n- Нет, честно, я ненавижу голубей! А особенно белых! - скандалил Лави идя по коридору Чёрного Ордена.\n- Чем же они тебе не нравятся? - спросила девушка-китаянка.\n- Да блин, сидят везде где не попадя и сверху какают!\nИ только они зашли за поворот, как услышали:\n- Нет, Канда, прекрати! Нас могут увидеть!\n- Да кто нас тут может увидеть, Мояши?\n- Ну, кто-нибудь! Ах... Юу!\n- Мимо голубятни никто не проходит! Это надёжная часть замка!\n- Ну, ну, ну ладно... но почему именно тут?\n- А кто верещал что ему романтики не хватает? - Канда недвусмысленно зажимал Аллена на подоконнике.\nЛави и Линали шарахнулись обратно.\n- Хотя знаешь, Ли. Может в этих голубках что-то и есть!\nДышать становится всё труднее, меня загоняют в угол. Я испуганно оборачиваюсь и вижу... его.\n- Ты, проклятый! - окрикивает строгий японец.\nА я молчу, дыхание сбилось, взволнован. Что ему нужно?\n- Не думал что ты опустишься до краж, Мояши.\nЧто? Краж? Каких краж, Юу?\n- Ты о чём?\n- Именно ты, о я не сомневаюсь, - он издевается? - ты украл у меня одну вещь.\n- Канда, я ничего не брал! - откуда это чувство безысходности? Он остановился.\n- Либо верни мне его, либо я заберу твоё! - Что? Я его не понимаю! Что он делает? Хватает за подбородок, тащит на себя. И... боже, что это? Он... Я чувствую его губы и сам не пониая - отвечаю! Канда, ты, ты, ты... настоящий вор! Ты крадёшь моё сердце!\n- К-канда... - руки повисли. Не соображаю.\n- Верни моё сердце, Грёбанный Стручок!\n- Я... ни за что! Я оставлю его себе! А ты... уже забрал моё...\nВолновался как-то Аллен, ведь Канда был на миссии. И вот шлёт он ему письмо через голема.\nА: Ты там вообще живой, БаКанда?\nК: Да, Аллен. Живой, я живой!\nА: Канда! Что с тобой? Тебе плохо? Умираешь? Тебя Линали поцеловала? Держись друг!\nК: Ты чё? Со мной всё хорошо, Мояши!\nА: Фух... не пугай меня так больше.\n- Эй, Канда, не грусти! Это так на тебя не похоже!\n- Тебе легко говорить. У вас с Лави всё налаживается. А на меня Уолкер даже не смотрит!\n- Ты поговори с ним!\n- Тч, и так каждый день видимся!\n- Нет, Юу, поговори с ним, как со мной! Всё образумиться слышишь?\n- Не верю я в это.\n- А ты поверь! Чудо - бывает!\nhttp://vkontakte.ru/photo63528512_276702591\n-Не отдам. Слышите?! Никогда не отдам вам Канду!!!\n- Это не тебе решать, Аллен Уолкер!\n- Не. Подходите. К. Нам.\n- Он принадлежит нам!\n- Я... он... УБЬЮ!!!\nhttp://vkontakte.ru/photo63528512_276702661',
'query: Конец года - это пора для радости, в предчувствии надвигающихся каникул, свободы. Это было начало мая, когда на улице уже тепло, а по утрам зябко. Когда цветы уже расцвели и начали благоухать. Сырая земля покрывалась травиночками, и по ней туда-сюда сновали букашки-таракашки.\nПтицы летали над деревьями, чирикая и стрекоча, а какая-то особенно усердно напевала:\n~ midori tanabiku namimori no\ndainaku shounaku nami ga ii\nitsumo kawaranu\nsukoyaka kenage\naa~\ntomo ni utaou\nnamimorichuu ~\nДа... это была та самая чокнутая птичка, хозяином которой был не мене чокнутый Хибари Кёя. Хотя назвать его так прилюдно ни у кого бы язык не повернулся... ну, почти ни у кого.\nВремена школьной поры прошли, и теперь настали не менее насыщенные времена студенчества. Так уж получилось, судьбы злая шутка, что бедного Саваду Тсунаёши перенаправили в университет, где главой дисциплинарного комитета был страх и ужас его жизни - Хибари Кёя! Ну, разумеется после репетитора... но не об этом сейчас. Любопытно, что бедного Саваду Тсунаёши, ошибочно, запихнули сразу на 2 курс! М-да... не повезло ребёнку...\nНо тут фортуна повернулась к нему своим рылом, и в его классе он повстречал замечательного человека - Аллена Уолкера.\nС ним они мигом сдружились и стали, не разлей вода. Но это было осенью, а теперь весна! А это значит...\nСцена 1. Дубль 1.\n- Тсуна, не переживай ты так! Сдашь ты эти экзамены! Ведь и я, и твой репетитор занимались с тобой весь учебный год! Ты даже начал понимать азы электрофизики! - успокаивал вечно лояльный седой, поглаживая Тсуну по пушистой каштановой шевелюре. - Ну, а если что, останешься на второй год! Вон, некоторые так уже 3 раза делали! - кивнул он на Канду, что сидел у окна в конце класса.\nКанда Юу, о-о-о! Это, вообще, отдельная история! Хулиган, отличник, красавец, последняя скотина, человек чести, бездарь, гроза всех и вся... чувства смешанные. Как всё это и ещё много "положительных" качеств находятся в одном человеке, Аллен отказывался понимать!\n- Но он хотя бы крутой, и отличник, а я как был никчемным, таким и останусь. Мне не сдать эти экзамены, ни за что в жизни! - продолжал страдать Тсуна, схватившись за голову. Таким он был, слишком неуверенным в себе, пессимистичным, а ещё последним неудачником... список можно продолжить. Но в тоже время, ради друзей он был готов на многое! Его отзывчивость, доброта не знала границ. Если кто-то обижал его друзей, его глаза становились оранжевыми, а сам он серьёзным и мега-сильным.\n- БаКанда-то?! Ха-ха-ха! - рассмеялся Уолкер. - Дурак дураком! Он просто везунчик с репутацией и внешностью! И всё! - он многозначительно хмыкнул. - А ты, ты добрый и милый! Просто будь поувереннее в себе, и всё получится!\n- Эх, и как ему удается быть таким уверенным? У меня так не получается... - вздохнул Савада, посмотрев на Канду. - Да, и при этом он ничего не делает, лишь сидит на своём месте, но все девчонки возле него вьются.\nНо тут, вдруг, Канда посмотрел в их сторону, а Тсуна тут же отвернулся и сжался, будто его только что облили ледяной водой.\n- Фух...\nАллен тоже посмотрел на Канду и, показав ему язык, отвернулся.\n- Пф! И что они в нём нашли, не понима... - вот теперь уже Аллен замер уставившись на дверной проём, откуда излучалась аура смерти. Это был Хибари Кёя\n"Что ему нужно?!"\nСцена 2. Дубль 1.\n- Кто... кто посмел прийти в университет без сменки?!!!\nТут Уолкер посмотрел на пол и вздрогнул. Грязь! Лужи грязи от военных сапог, а такие сапоги только у...\n- Канда Юу! - взревел Кёя.\nНо парень лишь одарил его своим обычным, равнодушным взглядом, полным холода.\n- Что-то не так?\n- Ты, травоядное! - подойдя к Канде, Хибари ласково отодвинул парту. - Ты ответишь за то, что испачкал полы! - он насквозь прожигал взглядом.\n- Хм, ещё чего, - гордые синие глаза пронизывали холодом в ответ. Вдобавок он закинул ногу на ногу. - Сменка порвалась, другой я не нашёл, пришлось идти в университет так.\n- Да плевать я хотел! Босиком ходи! А помещение пачкать не смей! - рычал Кёя.\n- Завтра так и сделаю - фыркнул тот. - Это всё?\n- Будешь неделю мыть полы в этом коридоре! - нахмурился глава дисциплинарного комитета. - И начнёшь, прямо сейчас!\n- Тч, не намерен. Для этого есть уборщицы, и... - бросил короткий взгляд в сторону Уолкера и Тсуны. - Дежурные.\n- Чего-о-о?! - возмутился Уолкер. - За коридор мы не отвечаем!\n- Хм, - хмыкнул Кёя, и мальчик решил помолчать. - Ты запачкал ты и убирай, а иначе... - глаза сверкнули не по-доброму. - Камикорос!\n- Нет желания драться, но раз ты настаиваешь! - Канда поднялся с места, смотря на парня с вызовом. Он не собирался отдавать своему главному сопернику звание грозы университета.\n- О, это будет интересно, - злорадно ухмыльнулся. - Все вон! Пока не перебил.\nВесь класс, что жался по стеночкам, моментально высыпал в коридор. Кроме Тсуны и Аллена, что заворожено наблюдали за событиями. Савада со страху вцепился в руку Уолкера, а сам парень обеспокоенно смотрел в сторону длинноволосого японца. - Юу... - тихо позвал он.\n- Правильно, свидетели ни к чему, - так же ухмыльнулся Канда, разминая руки. - Вы, двое, разве не ясно было сказано? - глянул он в сторону парней.\n- Аллен, может... - тихо проскулил Тсуна, прекрасно знавший нрав Хибари.\nБелобрысый, что всё это время переводил взгляд с Кёя на Канду, вздохнул, опустив глаза, и поддался на уговоры Савады, позволив утащить себя в коридор.\nСцена 3. Дубль 1.\n- Хе... - Хибари странно хмыкнул, краем глаза наблюдая за ушедшими.\nКанда так же молча, проводил подростков взглядом и вновь посмотрел на своего противника. Эта ухмылка ни о чём добром не говорила.\nХибари неожиданно ударил парня в живот так, что тот отлетел к окну.\n- Тч... - Канда согнулся, но быстро пришёл в себя и поднялся. Последовал ответный удар.\n- Хм... слабак! - Кёя быстро блокировал этот удар и подсечкой сбил противника с ног.\nЮу не растерялся и ударил его по ногам, тоже завалив на пол и сел на него, как на скамейку. Потом поднялся и заломил тому руки, пригибая к полу.\n- Бесишь!\nХибари вывернулся и с разворота ударил по лицу.\n- Травоядные должны молчать и подчиняться!\n- Я такой сволочи подчиняться не собираюсь! - удар в бок по печени.\nКёя ударил по голове тонфа.\n- А тебя никто не спрашивает! Дисциплина на первом месте!\nКанда заехал ногой в живот. Сапогами это очень жестоко.\n- Пока меня никто не трогает, я спокоен!\n- Пока не нарушаешь правила, спокоен я! - парень с силой ударил по солнечному сплетению.\n- Кх... ублюдок, - сморщился Юу.\n- Тоже мне - наглый! Думаешь, хуй отрастил, и тебе всё дозволено?! - прорычал Хибари.\n- Говори, что хочешь, но полы мыть я не собираюсь, - тем же тоном ответил противник.\n- Но таки вымоешь! - снова ударил глава дисциплинарного комитета.\n- Завтра вообще не явлюсь. И плакал ваш кубок за первое место по баскетболу, - вытерпел Канда.\n- Ты мне тут не угрожай! Незаменимых людей не бывает! А тем более тебя заменить - раз плюнуть!\n- Ох, тогда это же отлично! Завтра целый день проваляюсь в кровати и не увижу этого мелкого. Задолбал пялиться.\n- М? А причём тут Аллен?! - Кёя вскинул бровь.\n- Притом, что достал, - вздохнул Юу, - странный он какой-то. И смотрит на меня как-то странно.\n- Радовался бы! Все остальные от тебя шарахаются. С такими темпами и до онанизма недалеко, или ты уже? - усмехнулся Хибари.\n- Пф, нет... и что вообще за вопросы? Уолкер меня в последнюю очередь интересует.\n- Я не об этой козявке говорю! А про то, что с твоим характером ни одна девушка к тебе не подойдёт!\n- Хе, - усмехнулся Канда. - Спорим, я любую за день смогу закадрить? И заняться сексом.\n- Ты-то? Ха! И за месяц не справишься! - оскалился Кёя.\n- Так значит, спорим? - приподнялся Юу. - Но тогда и ты участвуешь.\n- Хе, даю тебе неделю! - Хибари убрал тонфа и протянул свою руку.\n- Договорились, - пожал руку тот. - И кто станет целью?\n- Хм... а тот, кто первый войдёт в этот кабинет! Чтоб уж честно было. В подтверждение победы принесу тебе нижнее бельё жертвы! - глава дисциплинарного комитета крепче сжал руку и, рванув на себя, перекинул Канду через спину на пол. - Но учти, если ты проиграешь, будешь драить университет весь год!\n- Тч... ладно - Юу поднялся, держась за спину. - Я тебе это не прощу.\nТут в дверь тихонько постучались.\n- А если выиграешь ты, я на год от тебя отстану! - хмыкнул Кёя и повернулся к двери.\n- Хибари-сан! Я, конечно, понимаю, что дисциплина - это святое, и поддерживаю ваше решение надрать этому придурку зад! Но у нас тут урок, а мне реферат сдавать! - зашёл безупречный Аллен Уолкер, в которого намертво вцепился Савада пытаясь остановить.\nСцена 4. Дубль 1.\nКанда посмотрел на мальчишку и издал тихий звук, похожий на кошачье шипение. Видимо он не ожидал, что первыми в класс зайдут именно эти двое.\n- Проходи, зашёл уже, - хмыкнул Юу и, отвесив Хибари подзатыльник, поспешил вернуться на своё место.\n- О, ты ещё живой?! Печально... - покачал головой Аллен. - Ребята заходите, Хибари ушёл! - тут же в дверь повалили остальные. И последним зашёл преподаватель. Беловолосый достал из сумки рисунки и чертежи, после чего развесил, взял указку и начал рассказывать реферат по экологии.\nВообще, он не был отличником, но большим трудягой!\nЕсли раньше Юу мечтал отсидеть последние уроки и свалить домой, то теперь его желанием было, чтобы уроки никогда не заканчивались.\n"Тч, Шпендель. Почему, почему ты так не вовремя свалился мне на голову?!" - думал он, делая вид, что слушает.\n- ... И вот поэтому для спасения китов так важно прекратить стрельбу и перевоз нефти через океан! У меня всё! - закончил рассказ.\n- Ну что ж, думаю, на 4-ку вполне хватит.\n- Что?! Но учитель, у него потрясающий доклад! - защебетал одногруппник.\n- Он много готовился, волновался, почему четыре?! - заступился за Аллена Тсуна.\n- Да прекрасный доклад, если честно, не ожидал, - высказался человек, которого меньше всего это могло волновать. Канда смотрел на преподавателя.\n- Э-Э-Э?! - ошалел весь класс.\n- А... э-эт-то... - залился румянцем Уолкер.\n- Ну ладно, 5!\nЮу, победно ухмыльнувшись, перевел взгляд на Аллена. Тот потупился и уставился в пол.\n"Хм, возможно это будет не так уж и ужасно", - почему-то только сейчас Кан',
'query: - Доброе утро, - шепот щекочет мне ухо. Совсем не хочется разлеплять глаза и встречать новый день. Поворачиваюсь, притягивая тебя ближе, и утыкаюсь носом тебе в грудь, ощущая запах сладостей, которые нравятся нам обоим. Я ежусь от холода, пытаясь вслепую найти края уютного одеяла и снова окунуться в сон. Ты замечаешь это и заботливо укрываешь меня. Твои пальцы перебирают мои волосы, а губы легко касаются моего лба. Мы так и застываем в этой позе на некоторое время.\nПроходит всего несколько минут, а потом я резко сажусь на кровати и начинаю ворчать, что уже давно пора вставать, ведь сегодня предстоит поездка на природу вместе с друзьями. У тебя на лице появляется улыбка, а руки тянут обратно, заставляя вновь откинуться на подушки. На улице льет дождь, барабаня в окна, а что еще делать в такой день, если не нежиться в уютной постели в объятиях любимого?\nСколько времени мы были знакомы, прежде, чем узнали о чувствах друг друга? Да, я не помню этого, но кто считает? Главное, что в моей памяти до сих пор бережно хранится момент, когда ты наконец услышал те важные слова. Перед глазами всплывают счастливые мгновения, словно кадры, запечатлевшие всё в мельчайших деталях. Это произошло в морозный январский день. Весёлая компания молодых людей не могла просто сидеть дома взаперти и упустить такой хороший случай для прогулки по заснеженному лесу и прочих зимних забав.\nТы тогда оказался вне нашего поля зрения, а темнота уже начала опускаться на землю. Конечно, мне ничего не оставалось, кроме как отправиться на поиски. На моем лице застыло удивление, когда я застал тебя за странным занятием: было забавно наблюдать за тобой, выводящим акварелью и баллончиками с краской некие узоры прямо на снегу. Твои необычность и непредсказуемость притягивали к себе мою натуру.\n- Ты мне нравишься. Очень, - кажется, будто всё замерло, и в звенящей тишине прозвучали простые слова, которые тяжело произнести. Что могло толкнуть меня просто взять и сказать их? Однако ответ на этот вопрос уже не важен, теперь он оставил место для беспокойства. Твои эмоции сложно прочитать. Так было всегда. Молчание нагнетает напряжение между нами.\nПрикосновение ледяных пальцев к моей щеке выводит из оцепенения, сковавшего тело. Я еле-еле различаю, что ты сейчас говоришь, но некоторые обрывки фраз всё же приобретают смысл. Никогда не верил в чудеса, да вот только сейчас понимаю: они случаются. Маленькое чудо - узнать об ответных чувствах того, кто так много значит для тебя.\nМы идем с тобой по заметенным снегом улицам. Вьюга, завывая, дует в лицо, сбивая прохожих с пути, а у меня на душе - спокойствие и умиротворение... Когда ты рядом, происходящее вокруг не имеет значения, и нет дела до всех остальных.\nМне слышно, как твои зубы стучат от холода. Сжавшись, ты прячешь нос в высокий ворот куртки. Я уверен, что твои руки в карманах давно не могут отогреться и принять нормальную температуру.\n- Замерз? - спрашиваю, заглядывая в карие глаза, обрамленные черными ресницами, на которые тихо падают снежинки, и, не дожидаясь ответа, тяну тебя в ближайшее кафе.\n- Пойдем домой, а то воспаление легких подхватишь, - строго замечаешь ты, уже направляясь в сторону нашего подъезда.\n- Постой, разве не видишь, какая чудесная погода? - знаешь ведь, что мне нравится гулять под дождем, подставляя лицо падающим холодным каплям.\nТебе в голову быстро приходит мысль, как заставить меня уйти в более сухое и теплое место. Долго не раздумывая, рывком притягиваешь к себе, прижимаясь к моим губам. От неожиданности я приоткрываю их, а руками начинаю гладить твою спину, к которой прилипла изрядно промокшая рубашка. Не спеша, ты углубляешь поцелуй, еще больше раззадоривая. Именно так и предполагалось, правда?\nКое-как справившись с замком, мы вваливаемся в полутемную квартиру, едва сумев устоять на ногах. Перед глазами до сих пор стоит пелена дождя. Ты сразу же резко прижимаешь меня к стене, и твой язык врывается в мой рот в неистовом поцелуе, беспорядочно двигается вдоль зубов и возвращается к моему языку. Я не стремлюсь брать инициативу на себя, мне всегда нравилось плавиться под натиском твоих ласк и ожидать, что же ты предпримешь дальше. У тебя почти всегда ледяные пальцы, и у меня мурашки бегут по коже от приятных, но холодных прикосновений. Тебе нравится смотреть, как прогибается моя спина, когда ты рисуешь на ней невидимые линии. В джинсах уже становится тесно, а в голове образуется пустота, заполняемая лишь тобой. Твои руки опускаются ниже, нащупывая пряжку ремня. О, ты же сам затеял эту игру, малыш, так давай поиграем?\nЯ, всё так же находясь в крепких объятиях, делаю неожиданный разворот, привычно занимая роль актива. Ты с замиранием сердца смотришь на меня, прекратив все действия. Улыбнувшись, провожу языком по твоему уху, чуть прикусывая мочку, от чего твои дрожащие пальцы перемещаются вверх и судорожно сжимают мои волосы, с которых стекает вода. Нетерпеливо расстегиваю пуговицы твоей рубашки, попутно оставляя несколько багровых отметин на шее и на груди. До меня доносится стон, и я продолжаю медленную пытку, стягивая с тебя брюки вместе с бельем. В тишине, разбавляемой нашим тяжелым дыханием, раздается шумный выдох, когда я делаю несколько движений рукой по основанию члена, а затем, лизнув головку, отстраняюсь, глядя в одурманенные глаза.\n- Спальня, - шепчешь ты, крепко держась за край тумбочки, стоявшей рядом.\nПросить дважды нет смысла, ведь у меня самого уже нет сил терпеть это тянущее ощущение, образовавшееся внизу живота.\nЛегко подхватываю тебя на руки и иду в ту комнату, в которой мы столько раз занимались любовью.\nКровать встречает нас знакомым скрипом, когда я опускаю тебя, нервно кусающего губы. Ты хватаешь меня и тянешь на себя, отчего оказываешься прижатым моим телом. Твои руки скользят по моим бокам, помогая снять футболку и, приложив некоторые усилия, приподнявшись, обводишь языком мои соски, слегка царапая их зубами.\nЧувствуя необходимость скорейшей разрядки, я пытаюсь как можно скорее снять джинсы и нашарить в ящичке шкафа смазку и презервативы. Нетерпеливо устраиваюсь поудобнее между твоих ног, разводя их в стороны и немного сгибая в коленях. Выдавливаю гель и поочередно аккуратно ввожу в тебя пальцы, растягивая проход. Слышу твое сдавленное шипение и стараюсь отвлечь своими ласками, покрывая грудь и плечи поцелуями, кое-где чуть прикусывая кожу.\nТы заерзал и недовольно уставился на меня, требуя большего. Я с удовольствием подчиняюсь. Приставляю член ко входу и медленно вхожу, на что получаю еле заметный кивок, как разрешение продолжать. Спустя несколько толчков ты выгибаешься в позвоночнике, и на моем лице появляется улыбка. Я увеличиваю темп, двигаясь всё быстрее.\nОргазм стремительно накрывает нас с головой, даря столь долгожданное наслаждение. Со сбившимся дыханием, со звездочками в глазах падаю рядом с тобой, раскрасневшимся, тяжело дышащим, но таким любимым. Ты прижимаешься ко мне, положив голову на мою грудь. Делать сейчас что-либо выше всяких сил - я продолжаю лежать, поглаживая твои волосы и вслушиваясь в биение наших сердец.\nПочему я тебя тогда не послушал? Зачем позволил тебе мокнуть под дождем вместе со мной? Если бы не эта ошибка, ты бы не подхватил серьезную болезнь. Меня до сих пор терзает чувство вины. Очень тяжело осознавать, что погубил чью-то жизнь... Особенно того, кто был центром моей Вселенной.\nЯ продолжаю жить прошлым, не могу не вспоминать те немногие, но такие дорогие моему сердцу моменты, проведенные с тобой. Мы совсем недолго были вместе. Меня часто можно встретить на том самом месте в лесу, где я открылся тебе. Иногда мне кажется, что сквозь сильную метель вижу твой силуэт. Ты улыбаешься и делаешь несколько шагов навстречу, а потом исчезаешь...\nЕсли бы только была возможность еще раз услышать такое теплое "доброе утро", почувствовать горячее дыхание, щекочущее ухо, хоть что-нибудь...\nПока ты был рядом, было совсем не важно, что происходит вокруг. Но теперь, когда я наблюдаю за ненастной погодой в окно, у меня нет светлых мыслей и легкости, что возникали раньше. Даже летом мое сердце сковывает лед, который уже не удастся растопить.',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 384]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
```
<!--
### Direct Usage (Transformers)
<details><summary>Click to see the direct usage in Transformers</summary>
</details>
-->
<!--
### Downstream Usage (Sentence Transformers)
You can finetune this model on your own dataset.
<details><summary>Click to expand</summary>
</details>
-->
<!--
### Out-of-Scope Use
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
-->
## Evaluation
### Metrics
#### Binary Classification
* Evaluated with [<code>BinaryClassificationEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.BinaryClassificationEvaluator)
| Metric | Value |
|:--------------------------|:-----------|
| cosine_accuracy | 0.9196 |
| cosine_accuracy_threshold | 0.7978 |
| cosine_f1 | 0.7453 |
| cosine_f1_threshold | 0.7883 |
| cosine_precision | 0.7438 |
| cosine_recall | 0.7468 |
| **cosine_ap** | **0.8383** |
| cosine_mcc | 0.6942 |
<!--
## Bias, Risks and Limitations
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
-->
<!--
### Recommendations
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
-->
## Training Details
### Training Dataset
#### json
* Dataset: json
* Size: 276,686 training samples
* Columns: <code>sentence1</code>, <code>sentence2</code>, and <code>label</code>
* Approximate statistics based on the first 1000 samples:
| | sentence1 | sentence2 | label |
|:--------|:--------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------|:-----------------------------|
| type | string | string | int |
| details | <ul><li>min: 445 tokens</li><li>mean: 510.97 tokens</li><li>max: 512 tokens</li></ul> | <ul><li>min: 454 tokens</li><li>mean: 511.61 tokens</li><li>max: 512 tokens</li></ul> | <ul><li>1: 100.00%</li></ul> |
* Samples:
| sentence1 | sentence2 | label |
|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------|
| <code>query: Что что-то не так, интуиция подсказывала Занзасу с самого утра. Благополучно проигнорировав пробуждение с лигром в постели, Бестер периодически спал рядом с хозяином. Занзас лениво но, как известно организму не откажешь, спустился на кухню. Относительно спокойно поев, и избавившись от новоявленного трупа, который пролил на него подливу к мясу, босс всея варии отправился в душ. Быстро вымывшись и обвязав короткое полотенце на бедрах, он вернулся в свою спальню и прилег на кровать рядом с лигром. Немного потрепав его гриву, брюнет разлегся на кровати. Животное же вспомнило, как длинноволосый парень использовал его хозяина как самку. А Бестер по характеру был очень похож на Занзаса собственничеством, по этой причине зверь встал, потоптался на постели и забрался на своего хозяина. Занзас вновь не придал этому значения, принимая за попытку ленивого животного слезть с кровати. Это и было его ошибкой. Своим немалым весом Бестер придавил мужчину к постели, и отдельно придавил одной лапо...</code> | <code>query: Аомине неспешно шел в сторону школы Сейрин. Уроки еще шли, поэтому ему было некуда торопиться, а свои он благополучно прое...кхм, пропустил, дабы наведаться к Кагами. Зачем, он и сам до конца не понимал, но привык следовать своим желаниям и кормить внутренних демонов. В наушниках играла незатейливая мелодия на английском, а сам Аомине не заморачивался текстом, наслаждаясь звучанием музыки и голосом певца.<br>Войдя во двор, он огляделся, ища вход в учебный корпус. Найдя же нужную дверь, он прошел внутрь, подходя к расписанию. Проведя пальцем по цифре нужного класса, он взглянул на сами уроки.<br>-Хм, японский... Не думаю, что он будет против, если я его отмажу. - И, по акульи улыбнувшись, парень направился на второй этаж, к кабинету номер тринадцать. Предварительно заглянув в замочную скважину, увидев молоденькую учительницу и выглядывающую из-под блузки татуировку "I love yaoi", в очередной раз оскалился и прошел в кабинет. Девушка не успела даже пикнуть, как он был у парты Кагами. На...</code> | <code>1</code> |
| <code>query: Что что-то не так, интуиция подсказывала Занзасу с самого утра. Благополучно проигнорировав пробуждение с лигром в постели, Бестер периодически спал рядом с хозяином. Занзас лениво но, как известно организму не откажешь, спустился на кухню. Относительно спокойно поев, и избавившись от новоявленного трупа, который пролил на него подливу к мясу, босс всея варии отправился в душ. Быстро вымывшись и обвязав короткое полотенце на бедрах, он вернулся в свою спальню и прилег на кровать рядом с лигром. Немного потрепав его гриву, брюнет разлегся на кровати. Животное же вспомнило, как длинноволосый парень использовал его хозяина как самку. А Бестер по характеру был очень похож на Занзаса собственничеством, по этой причине зверь встал, потоптался на постели и забрался на своего хозяина. Занзас вновь не придал этому значения, принимая за попытку ленивого животного слезть с кровати. Это и было его ошибкой. Своим немалым весом Бестер придавил мужчину к постели, и отдельно придавил одной лапо...</code> | <code>query: Аомине был ангелом уже очень давно. Он даже не помнил сколько лет, даже веков прошло с того момента. Он любил сидя на одном из облаков наблюдать за Землей, а особенно осенью. И это был обычный день, но Аомине захотелось посмотреть поближе. Раскрыв огромные крылья, он устремился камнем вниз. Для людей это выглядело как упавшая звезда, яркая линия в небе. Никто не знал, что все эти линии чертились падающими ангелами, лишь поэтому желания, которые было принято загадывать, исполнялись. На большой скорости молодой ангел приземлился. Когда облако пыли рассеялось, стало видно, что он стоит на одном колене, упираясь руками в землю. Сложив свои крылья, он скрыл их от человеческих глаз, его одежда всегда была как земная, и сейчас тоже. Белая борцовка, расстегнутая бледно голубая рубашка без рукавов и темно синие джинсы. Заинтересованно смотря по сторонам, он побрел в сторону города, мимо ехали машины, но он их не замечал. Зайдя в город, он был почти ослеплен неоновыми вывесками и многочис...</code> | <code>1</code> |
| <code>query: Что что-то не так, интуиция подсказывала Занзасу с самого утра. Благополучно проигнорировав пробуждение с лигром в постели, Бестер периодически спал рядом с хозяином. Занзас лениво но, как известно организму не откажешь, спустился на кухню. Относительно спокойно поев, и избавившись от новоявленного трупа, который пролил на него подливу к мясу, босс всея варии отправился в душ. Быстро вымывшись и обвязав короткое полотенце на бедрах, он вернулся в свою спальню и прилег на кровать рядом с лигром. Немного потрепав его гриву, брюнет разлегся на кровати. Животное же вспомнило, как длинноволосый парень использовал его хозяина как самку. А Бестер по характеру был очень похож на Занзаса собственничеством, по этой причине зверь встал, потоптался на постели и забрался на своего хозяина. Занзас вновь не придал этому значения, принимая за попытку ленивого животного слезть с кровати. Это и было его ошибкой. Своим немалым весом Бестер придавил мужчину к постели, и отдельно придавил одной лапо...</code> | <code>query: Тсунаеши лежал на постели в одном шелковом халате, ожидая прихода своего парня. Когда дверь отрылась, он развратно развел ножки и принялся вылизывать свои пальцы.<br>-Д-д-джудайме! Что Вы делаете?!<br>-Мммм, Хааааято, я тебя так хочу! - Изнывая от желания, произнес Савада.<br>-Да Вы что... Как я могу? - Тот покраснел и отвернулся.<br>-Знаешь что, Гокудера... - Голос стал сердитым. - Мы расстаемся! - И не дав подрывнику и слова сказать, Савада завязал пояс халата и, обувшись, покинул квартиру. Он быстро добрался до своей машины и, сев в нее, не менее быстро добрался до съемной квартиры Скуало. Потарабанив в дверь всего минуту, он ворвался в коридор и на недоуменный взгляд Скуало скинул халатик.<br>-Врооой, Савада, ты че творишь? - Суперби пытался собрать челюсть с пола, а сам Десятый оперся руками на стену, прогнул спинку и, расставив ножки потребовал.<br>-Трахни меня!<br>-Чего? Ты пьяный что ли? - Челюсть мечника во второй раз познакомилась с полом.<br>-Просто вставь. Мне можно без смазки и гандонов. -...</code> | <code>1</code> |
* Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
```json
{
"scale": 100,
"similarity_fct": "cos_sim"
}
```
### Evaluation Dataset
#### json
* Dataset: json
* Size: 184,428 evaluation samples
* Columns: <code>sentence1</code>, <code>sentence2</code>, and <code>label</code>
* Approximate statistics based on the first 1000 samples:
| | sentence1 | sentence2 | label |
|:--------|:-------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------|:-----------------------------|
| type | string | string | int |
| details | <ul><li>min: 432 tokens</li><li>mean: 510.2 tokens</li><li>max: 512 tokens</li></ul> | <ul><li>min: 409 tokens</li><li>mean: 510.42 tokens</li><li>max: 512 tokens</li></ul> | <ul><li>1: 100.00%</li></ul> |
* Samples:
| sentence1 | sentence2 | label |
|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------|
| <code>query: Дело было вечером, когда я отправлялась в гости к Мартине. Я взяла с собой Факундо, и Ксаби. Это мои сумасшедшие, но лучшие друзья. Короче коротко: Я - Лодовика, но можно просто Лодо.<br>Так как Тина живёт на 9 этаже, нам пришлось ехать на лифте, иначе на лестнице мы бы подохли. Короче заходим в лифт, и вот мы уже на нужном нам этаже.<br>Дверки открылись, я отвернулась на минутку. А потом повернулась, смотрю а этих идиотов нету. Вдруг дверки закрылись, я девушка не пугливая но, чёрт а вдруг я тут застряну?<br>- Придурки, блин! Откройте лифт! Застряну ведь!<br>В ответ я услышала лишь смех двух парней. Ну! Им не поздоровится когда я отсюда выйду.<br>Вдруг, дверки открылись, я вылезла из лифта, и эти дебилы насильно затаскивают меня в лифт, и жмут на кнопку, чтобы лифт поехал до 1 этажа.<br>- Быстрее! Факу! Надо быстрее Лодо спуститься на 1 этаж! - Закричал Ксабьяни.<br>- Понял! - В ответ крикнул Факундо.<br>Тут дверки закрылись, и меня понесло на 1 этаж. Через несколько минут я спустилась на нужный этаж,...</code> | <code>query: Я - Иккинг. Сын вождя, первый который приручил дракона.<br>У меня есть любимая девушка, но я давно её не видел. Последние новости меня привели в ужас.<br>Громгильда, дракониха, погибла. А Астрид не перенесла её смерти, и повесилась...<br>Мое сердце разбилось на сто осколков, моя единственная любовь погибла.<br>Говорят что викинги бессердечные, но это не так. Мы тоже умеем любить!<br>Раннее утро. Все викинги ещё спят, за окном холодно, солнце, но ветер всё же есть.<br>Я приоткрыл глаза, и заметил, что моя любимая рептилия всё ещё спит.<br>Так холодно, что мне захотелось всю вечность пролежать в тёплой постельке. Моя кровать так и манила лечь, и заставить спать. Но, тут мой чёрный друг проснулся. Он уставился на меня своими большими зелёными глазами.<br>- Что? - Не понимал я что происходит, но на мой вопрос Беззубик лишь фыркнул.<br>Но тут он расправил свои крылья, и подлетел ко мне. А свою морду положил мне на руки. Я явно не понимал что он от меня хочет.<br>Но тут он своей мордой уставился на свои крылья, и ...</code> | <code>1</code> |
| <code>query: Дело было вечером, когда я отправлялась в гости к Мартине. Я взяла с собой Факундо, и Ксаби. Это мои сумасшедшие, но лучшие друзья. Короче коротко: Я - Лодовика, но можно просто Лодо.<br>Так как Тина живёт на 9 этаже, нам пришлось ехать на лифте, иначе на лестнице мы бы подохли. Короче заходим в лифт, и вот мы уже на нужном нам этаже.<br>Дверки открылись, я отвернулась на минутку. А потом повернулась, смотрю а этих идиотов нету. Вдруг дверки закрылись, я девушка не пугливая но, чёрт а вдруг я тут застряну?<br>- Придурки, блин! Откройте лифт! Застряну ведь!<br>В ответ я услышала лишь смех двух парней. Ну! Им не поздоровится когда я отсюда выйду.<br>Вдруг, дверки открылись, я вылезла из лифта, и эти дебилы насильно затаскивают меня в лифт, и жмут на кнопку, чтобы лифт поехал до 1 этажа.<br>- Быстрее! Факу! Надо быстрее Лодо спуститься на 1 этаж! - Закричал Ксабьяни.<br>- Понял! - В ответ крикнул Факундо.<br>Тут дверки закрылись, и меня понесло на 1 этаж. Через несколько минут я спустилась на нужный этаж,...</code> | <code>query: Виолетта как всегда спала в своей кровати, и, в очередной раз ей снился кошмар. В очередной раз ей снилась ее покойная мать, Мария. Виолетта встала, вся вспотевшая, вся испуганная.<br>Вдруг дверь комнаты открылась, из за двери показался юноша. Он глядя на Виолетту нахмурил брови, и подошёл к ней.<br>- Виолетта, что с тобой? - Спросил он.<br>- Ничего. Просто опять кошмар приснился.<br>- Опять?<br>Федерико сел на край кровати, и обнял ее. Та не стала сопротивляться. Она обняла его в ответ, сейчас ей нужна поддержка. Опять сон, опять слёзы. Когда же бедной девушке прекратится сниться ее мать?<br>Виолетта встала из своей постели, и Федерико вышел из комнаты. Девушка начала одеваться, одевшись она спустилась на первый этаж, в гостиную.<br>Заметив что никого кроме Федерико в гостиной нету, она просила:<br>- А где все?<br>- Ольга пошла покупать продукты, а Ромальо и Герман на работе.<br>- Понятно.<br>Всё как всегда, ничего не меняется, кроме моих кошмаров.<br>Я села на диван, напротив Федерико, он что то писал на бумажке...</code> | <code>1</code> |
| <code>query: Дело было вечером, когда я отправлялась в гости к Мартине. Я взяла с собой Факундо, и Ксаби. Это мои сумасшедшие, но лучшие друзья. Короче коротко: Я - Лодовика, но можно просто Лодо.<br>Так как Тина живёт на 9 этаже, нам пришлось ехать на лифте, иначе на лестнице мы бы подохли. Короче заходим в лифт, и вот мы уже на нужном нам этаже.<br>Дверки открылись, я отвернулась на минутку. А потом повернулась, смотрю а этих идиотов нету. Вдруг дверки закрылись, я девушка не пугливая но, чёрт а вдруг я тут застряну?<br>- Придурки, блин! Откройте лифт! Застряну ведь!<br>В ответ я услышала лишь смех двух парней. Ну! Им не поздоровится когда я отсюда выйду.<br>Вдруг, дверки открылись, я вылезла из лифта, и эти дебилы насильно затаскивают меня в лифт, и жмут на кнопку, чтобы лифт поехал до 1 этажа.<br>- Быстрее! Факу! Надо быстрее Лодо спуститься на 1 этаж! - Закричал Ксабьяни.<br>- Понял! - В ответ крикнул Факундо.<br>Тут дверки закрылись, и меня понесло на 1 этаж. Через несколько минут я спустилась на нужный этаж,...</code> | <code>query: Я - Джамиля, дочь знатного графа. Моя мать умерла при родах, а я осталась жива. Уже как 20 лет прошло со смерти любящий матери. Мой отец снова женился чтобы у меня был пример для подражания.<br>Мою мачеху зовут Элизабет. Вроде имя доброе, а сама женщина не из лучших.<br>Мы с Элизабет не ладили. Мой отец уехал, дома осталась я с мачехой, которая совсем не занималась моим воспитанием как поручил ей мой отец.<br>Дом у нас был богатый, красивый. И много слуг.<br>Попутный ветер дует мне прямо в лицо. В округе посажены цветы.<br>Сейчас я в саду. Я очень редко улыбаюсь, так как таких радостных моментов, у меня было очень мало.<br>Я редко выхожу из своего дома, даже практически из своей комнаты не выхожу.<br>Моя мачеха очень редко выпускает меня подышать воздухом, она говорит что мне нельзя выходить на улицу, и общаться с людьми, пока я не научусь правилами этикета.<br>Немного подышав воздухом я зашла в дом. Ко мне сразу же подбежала Элизабет.<br>Глаза её были наполнены гневом. Она прожигала меня своим зловещим в...</code> | <code>1</code> |
* Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
```json
{
"scale": 100,
"similarity_fct": "cos_sim"
}
```
### Training Hyperparameters
#### Non-Default Hyperparameters
- `eval_strategy`: epoch
- `per_device_train_batch_size`: 136
- `per_device_eval_batch_size`: 136
- `weight_decay`: 0.01
- `num_train_epochs`: 5
- `bf16`: True
- `load_best_model_at_end`: True
- `batch_sampler`: no_duplicates
#### All Hyperparameters
<details><summary>Click to expand</summary>
- `overwrite_output_dir`: False
- `do_predict`: False
- `eval_strategy`: epoch
- `prediction_loss_only`: True
- `per_device_train_batch_size`: 136
- `per_device_eval_batch_size`: 136
- `per_gpu_train_batch_size`: None
- `per_gpu_eval_batch_size`: None
- `gradient_accumulation_steps`: 1
- `eval_accumulation_steps`: None
- `torch_empty_cache_steps`: None
- `learning_rate`: 5e-05
- `weight_decay`: 0.01
- `adam_beta1`: 0.9
- `adam_beta2`: 0.999
- `adam_epsilon`: 1e-08
- `max_grad_norm`: 1.0
- `num_train_epochs`: 5
- `max_steps`: -1
- `lr_scheduler_type`: linear
- `lr_scheduler_kwargs`: {}
- `warmup_ratio`: 0.0
- `warmup_steps`: 0
- `log_level`: passive
- `log_level_replica`: warning
- `log_on_each_node`: True
- `logging_nan_inf_filter`: True
- `save_safetensors`: True
- `save_on_each_node`: False
- `save_only_model`: False
- `restore_callback_states_from_checkpoint`: False
- `no_cuda`: False
- `use_cpu`: False
- `use_mps_device`: False
- `seed`: 42
- `data_seed`: None
- `jit_mode_eval`: False
- `use_ipex`: False
- `bf16`: True
- `fp16`: False
- `fp16_opt_level`: O1
- `half_precision_backend`: auto
- `bf16_full_eval`: False
- `fp16_full_eval`: False
- `tf32`: None
- `local_rank`: 0
- `ddp_backend`: None
- `tpu_num_cores`: None
- `tpu_metrics_debug`: False
- `debug`: []
- `dataloader_drop_last`: False
- `dataloader_num_workers`: 0
- `dataloader_prefetch_factor`: None
- `past_index`: -1
- `disable_tqdm`: False
- `remove_unused_columns`: True
- `label_names`: None
- `load_best_model_at_end`: True
- `ignore_data_skip`: False
- `fsdp`: []
- `fsdp_min_num_params`: 0
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
- `fsdp_transformer_layer_cls_to_wrap`: None
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
- `deepspeed`: None
- `label_smoothing_factor`: 0.0
- `optim`: adamw_torch
- `optim_args`: None
- `adafactor`: False
- `group_by_length`: False
- `length_column_name`: length
- `ddp_find_unused_parameters`: None
- `ddp_bucket_cap_mb`: None
- `ddp_broadcast_buffers`: False
- `dataloader_pin_memory`: True
- `dataloader_persistent_workers`: False
- `skip_memory_metrics`: True
- `use_legacy_prediction_loop`: False
- `push_to_hub`: False
- `resume_from_checkpoint`: None
- `hub_model_id`: None
- `hub_strategy`: every_save
- `hub_private_repo`: None
- `hub_always_push`: False
- `gradient_checkpointing`: False
- `gradient_checkpointing_kwargs`: None
- `include_inputs_for_metrics`: False
- `include_for_metrics`: []
- `eval_do_concat_batches`: True
- `fp16_backend`: auto
- `push_to_hub_model_id`: None
- `push_to_hub_organization`: None
- `mp_parameters`:
- `auto_find_batch_size`: False
- `full_determinism`: False
- `torchdynamo`: None
- `ray_scope`: last
- `ddp_timeout`: 1800
- `torch_compile`: False
- `torch_compile_backend`: None
- `torch_compile_mode`: None
- `include_tokens_per_second`: False
- `include_num_input_tokens_seen`: False
- `neftune_noise_alpha`: None
- `optim_target_modules`: None
- `batch_eval_metrics`: False
- `eval_on_start`: False
- `use_liger_kernel`: False
- `eval_use_gather_object`: False
- `average_tokens_across_devices`: False
- `prompts`: None
- `batch_sampler`: no_duplicates
- `multi_dataset_batch_sampler`: proportional
</details>
### Training Logs
| Epoch | Step | Training Loss | Validation Loss | cosine_ap |
|:------:|:-----:|:-------------:|:---------------:|:---------:|
| 3.0467 | 6200 | 1.602 | - | - |
| 3.0958 | 6300 | 1.6493 | - | - |
| 3.1450 | 6400 | 1.5855 | - | - |
| 3.1941 | 6500 | 1.606 | - | - |
| 3.2432 | 6600 | 1.5715 | - | - |
| 3.2924 | 6700 | 1.5785 | - | - |
| 3.3415 | 6800 | 1.557 | - | - |
| 3.3907 | 6900 | 1.5555 | - | - |
| 3.4398 | 7000 | 1.5394 | - | - |
| 3.4889 | 7100 | 1.5652 | - | - |
| 3.5381 | 7200 | 1.538 | - | - |
| 3.5872 | 7300 | 1.5439 | - | - |
| 3.6364 | 7400 | 1.5536 | - | - |
| 3.6855 | 7500 | 1.5326 | - | - |
| 3.7346 | 7600 | 1.5249 | - | - |
| 3.7838 | 7700 | 1.5235 | - | - |
| 3.8329 | 7800 | 1.5429 | - | - |
| 3.8821 | 7900 | 1.5392 | - | - |
| 3.9312 | 8000 | 1.5201 | - | - |
| 3.9803 | 8100 | 1.514 | - | - |
| 4.0 | 8140 | - | 10.5518 | 0.8410 |
| 4.0295 | 8200 | 1.4825 | - | - |
| 4.0786 | 8300 | 1.4265 | - | - |
| 4.1278 | 8400 | 1.4344 | - | - |
| 4.1769 | 8500 | 1.4226 | - | - |
| 4.2260 | 8600 | 1.3975 | - | - |
| 4.2752 | 8700 | 1.4139 | - | - |
| 4.3243 | 8800 | 1.4535 | - | - |
| 4.3735 | 8900 | 1.4092 | - | - |
| 4.4226 | 9000 | 1.4468 | - | - |
| 4.4717 | 9100 | 1.4306 | - | - |
| 4.5209 | 9200 | 1.41 | - | - |
| 4.5700 | 9300 | 1.4272 | - | - |
| 4.6192 | 9400 | 1.4026 | - | - |
| 4.6683 | 9500 | 1.4056 | - | - |
| 4.7174 | 9600 | 1.4093 | - | - |
| 4.7666 | 9700 | 1.4285 | - | - |
| 4.8157 | 9800 | 1.403 | - | - |
| 4.8649 | 9900 | 1.4214 | - | - |
| 4.9140 | 10000 | 1.3949 | - | - |
| 4.9631 | 10100 | 1.3905 | - | - |
| 5.0 | 10175 | - | 11.2517 | 0.8383 |
### Framework Versions
- Python: 3.10.18
- Sentence Transformers: 4.1.0
- Transformers: 4.52.4
- PyTorch: 2.7.1+cu128
- Accelerate: 1.7.0
- Datasets: 3.6.0
- Tokenizers: 0.21.1
## Citation
### BibTeX
#### Sentence Transformers
```bibtex
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
```
#### MultipleNegativesRankingLoss
```bibtex
@misc{henderson2017efficient,
title={Efficient Natural Language Response Suggestion for Smart Reply},
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
year={2017},
eprint={1705.00652},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
```
<!--
## Glossary
*Clearly define terms in order to be accessible across audiences.*
-->
<!--
## Model Card Authors
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
-->
<!--
## Model Card Contact
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
-->
|
furkankarakuz/distilbert-base-uncased-finetuned-squad-d5716d28
|
furkankarakuz
| 2025-06-18T10:44:54Z | 0 | 0 |
transformers
|
[
"transformers",
"distilbert",
"fill-mask",
"arxiv:1910.09700",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] |
fill-mask
| 2025-06-18T10:40:20Z |
---
library_name: transformers
tags: []
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed]
|
vimbaibeth/image_text_to_text
|
vimbaibeth
| 2025-06-18T10:39:48Z | 0 | 0 | null |
[
"license:apache-2.0",
"region:us"
] | null | 2025-06-18T10:39:48Z |
---
license: apache-2.0
---
|
mob2711/qwen2.5-7b-qlora-cot-ht-4000
|
mob2711
| 2025-06-18T10:34:03Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"text-generation-inference",
"unsloth",
"qwen2",
"trl",
"en",
"license:apache-2.0",
"endpoints_compatible",
"region:us"
] | null | 2025-06-18T10:33:53Z |
---
base_model: unsloth/qwen2.5-7b-instruct-unsloth-bnb-4bit
tags:
- text-generation-inference
- transformers
- unsloth
- qwen2
- trl
license: apache-2.0
language:
- en
---
# Uploaded model
- **Developed by:** mob2711
- **License:** apache-2.0
- **Finetuned from model :** unsloth/qwen2.5-7b-instruct-unsloth-bnb-4bit
This qwen2 model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library.
[<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
|
Shubh2012/Trainer
|
Shubh2012
| 2025-06-18T10:17:12Z | 0 | 0 |
fastai
|
[
"fastai",
"code",
"text-classification",
"en",
"hi",
"dataset:open-r1/Mixture-of-Thoughts",
"dataset:nvidia/Nemotron-Personas",
"base_model:deepseek-ai/DeepSeek-R1-0528",
"base_model:finetune:deepseek-ai/DeepSeek-R1-0528",
"license:openrail",
"region:us"
] |
text-classification
| 2025-06-18T10:15:34Z |
---
license: openrail
datasets:
- open-r1/Mixture-of-Thoughts
- nvidia/Nemotron-Personas
language:
- en
- hi
metrics:
- accuracy
base_model:
- google/gemma-3n-E4B-it-litert-preview
- deepseek-ai/DeepSeek-R1-0528
new_version: google/medgemma-4b-it
pipeline_tag: text-classification
library_name: fastai
tags:
- code
---
|
jeongseokoh/llama3_8b_Multiple3_aggr_mean
|
jeongseokoh
| 2025-06-18T10:16:57Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"llama",
"text-generation",
"conversational",
"arxiv:1910.09700",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] |
text-generation
| 2025-06-18T10:12:39Z |
---
library_name: transformers
tags: []
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed]
|
siyan824/slam3r_i2p
|
siyan824
| 2025-06-18T10:14:40Z | 1,830 | 3 | null |
[
"safetensors",
"image-to-3d",
"video-to-3d",
"arxiv:2412.09401",
"region:us"
] |
image-to-3d
| 2024-12-18T02:51:49Z |
---
tags:
- image-to-3d
- video-to-3d
---
[CVPR 2025] SLAM3R: Real-Time Dense Scene Reconstruction from Monocular RGB Videos
SLAM3R is a real-time RGB SLAM system that performs dense 3D reconstruction via points regression with feed-forward neural networks.
This repository contains pre-trained weights for the Image-to-Points network, which converts short video clips into dense point clouds with all frames aligned in a unified coordinate system.
Paper: https://huggingface.co/papers/2412.09401
Code: https://github.com/PKU-VCL-3DV/SLAM3R
|
artianand/race_ethnicity_adapter_deberta_v3_large_race_custom_loss_lamda_05_batch_8
|
artianand
| 2025-06-18T10:09:42Z | 0 | 0 |
adapter-transformers
|
[
"adapter-transformers",
"deberta-v2",
"region:us"
] | null | 2025-06-18T10:09:36Z |
---
tags:
- adapter-transformers
- deberta-v2
---
# Adapter `artianand/race_ethnicity_adapter_deberta_v3_large_race_custom_loss_lamda_05_batch_8` for artianand/deberta-v3-large-race
An [adapter](https://adapterhub.ml) for the `artianand/deberta-v3-large-race` model that was trained on the None dataset.
This adapter was created for usage with the **[Adapters](https://github.com/Adapter-Hub/adapters)** library.
## Usage
First, install `adapters`:
```
pip install -U adapters
```
Now, the adapter can be loaded and activated like this:
```python
from adapters import AutoAdapterModel
model = AutoAdapterModel.from_pretrained("artianand/deberta-v3-large-race")
adapter_name = model.load_adapter("artianand/race_ethnicity_adapter_deberta_v3_large_race_custom_loss_lamda_05_batch_8", set_active=True)
```
## Architecture & Training
<!-- Add some description here -->
## Evaluation results
<!-- Add some description here -->
## Citation
<!-- Add some description here -->
|
artianand/gender_identity_adapter_roberta_large_race_custom_loss_lamda_05_batch_8
|
artianand
| 2025-06-18T10:05:54Z | 0 | 0 |
adapter-transformers
|
[
"adapter-transformers",
"roberta",
"region:us"
] | null | 2025-06-18T10:05:46Z |
---
tags:
- adapter-transformers
- roberta
---
# Adapter `artianand/gender_identity_adapter_roberta_large_race_custom_loss_lamda_05_batch_8` for Shweta-singh/roberta_large_race_finetuned
An [adapter](https://adapterhub.ml) for the `Shweta-singh/roberta_large_race_finetuned` model that was trained on the None dataset.
This adapter was created for usage with the **[Adapters](https://github.com/Adapter-Hub/adapters)** library.
## Usage
First, install `adapters`:
```
pip install -U adapters
```
Now, the adapter can be loaded and activated like this:
```python
from adapters import AutoAdapterModel
model = AutoAdapterModel.from_pretrained("Shweta-singh/roberta_large_race_finetuned")
adapter_name = model.load_adapter("artianand/gender_identity_adapter_roberta_large_race_custom_loss_lamda_05_batch_8", set_active=True)
```
## Architecture & Training
<!-- Add some description here -->
## Evaluation results
<!-- Add some description here -->
## Citation
<!-- Add some description here -->
|
LarryAIDraw/calicoCatTower_v20VPred
|
LarryAIDraw
| 2025-06-18T09:54:29Z | 0 | 0 | null |
[
"license:creativeml-openrail-m",
"region:us"
] | null | 2025-06-18T06:18:06Z |
---
license: creativeml-openrail-m
---
https://civitai.com/models/1294336?modelVersionId=1909091
|
bhavesh15112004/agromax_fine_tune
|
bhavesh15112004
| 2025-06-18T09:52:16Z | 0 | 0 | null |
[
"license:apache-2.0",
"region:us"
] | null | 2025-06-18T09:52:16Z |
---
license: apache-2.0
---
|
Okcan/time_series_forecasting_model
|
Okcan
| 2025-06-18T09:46:36Z | 0 | 0 |
keras
|
[
"keras",
"bitcoin",
"lstm",
"time-series",
"price-prediction",
"tensorflow",
"finance",
"en",
"license:mit",
"region:us"
] | null | 2025-06-18T09:37:21Z |
---
license: mit
language:
- en
tags:
- bitcoin
- lstm
- time-series
- price-prediction
- tensorflow
- keras
- finance
---
# 🧠 Bitcoin Price Forecasting using LSTM Neural Network
A deep learning model based on Long Short-Term Memory (LSTM) networks to predict the next-day closing price of Bitcoin (BTC-USD) using historical data from Yahoo Finance.
---
## 🔍 Model Overview
| Feature | Description |
|--------------------|-----------------------------------------------------------------------------|
| 📦 Model Type | LSTM (Long Short-Term Memory), a variant of Recurrent Neural Networks (RNN) |
| 🧠 Frameworks Used | TensorFlow (Keras API), Scikit-learn, NumPy, Pandas, yfinance |
| 📈 Input | Past 60 days of Bitcoin closing prices |
| 🎯 Output | Predicted closing price for the next day |
| 📊 Evaluation | Root Mean Squared Error (RMSE) |
| 🧪 Goal | Short-term (1-day ahead) BTC price forecasting |
---
## 🔧 What the Model Does
- Downloads historical BTC-USD data from Yahoo Finance
- Normalizes the data between 0 and 1 using MinMaxScaler
- Splits into 80% training and 20% test sets
- Creates time-sequenced inputs with a 60-day sliding window
- Trains a 2-layer LSTM model with dropout to prevent overfitting
- Evaluates the model using RMSE
- Plots predicted vs actual prices
- Makes a next-day prediction using the last 60 days of data
---
## 💡 Use Cases
- Educational: Learning time series forecasting and LSTM models
- Research: Benchmarking for financial forecasting models
- Visualization: Analyze model performance on real BTC data
- Academic Support: Useful for papers or prototypes on AI-based financial systems
---
## ⚠️ Limitations
- Uses only the closing price (no volume, indicators, or sentiment data)
- Performs only single-step (1-day ahead) forecasting
- Does not account for sudden market news or shocks
- Not designed for high-frequency or live trading systems
---
## 🚀 Potential Improvements
- Include additional features: volume, RSI, MACD, etc.
- Integrate external signals: news, social media sentiment, macro data
- Add attention or transformer-based layers
- Extend to multi-step forecasting (3-day, 5-day, etc.)
- Deploy as REST API or interactive dashboard
- Connect to Binance or other exchanges for live predictions
---
## 📁 Files
- `lstm_bitcoin_predictor.py`: Full code to train, evaluate, and predict using LSTM
- `data.csv`: (optional) Cached historical BTC-USD data
- `model.h5`: Saved trained model
---
## 📜 License
This project is licensed under the MIT License.
---
## ⚠️⚠️⚠️⚠️⚠️⚠️⚠️⚠️⚠️⚠️⚠️⚠️⚠️⚠️⚠️⚠️⚠️⚠️⚠️⚠️ Disclaimer⚠️⚠️⚠️⚠️⚠️⚠️⚠️⚠️⚠️⚠️⚠️⚠️⚠️⚠️⚠️⚠️⚠️⚠️⚠️⚠️
> **This model is intended for educational and research purposes only.**
>
> It is **not** designed for financial or investment decision-making.
> No guarantees are made about the accuracy of the forecasts.
> The authors accept no responsibility for any financial losses incurred from the use of this model.
> **Use at your own risk.**
|
gradientrouting-spar/mc9_badmed_representation_constraint_beta_kl-5.0_seed_1_epoch_1
|
gradientrouting-spar
| 2025-06-18T09:42:51Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"arxiv:1910.09700",
"endpoints_compatible",
"region:us"
] | null | 2025-06-18T09:42:13Z |
---
library_name: transformers
tags: []
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed]
|
Mahadi249/deepseek-8b-fact-checker
|
Mahadi249
| 2025-06-18T09:36:44Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"arxiv:1910.09700",
"endpoints_compatible",
"region:us"
] | null | 2025-06-14T13:08:06Z |
---
library_name: transformers
tags: []
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed]
|
BKM1804/mieumieu-phase2-adapter
|
BKM1804
| 2025-06-18T09:35:53Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"generated_from_trainer",
"trl",
"sft",
"dpo",
"arxiv:2305.18290",
"base_model:unsloth/Llama-3.2-1B-Instruct",
"base_model:finetune:unsloth/Llama-3.2-1B-Instruct",
"endpoints_compatible",
"region:us"
] | null | 2025-06-18T09:35:30Z |
---
base_model: unsloth/Llama-3.2-1B-Instruct
library_name: transformers
model_name: mieumieu-phase2-adapter
tags:
- generated_from_trainer
- trl
- sft
- dpo
licence: license
---
# Model Card for mieumieu-phase2-adapter
This model is a fine-tuned version of [unsloth/Llama-3.2-1B-Instruct](https://huggingface.co/unsloth/Llama-3.2-1B-Instruct).
It has been trained using [TRL](https://github.com/huggingface/trl).
## Quick start
```python
from transformers import pipeline
question = "If you had a time machine, but could only go to the past or the future once and never return, which would you choose and why?"
generator = pipeline("text-generation", model="BKM1804/mieumieu-phase2-adapter", device="cuda")
output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0]
print(output["generated_text"])
```
## Training procedure
[<img src="https://raw.githubusercontent.com/wandb/assets/main/wandb-github-badge-28.svg" alt="Visualize in Weights & Biases" width="150" height="24"/>](https://wandb.ai/buikhacminh1804/sn56-dpo-train/runs/8bh0qbv9)
This model was trained with DPO, a method introduced in [Direct Preference Optimization: Your Language Model is Secretly a Reward Model](https://huggingface.co/papers/2305.18290).
### Framework versions
- TRL: 0.18.2
- Transformers: 4.52.4
- Pytorch: 2.7.0
- Datasets: 3.6.0
- Tokenizers: 0.21.1
## Citations
Cite DPO as:
```bibtex
@inproceedings{rafailov2023direct,
title = {{Direct Preference Optimization: Your Language Model is Secretly a Reward Model}},
author = {Rafael Rafailov and Archit Sharma and Eric Mitchell and Christopher D. Manning and Stefano Ermon and Chelsea Finn},
year = 2023,
booktitle = {Advances in Neural Information Processing Systems 36: Annual Conference on Neural Information Processing Systems 2023, NeurIPS 2023, New Orleans, LA, USA, December 10 - 16, 2023},
url = {http://papers.nips.cc/paper_files/paper/2023/hash/a85b405ed65c6477a4fe8302b5e06ce7-Abstract-Conference.html},
editor = {Alice Oh and Tristan Naumann and Amir Globerson and Kate Saenko and Moritz Hardt and Sergey Levine},
}
```
Cite TRL as:
```bibtex
@misc{vonwerra2022trl,
title = {{TRL: Transformer Reinforcement Learning}},
author = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul and Quentin Gallou{\'e}dec},
year = 2020,
journal = {GitHub repository},
publisher = {GitHub},
howpublished = {\url{https://github.com/huggingface/trl}}
}
```
|
Talking-Babies/orpo_opt_base_tokenizer
|
Talking-Babies
| 2025-06-18T09:35:09Z | 0 | 0 |
transformers
|
[
"transformers",
"arxiv:1910.09700",
"endpoints_compatible",
"region:us"
] | null | 2025-06-18T09:35:08Z |
---
library_name: transformers
tags: []
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed]
|
sgonzalezygil/sd-finetuning-dreambooth-v7
|
sgonzalezygil
| 2025-06-18T09:31:43Z | 0 | 0 |
diffusers
|
[
"diffusers",
"safetensors",
"arxiv:1910.09700",
"autotrain_compatible",
"endpoints_compatible",
"diffusers:StableDiffusionPipeline",
"region:us"
] |
text-to-image
| 2025-06-18T09:30:09Z |
---
library_name: diffusers
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a 🧨 diffusers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed]
|
hugging-F-a-ce/q-FrozenLake-v1-4x4-yesSlippery
|
hugging-F-a-ce
| 2025-06-18T09:10:50Z | 0 | 0 | null |
[
"FrozenLake-v1-4x4",
"q-learning",
"reinforcement-learning",
"custom-implementation",
"model-index",
"region:us"
] |
reinforcement-learning
| 2025-06-18T09:01:55Z |
---
tags:
- FrozenLake-v1-4x4
- q-learning
- reinforcement-learning
- custom-implementation
model-index:
- name: q-FrozenLake-v1-4x4-yesSlippery
results:
- task:
type: reinforcement-learning
name: reinforcement-learning
dataset:
name: FrozenLake-v1-4x4
type: FrozenLake-v1-4x4
metrics:
- type: mean_reward
value: 0.14 +/- 0.35
name: mean_reward
verified: false
---
# **Q-Learning** Agent playing1 **FrozenLake-v1**
This is a trained model of a **Q-Learning** agent playing **FrozenLake-v1** .
## Usage
```python
model = load_from_hub(repo_id="hugging-F-a-ce/q-FrozenLake-v1-4x4-yesSlippery", filename="q-learning.pkl")
# Don't forget to check if you need to add additional attributes (is_slippery=False etc)
env = gym.make(model["env_id"])
```
|
Subsets and Splits
Filtered Qwen2.5 Distill Models
Identifies specific configurations of models by filtering cards that contain 'distill', 'qwen2.5', '7b' while excluding certain base models and incorrect model ID patterns, uncovering unique model variants.
Filtered Model Cards Count
Finds the count of entries with specific card details that include 'distill', 'qwen2.5', '7b' but exclude certain base models, revealing valuable insights about the dataset's content distribution.
Filtered Distill Qwen 7B Models
Filters for specific card entries containing 'distill', 'qwen', and '7b', excluding certain strings and patterns, to identify relevant model configurations.
Filtered Qwen-7b Model Cards
The query performs a detailed filtering based on specific keywords and excludes certain entries, which could be useful for identifying a specific subset of cards but does not provide deeper insights or trends.
Filtered Qwen 7B Model Cards
The query filters for specific terms related to "distilled" or "distill", "qwen", and "7b" in the 'card' column but excludes certain base models, providing a limited set of entries for further inspection.
Qwen 7B Distilled Models
The query provides a basic filtering of records to find specific card names that include keywords related to distilled Qwen 7b models, excluding a particular base model, which gives limited insight but helps in focusing on relevant entries.
Qwen 7B Distilled Model Cards
The query filters data based on specific keywords in the modelId and card fields, providing limited insight primarily useful for locating specific entries rather than revealing broad patterns or trends.
Qwen 7B Distilled Models
Finds all entries containing the terms 'distilled', 'qwen', and '7b' in a case-insensitive manner, providing a filtered set of records but without deeper analysis.
Distilled Qwen 7B Models
The query filters for specific model IDs containing 'distilled', 'qwen', and '7b', providing a basic retrieval of relevant entries but without deeper analysis or insight.
Filtered Model Cards with Distill Qwen2.
Filters and retrieves records containing specific keywords in the card description while excluding certain phrases, providing a basic count of relevant entries.
Filtered Model Cards with Distill Qwen 7
The query filters specific variations of card descriptions containing 'distill', 'qwen', and '7b' while excluding a particular base model, providing limited but specific data retrieval.
Distill Qwen 7B Model Cards
The query filters and retrieves rows where the 'card' column contains specific keywords ('distill', 'qwen', and '7b'), providing a basic filter result that can help in identifying specific entries.