Antonio49's picture
Update modelo.txt
fd400aa verified
raw
history blame
702 Bytes
Modelo de tarjeta para Mixtral-8x7B
El modelo de lenguaje grande (LLM) Mixtral-8x7B es una mezcla dispersa generativa preentrenada de expertos.
El Mixtral-8x7B supera al Llama 2 70B en la mayoría de los puntos de referencia que probamos.
Para obtener todos los detalles de este modelo, lea nuestra publicación de blog de lanzamiento.
Advertencia
Este repositorio contiene pesos que son compatibles con el servicio vLLM del modelo, así como con la biblioteca de transformadores Hugging Face.
Se basa en la versión original de Mixtral torrent, pero el formato de archivo y los nombres de los parámetros son diferentes.
Tenga en cuenta que el modelo no se puede (todavía) instanciar con HF.