Modelos de generación de texto

Descripción / Función

Modelo de generación de texto para el modelado causal del lenguaje con una arquitectura de solo decodificador.

Nombre modelo

AITANA-2B-S

Tarjeta del modelo

Comentarios

-

Manual de uso

Descripción / Función

Modelo de lenguaje de gran escala (LLM) de propósito general (modelo fundacional)

Nombre modelo

salamandra-2b

Tarjeta del modelo

Comentarios

Modelo generativo multilingüe, entrenado desde cero en 35 idiomas europeos, con 2 mil millones de parámetros y 12,875 billones de tokens

Manual de uso

Descripción / Función

Modelo de lenguaje de gran escala (LLM) de propósito general (versión cuantizada GPTQ)

Nombre modelo

salamandra-2b-base-gptq

Tarjeta del modelo

Comentarios

Versión cuantizada GPTQ del modelo salamandra-2b para decodificación especulativa. Los pesos han sido reducidos de FP16 a W4A16 (pesos de 4 bits y activaciones en FP16) mediante el algoritmo GPTQ. Inferencia disponible con VLLM.

Manual de uso

Descripción / Función

Modelo de lenguaje de gran escala (LLM) de propósito general (versión cuantizada FP8)

Nombre modelo

salamandra-2b-base-fp8

Tarjeta del modelo

Comentarios

Versión cuantizada FP8 del modelo salamandra-2b. Los pesos han sido reducidos de FP16 a FP8 (8 bits) mediante el algoritmo FP8 de NeuralMagic. Inferencia disponible con VLLM.

Manual de uso

Descripción / Función

Modelo de lenguaje de gran escala (LLM) de propósito general (instruido)

Nombre modelo

salamandra-2b-instruct

Tarjeta del modelo

Comentarios

Modelo salamandra-2b entrenado con 276 mil instrucciones en inglés, español y catalán, recopiladas de diversos corpus abiertos.

Manual de uso

Descripción / Función

Modelo de lenguaje de gran escala (LLM) de propósito general (instruido, versión cuantizada GPTQ)

Nombre modelo

salamandra-2b-instruct-gptq

Tarjeta del modelo

Comentarios

Versión cuantizada con GPTQ del modelo salamandra-2b-instruct para decodificación especulativa. Los pesos han sido reducidos de FP16 a W4A16 (pesos de 4 bits y activaciones en FP16) mediante el algoritmo GPTQ. Inferencia disponible con VLLM.

Manual de uso

Descripción / Función

Modelo de lenguaje de gran escala (LLM) de propósito general (instruido, versión cuantizada FP8)

Nombre modelo

salamandra-2b-instruct-fp8

Tarjeta del modelo

Comentarios

Versión cuantizada FP8 del modelo salamandra-2b-instruct. Los pesos han sido reducidos de FP16 a FP8 (8 bits) mediante el algoritmo FP8 de NeuralMagic. Inferencia disponible con VLLM.

Manual de uso

Descripción / Función

Modelo de lenguaje de gran escala (LLM) de propósito general (modelo fundacional)

Nombre modelo

salamandra-7b

Tarjeta del modelo

Comentarios

Modelo generativo multilingüe, entrenado desde cero en 35 idiomas europeos, con 7 mil millones de parámetros y 12,875 billones de tokens.

Manual de uso

Descripción / Función

Modelo de lenguaje de gran escala (LLM) de propósito general (versión cuantizada GPTQ)

Nombre modelo

salamandra-7b-base-gptq

Tarjeta del modelo

Comentarios

Versión cuantizada GPTQ del modelo salamandra-7b para decodificación especulativa. Los pesos han sido reducidos de FP16 a W4A16 (pesos de 4 bits y activaciones en FP16) mediante el algoritmo GPTQ. Inferencia disponible con VLLM.

Manual de uso

Descripción / Función

Modelo de lenguaje de gran escala (LLM) de propósito general (versión cuantizada FP8)

Nombre modelo

salamandra-7b-base-fp8

Tarjeta del modelo

Comentarios

Versión cuantizada FP8 del modelo salamandra-7b. Los pesos han sido reducidos de FP16 a FP8 (8 bits) mediante el algoritmo FP8 de NeuralMagic. Inferencia disponible con VLLM.

Manual de uso

Descripción / Función

Modelo de lenguaje de gran escala (LLM) de propósito general (instruido)

Nombre modelo

salamandra-7b-instruct

Tarjeta del modelo

Comentarios

Modelo salamandra-7b entrenado con 276 mil instrucciones en inglés, español y catalán, recopiladas de diversos corpus abiertos

Manual de uso

Descripción / Función

Modelo de lenguaje de gran escala (LLM) de propósito general (instruido, versión cuantizada GPTQ)

Nombre modelo

salamandra-7b-instruct-gptq

Tarjeta del modelo

Comentarios

Versión cuantizada GPTQ del modelo salamandra-7b-instruct para decodificación especulativa. Los pesos han sido reducidos de FP16 a W4A16 (pesos de 4 bits y activaciones en FP16) mediante el algoritmo GPTQ. Inferencia disponible con VLLM.

Manual de uso

Descripción / Función

Modelo de lenguaje de gran escala (LLM) de propósito general (instruido, versión cuantizada FP8)

Nombre modelo

salamandra-7b-instruct-fp8

Tarjeta del modelo

Comentarios

Versión cuantizada FP8 del modelo salamandra-7b-instruct. Los pesos han sido reducidos de FP16 a FP8 (8 bits) mediante el algoritmo FP8 de NeuralMagic. Inferencia disponible con VLLM.

Manual de uso

Descripción / Función

Modelo de lenguaje de gran escala (LLM) de propósito general (modelo fundacional).

Nombre modelo

ALIA-40b

Tarjeta del modelo

Comentarios

ALIA-40b es un modelo altamente multilingüe preentrenado desde cero.

Manual de uso

Last updated