Modelos de generación de texto
Descripción / Función
Modelo de generación de texto para el modelado causal del lenguaje con una arquitectura de solo decodificador.
Nombre modelo
AITANA-2B-S
Tarjeta del modelo
Comentarios
-
Manual de uso
Descripción / Función
Modelo de lenguaje de gran escala (LLM) de propósito general (modelo fundacional)
Nombre modelo
salamandra-2b
Tarjeta del modelo
Comentarios
Modelo generativo multilingüe, entrenado desde cero en 35 idiomas europeos, con 2 mil millones de parámetros y 12,875 billones de tokens
Manual de uso
Descripción / Función
Modelo de lenguaje de gran escala (LLM) de propósito general (versión cuantizada GPTQ)
Nombre modelo
salamandra-2b-base-gptq
Tarjeta del modelo
Comentarios
Versión cuantizada GPTQ del modelo salamandra-2b para decodificación especulativa. Los pesos han sido reducidos de FP16 a W4A16 (pesos de 4 bits y activaciones en FP16) mediante el algoritmo GPTQ. Inferencia disponible con VLLM.
Manual de uso
Descripción / Función
Modelo de lenguaje de gran escala (LLM) de propósito general (versión cuantizada FP8)
Nombre modelo
salamandra-2b-base-fp8
Tarjeta del modelo
Comentarios
Versión cuantizada FP8 del modelo salamandra-2b. Los pesos han sido reducidos de FP16 a FP8 (8 bits) mediante el algoritmo FP8 de NeuralMagic. Inferencia disponible con VLLM.
Manual de uso
Descripción / Función
Modelo de lenguaje de gran escala (LLM) de propósito general (instruido)
Nombre modelo
salamandra-2b-instruct
Tarjeta del modelo
Comentarios
Modelo salamandra-2b entrenado con 276 mil instrucciones en inglés, español y catalán, recopiladas de diversos corpus abiertos.
Manual de uso
Descripción / Función
Modelo de lenguaje de gran escala (LLM) de propósito general (instruido, versión cuantizada GPTQ)
Nombre modelo
salamandra-2b-instruct-gptq
Tarjeta del modelo
Comentarios
Versión cuantizada con GPTQ del modelo salamandra-2b-instruct para decodificación especulativa. Los pesos han sido reducidos de FP16 a W4A16 (pesos de 4 bits y activaciones en FP16) mediante el algoritmo GPTQ. Inferencia disponible con VLLM.
Manual de uso
Descripción / Función
Modelo de lenguaje de gran escala (LLM) de propósito general (instruido, versión cuantizada FP8)
Nombre modelo
salamandra-2b-instruct-fp8
Tarjeta del modelo
Comentarios
Versión cuantizada FP8 del modelo salamandra-2b-instruct. Los pesos han sido reducidos de FP16 a FP8 (8 bits) mediante el algoritmo FP8 de NeuralMagic. Inferencia disponible con VLLM.
Manual de uso
Descripción / Función
Modelo de lenguaje de gran escala (LLM) de propósito general (modelo fundacional)
Nombre modelo
salamandra-7b
Tarjeta del modelo
Comentarios
Modelo generativo multilingüe, entrenado desde cero en 35 idiomas europeos, con 7 mil millones de parámetros y 12,875 billones de tokens.
Manual de uso
Descripción / Función
Modelo de lenguaje de gran escala (LLM) de propósito general (versión cuantizada GPTQ)
Nombre modelo
salamandra-7b-base-gptq
Tarjeta del modelo
Comentarios
Versión cuantizada GPTQ del modelo salamandra-7b para decodificación especulativa. Los pesos han sido reducidos de FP16 a W4A16 (pesos de 4 bits y activaciones en FP16) mediante el algoritmo GPTQ. Inferencia disponible con VLLM.
Manual de uso
Descripción / Función
Modelo de lenguaje de gran escala (LLM) de propósito general (versión cuantizada FP8)
Nombre modelo
salamandra-7b-base-fp8
Tarjeta del modelo
Comentarios
Versión cuantizada FP8 del modelo salamandra-7b. Los pesos han sido reducidos de FP16 a FP8 (8 bits) mediante el algoritmo FP8 de NeuralMagic. Inferencia disponible con VLLM.
Manual de uso
Descripción / Función
Modelo de lenguaje de gran escala (LLM) de propósito general (instruido)
Nombre modelo
salamandra-7b-instruct
Tarjeta del modelo
Comentarios
Modelo salamandra-7b entrenado con 276 mil instrucciones en inglés, español y catalán, recopiladas de diversos corpus abiertos
Manual de uso
Descripción / Función
Modelo de lenguaje de gran escala (LLM) de propósito general (instruido, versión cuantizada GPTQ)
Nombre modelo
salamandra-7b-instruct-gptq
Tarjeta del modelo
Comentarios
Versión cuantizada GPTQ del modelo salamandra-7b-instruct para decodificación especulativa. Los pesos han sido reducidos de FP16 a W4A16 (pesos de 4 bits y activaciones en FP16) mediante el algoritmo GPTQ. Inferencia disponible con VLLM.
Manual de uso
Descripción / Función
Modelo de lenguaje de gran escala (LLM) de propósito general (instruido, versión cuantizada FP8)
Nombre modelo
salamandra-7b-instruct-fp8
Tarjeta del modelo
Comentarios
Versión cuantizada FP8 del modelo salamandra-7b-instruct. Los pesos han sido reducidos de FP16 a FP8 (8 bits) mediante el algoritmo FP8 de NeuralMagic. Inferencia disponible con VLLM.
Manual de uso
Descripción / Función
Modelo de lenguaje de gran escala (LLM) de propósito general (modelo fundacional).
Nombre modelo
ALIA-40b
Tarjeta del modelo
Comentarios
ALIA-40b es un modelo altamente multilingüe preentrenado desde cero.
Manual de uso
Last updated