Cygnis Alpha 2 (GGUF Versions)

Developed by CygnisAI (simonc-44)


Présentation

Cygnis Alpha 2 est un modèle de langage de 8 milliards de paramètres, conçu pour offrir une génération de texte fluide, cohérente et performante, avec une optimisation particulière pour le français.

Cette version au format GGUF permet une exécution locale rapide et efficace sur du matériel grand public (CPU et GPU), tout en conservant d’excellentes performances.


Quantifications disponibles

Fichier Méthode Taille Usage recommandé Performance
cygnis_alpha_v2.f16.gguf F16 16.1 GB Serveurs / archivage 100% (référence)
cygnis_alpha_v2.Q8_0.gguf Q8_0 8.5 GB Usage avancé (RAM > 16GB) 99.9%
cygnis_alpha_v2.Q4_K_M.gguf Q4_K_M 4.9 GB Standard (recommandé) 98.5%

Installation rapide

LM Studio / AnythingLLM

  1. Copiez l’URL de ce dépôt Hugging Face
  2. Collez-la dans la barre de recherche de votre application
  3. Téléchargez la version Q4_K_M pour un équilibre optimal

Ollama

Créez un fichier Modelfile :

FROM ./cygnis_alpha_v2.Q4_K_M.gguf

TEMPLATE """### Système: {{ .System }}
### Utilisateur: {{ .Prompt }}
### Assistant: """

PARAMETER stop "###"

Puis lancez :

ollama create cygnis-alpha-2 -f Modelfile
ollama run cygnis-alpha-2

Format de prompt (Chat Template)

Pour de meilleurs résultats :

### Système: Vous êtes Cygnis, une intelligence artificielle sophistiquée.
### Utilisateur: Bonjour, peux-tu m'aider à rédiger un article ?
### Assistant:

Points forts

  • Optimisé pour le français
  • Rapide en local (GGUF)
  • Bon équilibre performance / taille
  • Compatible roleplay et assistants conversationnels
  • Facile à intégrer (LM Studio, Ollama, llama.cpp)

Licence & crédits

  • Auteur : simonc-44
  • Organisation : CygnisAI
  • Licence : Apache 2.0

Objectif du projet

Cygnis vise à proposer une alternative performante et accessible aux grands modèles, tout en restant exécutable localement et optimisé pour les utilisateurs francophones.

Downloads last month
18
GGUF
Model size
8B params
Architecture
llama
Hardware compatibility
Log In to add your hardware

2-bit

16-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Collection including Simonc-44/Cygnis-Alpha-2-8B-v0.2-GGUF