Utiliser aicentos avec Hermes
Présentation du projet
Hermes Agent est un agent IA généraliste de Nous Research. Il prend en charge le chat en CLI, l'appel d'outils, la mémoire, les skills, les passerelles et les tâches planifiées. Il peut se connecter aux services cloud officiellement pris en charge ou à n'importe quel endpoint compatible OpenAI.
- Site officiel : https://hermes-agent.nousresearch.com
- Documentation : https://hermes-agent.nousresearch.com/docs
- GitHub : https://github.com/NousResearch/hermes-agent
- Web3Hermes : https://web3hermes.com
Prérequis
- Clé API aicentos (Obtenir depuis la console)
gitdisponible sur votre machinepython3disponible sur votre machine
Installer Hermes
Environnement requis
- macOS / Linux / WSL2
- L'installation via PowerShell est possible sous Windows, mais WSL2 reste recommandé
- L'installateur gère automatiquement Python, Node.js, ripgrep et ffmpeg
Recommandé : installer Web3Hermes
Si vous souhaitez une interface web pour navigateur de bureau optimisée pour les utilisateurs en Chine continentale, installez d'abord Web3Hermes. C'est une interface web légère basée sur Hermes Agent. README officiel : Web3CZ/Web3Hermes.
git clone https://github.com/Web3CZ/Web3Hermes.git
cd Web3Hermes
python3 bootstrap.pyVous pouvez aussi utiliser le script de démarrage depuis le dossier du projet :
./start.shLe service démarre par défaut sur http://127.0.0.1:8787.
Installer Hermes Agent CLI
curl -fsSL https://raw.githubusercontent.com/NousResearch/hermes-agent/main/scripts/install.sh | bashirm https://res1.hermesagent.org.cn/install.ps1 | iexAprès l'installation, rechargez la configuration de votre shell :
source ~/.zshrcSi vous utilisez bash, exécutez :
source ~/.bashrcSi vous utilisez Windows PowerShell, fermez simplement le terminal puis rouvrez-le.
Configurer aicentos
Hermes recommande officiellement d'utiliser hermes model pour la configuration interactive. Avec aicentos, choisissez Custom endpoint, car aicentos fournit une API compatible OpenAI.
Si vous souhaitez effectuer toute la configuration post-installation en une seule fois, vous pouvez aussi lancer :
hermes setupSi vous souhaitez seulement configurer les permissions des outils, lancez :
hermes toolsMéthode 1 : Configuration interactive avec hermes model (Recommandée)
Exécutez :
hermes modelRenseignez les champs comme suit :
- Provider :
Custom endpoint (self-hosted / VLLM / etc.) - API base URL :
https://www.aicentos.com/v1 - API key : votre token aicentos
- Model name :
gpt-5.4 - Context length : utilisez au minimum
65536
Après la configuration, Hermes écrit le modèle, le provider et l'endpoint dans ~/.hermes/config.yaml.
Important
Hermes attend un modèle avec au moins 64K de contexte pour les workflows d'agent réels à plusieurs étapes. Pour un endpoint personnalisé, choisissez donc un modèle et une fenêtre de contexte conformes à cette exigence.
Méthode 2 : Modifier le fichier de configuration manuellement
Hermes utilise ~/.hermes/config.yaml comme fichier principal. Si le dossier n'existe pas encore, créez-le d'abord :
mkdir -p ~/.hermes
touch ~/.hermes/config.yaml
touch ~/.hermes/.envEnsuite, placez votre token dans ~/.hermes/.env :
OPENAI_API_KEY=sk-your-aicentos-tokenPuis écrivez ceci dans ~/.hermes/config.yaml :
model:
default: gpt-5.4
provider: custom
base_url: https://www.aicentos.com/v1Conseil
Pour les endpoints personnalisés, Hermes lit provider, default et base_url depuis config.yaml. La clé API peut être écrite directement dans config.yaml, ou placée dans ~/.hermes/.env sous OPENAI_API_KEY comme ci-dessus. La solution .env est recommandée pour éviter de stocker la clé en clair.
Changer de modèle
Pour utiliser un autre modèle pris en charge par aicentos, modifiez simplement model.default ou relancez hermes model.
Par exemple :
model:
default: claude-sonnet-4-5-20250929
provider: custom
base_url: https://www.aicentos.com/v1Remarque
Cela suppose que le modèle est disponible via l'endpoint compatible OpenAI de aicentos et qu'il respecte l'exigence minimale de contexte de Hermes. Si vous n'êtes pas sûr de l'identifiant exact du modèle, consultez d'abord la page Modèles pris en charge, puis renseignez le champ default.
Démarrer Hermes
Démarrez une session interactive :
hermesOu envoyez un message de test rapide :
hermes chat -q "Réponds en une phrase : https://www.aicentos.com/ est connecté"Si la configuration fonctionne déjà, vous pouvez aussi changer de modèle dans la session avec /model.
Vérifier la configuration
Commencez par ces vérifications :
hermes doctorhermes config checkhermes chat -q "Réponds uniquement par ok" -QSi la dernière commande renvoie une réponse normale, l'intégration aicentos fonctionne.
FAQ
Pourquoi choisir Custom endpoint ?
Parce que Hermes traite toute API compatible OpenAI comme provider: custom. aicentos correspond à ce modèle, donc aucun adaptateur spécifique à Hermes n'est nécessaire.
Pourquoi OPENAI_BASE_URL ou LLM_MODEL ne fonctionnent-ils pas ?
Hermes a supprimé la prise en charge de ces anciennes variables d'environnement. Le modèle, le provider et l'endpoint sont désormais définis via ~/.hermes/config.yaml.
Que faire si la clé API est configurée mais que l'authentification échoue toujours ?
Vérifiez dans cet ordre :
- Assurez-vous que
base_urlesthttps://www.aicentos.com/v1 - Assurez-vous que le token provient bien de la console aicentos
- Assurez-vous que
model.defaultest un identifiant de modèle valide, par exemplegpt-5.4 - Assurez-vous que le contexte du modèle est au moins de
65536 - Exécutez
hermes config checkethermes doctorpour voir l'erreur exacte
Puis-je installer Hermes directement sur Windows ?
Oui, l'installation via PowerShell est possible, mais WSL2 reste l'option la plus sûre pour la compatibilité et un flux de travail de type Unix plus stable.