Ce guide vous aide à configurer vos 2 GPU H100 pour participer au pool GPU COCOON.
Selon la documentation COCOON, vous avez besoin de:
- Linux avec kernel 6.16+ (pour support TDX complet)
- CPU Intel avec support TDX
- GPU NVIDIA H100+ avec support CC (Confidential Computing)
- QEMU 10.1+ avec support TDX
Vos 2 H100 détectés:
- GPU 0:
0000:01:00.0 - GPU 1:
0000:02:00.0
chmod +x check-prerequisites.sh
./check-prerequisites.shwget https://ci.cocoon.org/cocoon-worker-release-latest.tar.xz
tar xzf cocoon-worker-release-latest.tar.xz
cd cocoon-workerAvant de commencer, vous devez:
- Activer Intel TDX - Suivez le guide: Enabling Intel TDX
- Activer CC sur GPU NVIDIA - Vous devrez peut-être mettre à jour le VBIOS pour que l'attestation GPU fonctionne complètement
- Préparer le GPU pour VFIO - Utilisez le script
./scripts/setup-gpu-vfiosi disponible
# Depuis le répertoire cocoon-worker
chmod +x ../setup-h100.sh
../setup-h100.shCela créera:
worker-0.conf- Configuration pour le premier H100worker-1.conf- Configuration pour le deuxième H100
Éditez worker-0.conf et worker-1.conf avec vos informations:
Paramètres requis:
# Votre adresse wallet TON (reçoit les paiements)
owner_address = EQD...votre_adresse_ton...
# Clé privée pour le wallet de revenus (générer avec: openssl rand -base64 32)
node_wallet_key = votre_clé_base64_ici
# Token Hugging Face (obtenir sur https://huggingface.co/settings/tokens)
hf_token = hf_votre_token_ici
# Adresse du contrat root COCOON (dans worker.conf.example de la distribution)
root_contract_address = EQD...adresse_du_contrat...Les GPUs sont déjà configurés:
- Worker 0:
0000:01:00.0 - Worker 1:
0000:02:00.0
IMPORTANT: seal-server doit être lancé avant les workers. Il fournit la dérivation sécurisée des clés pour l'environnement TDX.
# Dans un terminal séparé, gardez-le en cours d'exécution
./bin/seal-server --enclave-path ./bin/enclave.signed.soNote: Vous devez utiliser le fichier
enclave.signed.soinclus dans la distribution. Un seulseal-serverpeut servir plusieurs workers.
chmod +x ../launch-workers.sh
../launch-workers.shLe script vous demandera le mode:
- Production - Mode production (nécessite seal-server)
- Test (real TON) - Mode test avec shell debug, TON réel
- Test (fake TON) - Mode test avec shell debug, TON simulé
# Worker 0
curl http://localhost:12000/stats
curl http://localhost:12000/jsonstats
# Worker 1
curl http://localhost:12010/stats
curl http://localhost:12010/jsonstatsSi disponible dans la distribution:
# Statut des workers
./health-client --instance worker status
# Métriques système
./health-client -i worker sys
# Métriques GPU
./health-client -i worker gpu
# Logs
./health-client -i worker logs cocoon-vllm 100# Suivre les logs en temps réel
tail -f logs/worker-0.log
tail -f logs/worker-1.logchmod +x ../stop-workers.sh
../stop-workers.shOu manuellement:
# Si vous avez les PIDs sauvegardés
kill $(cat logs/worker-0.pid)
kill $(cat logs/worker-1.pid)Chaque worker peut être configuré avec:
worker_coefficient- Coefficient de prix (1000 = 1.0x, valeurs plus élevées = prix plus élevés)model- Modèle AI à servir (par défaut:Qwen/Qwen3-0.6B)persistent- Chemin de l'image disque persistante
# Override des options
./scripts/cocoon-launch --instance 0 --worker-coefficient 2000 --model Qwen/Qwen3-0.6B worker-0.confChaque instance obtient automatiquement:
- Ports uniques: 12000, 12010, 12020, ...
- CIDs uniques: 6, 16, 26, ...
- Stockage persistant séparé
-
seal-server est obligatoire pour la production. Sans lui, les workers échoueront à l'initialisation.
-
enclave.signed.so doit être celui de la distribution officielle.
-
TDX doit être activé dans le BIOS/UEFI et le kernel Linux.
-
VBIOS GPU peut nécessiter une mise à jour pour l'attestation complète.
-
Gardez vos clés privées secrètes -
node_wallet_keydoit rester confidentiel.
pgrep -f seal-serverps aux | grep cocoon-launchnetstat -tlnp | grep -E "12000|12010"Consultez les logs dans logs/worker-*.log pour diagnostiquer les problèmes.
Pour plus d'aide:
- Documentation: https://cocoon.org/gpu-owners
- GitHub: https://github.com/cocoon-org
- Telegram: (voir site web)