Notre API publique vous permet d'intégrer l'état de la plateforme LLMaaS directement dans vos applications et dashboards de monitoring. Toutes les réponses sont au format JSON.
URL de base:https://llmaas.status.cloud-temple.app
Endpoints
Récupérer l'état de santé global de la plateforme et la liste des modèles en échec.
Statut Global
GET/api/platform-status
Exemple de réponse
{
"status": "operational",
"updated_at": "2025-11-21T22:00:00.000Z",
"message": "Platform is operational",
"stats": {
"total_models": 45,
"operational_models": 45
},
"failed_models": []
}Exemple en cas d'incident :
Statut Global (Degraded)
GET/api/platform-status
Exemple de réponse
{
"status": "degraded",
"updated_at": "2025-11-21T22:15:00.000Z",
"message": "Platform is degraded",
"stats": {
"total_models": 45,
"operational_models": 43
},
"failed_models": [
"llama3.3:70b",
"qwen2.5vl:72b"
]
}Obtenir les métriques détaillées (TTFB, débit, etc.) pour un modèle spécifique.
Paramètres
model(string, required): L'identifiant du modèle (ex:llama3.3:70b)
Détail Modèle
GET/api/platform-status?model=llama3.3:70b
Exemple de réponse
{
"id": "llama3.3:70b",
"name": "Meta Llama 3.3 70B Instruct",
"ok": true,
"http_status": 200,
"ttfb_ms": 120,
"duration_ms": 4500,
"usage": {
"prompt_tokens": 50,
"completion_tokens": 250,
"total_tokens": 300
},
"tokens_per_sec": 55.5,
"updated_at": "2025-11-21T22:00:00.000Z"
}