On-Prem KI (Ollama)¶
Die Suite unterstützt einen On-Prem KI-Modus über Ollama, das lokal läuft.
Konfiguration¶
In ai_compliance_suite.config.json:
{
"ai": {
"provider": "on_prem",
"on_prem": {
"base_url": "http://127.0.0.1:11434",
"model": "llama3.1:latest",
"timeout_s": 60
}
}
}
Modell installieren¶
Beispiel:
Fehlerbehebung¶
- Wenn keine Verbindung möglich ist:
- Prüfen, ob Ollama läuft
base_urlprüfen- Wenn das Modell fehlt:
- mit
ollama pull <model>installieren