Mingly ist eine Desktop-Anwendung, mit der Sie verschiedene KI-Modelle (Claude, GPT, Gemini, Llama u.a.) in einer einzigen Oberflaeche nutzen koennen. Sie behalten die volle Kontrolle ueber Ihre Daten und API-Schluessel.
Ja, Mingly selbst ist kostenlos und Open Source. Die KI-Anbieter (Anthropic, OpenAI, Google) berechnen jedoch Gebuehren fuer die API-Nutzung. Mit Ollama koennen Sie lokale Modelle voellig kostenlos nutzen.
- Anthropic: Claude 4.5 Sonnet, Claude 4 Opus, Haiku
- OpenAI: GPT-4o, GPT-4 Turbo, GPT-3.5 Turbo
- Google: Gemini 2.5 Pro, Gemini 2.0 Flash
- Ollama: Alle lokal verfuegbaren Modelle (Llama, Mistral, Phi, etc.)
Die Kosten haengen vom gewaehlten KI-Anbieter und Modell ab. Richtwerte pro 1 Million Tokens:
| Modell | Eingabe | Ausgabe |
|---|---|---|
| Claude Haiku | ~0.25 USD | ~1.25 USD |
| Claude Sonnet | ~3.00 USD | ~15.00 USD |
| GPT-4o | ~2.50 USD | ~10.00 USD |
| GPT-3.5 Turbo | ~0.50 USD | ~1.50 USD |
| Ollama (lokal) | Kostenlos | Kostenlos |
Tipp: Nutzen Sie die Budget-Funktion in den Einstellungen, um Ihre monatlichen Kosten zu begrenzen.
Ja. Unter Einstellungen > Budget koennen Sie monatliche Limits setzen. Mingly warnt Sie, bevor das Limit erreicht wird.
Swiss AI Privacy ist Mingly's Kernversprechen: Ihre persoenlichen Daten werden automatisch erkannt und geschuetzt, bevor sie an Cloud-KI-Anbieter gesendet werden. Namen, Adressen, Gesundheitsdaten und Finanzinformationen werden on-device anonymisiert — die KI sieht nur Platzhalter, die Antwort wird fuer Sie wieder mit den echten Daten angereichert.
Mingly bietet 4 Privacy-Modi:
- Shield: Persoenliche Daten werden automatisch anonymisiert, bevor sie die Cloud erreichen. Antworten werden re-hydriert.
- Vault: PII wird komplett blockiert — Nachrichten mit erkannten persoenlichen Daten werden nicht gesendet.
- Transparent: Sie sehen, welche Daten erkannt wurden, und entscheiden selbst.
- Local Only: Alles bleibt auf Ihrem Geraet — nur lokale Modelle (Ollama).
Alle Gespraeche, Einstellungen und die Wissensdatenbank werden ausschliesslich auf Ihrem Computer gespeichert. Mingly sendet keine Daten an eigene Server.
Ja, Ihre Nachrichten werden an den jeweiligen KI-Anbieter (z.B. Anthropic, OpenAI) gesendet, um eine Antwort zu erhalten. Das ist fuer die Funktionsweise erforderlich. Im Shield-Modus werden persoenliche Daten vorher automatisch anonymisiert. Mit Ollama oder im Local-Only-Modus bleibt alles lokal.
Mingly bietet Funktionen fuer DSGVO- und nDSG-Konformitaet:
- PII-Anonymisierung: Persoenliche Daten werden on-device erkannt und geschuetzt (piiranha-v1, 400M ONNX)
- Datenexport: Alle Ihre Daten als Datei exportieren
- Datenloeschung: Alle Ihre Daten vollstaendig entfernen
- Keine Telemetrie: Keine Nutzungsdaten werden gesammelt
- Schweizer Firma: Entwickelt von digital opua GmbH, Walchwil, Schweiz
API-Schluessel werden im Betriebssystem-Schluesselring gespeichert:
- macOS: Apple Keychain
- Windows: Windows Credential Vault
Sie werden niemals im Klartext auf der Festplatte gespeichert.
- Installieren Sie Ollama
- Laden Sie ein Modell herunter:
ollama pull llama3.2 - Starten Sie Ollama
- In Mingly "Ollama" als Anbieter waehlen
Alle Verarbeitung geschieht lokal auf Ihrem Computer — keine Daten verlassen Ihr Geraet.
- Minimum: 8 GB RAM (fuer kleine Modelle wie Phi)
- Empfohlen: 16 GB RAM, Apple M1/M2/M3 oder dedizierte GPU
- Grosse Modelle (70B): 32+ GB RAM
Der Server-Modus eignet sich fuer:
- Teams: Mehrere Personen nutzen gemeinsam eine Mingly-Instanz
- Zentralisierung: API-Schluessel zentral verwalten
- Integration: Andere Anwendungen ueber die REST-API anbinden
- Headless: Betrieb auf einem Server ohne Desktop-Oberflaeche
Die einfachste Methode ist Docker:
docker compose up -dOder manuell:
npm run build:server
npm run start:serverDer Server ist dann auf http://localhost:3939 erreichbar.
Ja, mit API-Key-Authentifizierung:
- Setzen Sie
MINGLY_REQUIRE_AUTH=true - Definieren Sie
MINGLY_API_KEY=IhrGeheimesPasswort - Alle Anfragen muessen den Header
Authorization: Bearer IhrGeheimesPasswortenthalten
- Stellen Sie sicher, dass die Systemanforderungen erfuellt sind
- Versuchen Sie, die App neu zu installieren
- Bei Quellcode-Installation:
rm -rf node_modules && npm install
- Pruefen Sie Ihre Internetverbindung
- Waehlen Sie ein schnelleres Modell (z.B. Haiku statt Opus)
- Bei Ollama: Stellen Sie sicher, dass genuegend RAM verfuegbar ist
- Pruefen Sie, ob der Ordner-Pfad korrekt ist
- Stellen Sie sicher, dass die Dateien in einem unterstuetzten Format vorliegen
- Warten Sie, bis die Indizierung abgeschlossen ist
Zurueck zu: Installation | Konfiguration | Nutzung