API

Intro

Die Localmind API kann wie jede andere gewöhnliche REST API mittels HTTP Requests angefragt werden, oder mittels einer OpenAI-kompatiblen Bibliothek wie beispielsweise der Python-Bibliothek von OpenAI, oder mit Frameworks wie Langchain oder LlamaIndex.

Wir haben unsere API so ausgestaltet, dass sie 100% mit der OpenAI API kompatibel ist. Dadurch lässt sich die Localmind API genauso verwenden wie die OpenAI API und kann als Drop-In-Replacement genutzt werden.

Aktuell werden die Endpoints /models, /chat/completions sowie /completions unterstützt. Eine Implementierung des /embeddings Endpoints ist in Arbeit und wird in Kürze veröffentlicht.

Authorisierung

Die Localmind API nutzt API-Schlüssel zur Authorisierung. Bitte beachte: dein API Schlüssel muss stets geheim bleiben! Jede Person, die den Schlüssel kennt, kannst deine API bis zu deinen gebuchten Limits verwenden. Sei deshalb vorsichtig und beachte alle Best Practices bei der Verwendung, Speicherung und Verwaltung von API-Schlüsseln.

Du findest deinen API-Schlüssel in deinem Dashboard unter dem Punkt API-Schlüssel.

Endpoints

Chat Completion

Endpoint: /chat/completions oder /v1/chat/completions

So sieht eine Beispiel-Abfage des Chat Completion Endpoints mittels cURL-Befehl aus:

curl https://api.localmind.ai/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $LOCALMIND_API_KEY" \
  -d '{
    "model": "localmind-pro",
    "messages": [
      {
        "role": "system",
        "content": "Du bist ein hilfreicher KI-Assistent."
      },
      {
        "role": "user",
        "content": "Schreibe einen Blogartikel über die Zukunft von KI."
      }
    ]
  }'

Models

Endpoint: /models oder /v1/models

So sieht eine Beispiel-Abfrage des Models-Endpoints mittels cURL-Befehl aus:

curl https://api.localmind.ai/v1/models \
  -H "Authorization: Bearer $LOCALMIND_API_KEY"

Lokale und sichere KI-Lösungen.

Kontaktiere uns bei Fragen unter hello@localmind.ai