Selbstverständlich können unsere DSGVO konformen LLM Modelle auch über eine API genutzt werden. Hierfür bieten wir eine RESTful API an, welche sehr nahe der OpenAI folgt.

Authentifizierung

Die Authentifizierung erfolgt über einen API Key, welcher in den Header der Anfrage eingefügt wird. Der API Key kann in deinem meinGPT Account generiert werden. Für mehr Infos klicke hier.

Chat Completions

Endpunkt: POST https://app.meingpt.com/api/openai/v1/chat/completions

Der Endpunkt folgt der offiziellen OpenAI:

https://platform.openai.com/docs/api-reference/chat/create

Unsere API unterstützt nicht alle Parameter, die OpenAI anbietet. Anfragen werden trotzdem akzeptiert und verarbeitet, jedoch werden nicht alle Parameter beachtet.

Unterstützte Parameter:

  • model
  • messages
  • response_format
  • stream
  • temperature

Die Antwort ist identisch zu der Antwort von OpenAI: https://platform.openai.com/docs/api-reference/chat/object. Sowohl das Format von gestreamten als auch von nicht gestreamten Antworten wird unterstützt und ist nach dem Schema von OpenAI aufgebaut.

Unterstützte Modelle

Für die Qualitäten, Server Position und DSGVO Konformität der Modelle, wende dich bitte and die Einstellungen in deiner meinGPT Organisation.

  • llama-3.1-sonar-large-128k-online
  • gpt-4o-mini
  • gpt-4o
  • o1-us
  • o1-mini-us
  • claude-3-5-sonnet
  • gemini-1.5-pro
  • gemini-1.5-flash

SDKs

Die meinGPT LLM-API unterstützt die gleichen Client-SDKs wie die offizielle OpenAI API.

https://platform.openai.com/docs/libraries

Es muss jeweils immer die base URL angegeben werden. Beispiele:

  • baseURL für den Node.JS client
  • base_url für den Python client