Modell API
So kannst du unsere KI-Modelle in deiner Anwendung nutzen
Selbstverständlich können unsere DSGVO konformen LLM Modelle auch über eine API genutzt werden. Hierfür bieten wir eine RESTful API an, welche sehr nahe der OpenAI folgt.
Authentifizierung
Die Authentifizierung erfolgt über einen API Key, welcher in den Header der Anfrage eingefügt wird. Der API Key kann in deinem meinGPT Account generiert werden. Für mehr Infos klicke hier.
Chat Completions
Endpunkt: POST https://app.meingpt.com/api/openai/v1/chat/completions
Der Endpunkt folgt der offiziellen OpenAI:
https://platform.openai.com/docs/api-reference/chat/create
Unsere API unterstützt nicht alle Parameter, die OpenAI anbietet. Anfragen werden trotzdem akzeptiert und verarbeitet, jedoch werden nicht alle Parameter beachtet.
Unterstützte Parameter:
model
messages
response_format
stream
temperature
Die Antwort ist identisch zu der Antwort von OpenAI: https://platform.openai.com/docs/api-reference/chat/object. Sowohl das Format von gestreamten als auch von nicht gestreamten Antworten wird unterstützt und ist nach dem Schema von OpenAI aufgebaut.
Unterstützte Modelle
Für die Qualitäten, Server Position und DSGVO Konformität der Modelle, wende dich bitte and die Einstellungen in deiner meinGPT Organisation.
llama-3.1-sonar-large-128k-online
gpt-4o-mini
gpt-4o
o1-us
o1-mini-us
claude-3-5-sonnet
gemini-1.5-pro
gemini-1.5-flash
SDKs
Die meinGPT LLM-API unterstützt die gleichen Client-SDKs wie die offizielle OpenAI API.
https://platform.openai.com/docs/libraries
Es muss jeweils immer die base URL angegeben werden. Beispiele:
baseURL
für den Node.JS clientbase_url
für den Python client
Was this page helpful?