Schnellstart
Entdecken Sie LLMrouter.eu Schnellstart in weniger als 5 Minuten.
LLMrouter.eu ist ein sicheres Gateway zur Verwaltung von Large Language Models (LLMs) aus der EU, entwickelt für Organisationen, die Datenschutz, Kostenoptimierung und EU‑Compliance benötigen. Es verhindert Vendor‑Lock‑In, gewährleistet den Schutz Ihrer Daten und ermöglicht die Integration der neuesten KI‑Technologien in Ihre Geschäftsprozesse. LLMrouter eignet sich ideal für skalierbare, konforme AI‑Lösungen in regulierten Umgebungen.
Starten Sie mit nur wenigen Codezeilen oder nutzen Sie Ihr bevorzugtes SDK.
Direkte Nutzung der LLMrouter.eu API
Sie können die LLMrouter.eu API direkt mit jedem HTTP‑Client verwenden, da die Endpunkte vollständig OpenAI‑API-kompatibel sind. Richten Sie Ihre Anfragen einfach an https://proxy.llmrouter.eu/v1 und nutzen Sie Ihren API‑Schlüssel zur Authentifizierung.
Ersetzen Sie YOUR_API_KEY durch Ihren tatsächlichen LLMrouter.eu API key.
- Python
- Javascript
- TypeScript (fetch)
- Curl
import requests
url = "https://proxy.llmrouter.eu/v1/chat/completions"
headers = {
"Authorization": "Bearer YOUR_API_KEY",
"Content-Type": "application/json"
}
data = {
"model": "gpt-3.5-turbo",
"messages": [
{
"role": "user",
"content": "Hello, LLMrouter!"
}
]
}
response = requests.post(url, headers=headers, json=data)
print(response.json())
const response =
await fetch('https://proxy.llmrouter.eu/v1/chat/completions', {
method: 'POST',
headers: {
'Authorization': 'Bearer YOUR_API_KEY',
'Content-Type': 'application/json'
},
body: JSON.stringify({
model: 'gpt-3.5-turbo',
messages: [
{
role: 'user',
content: 'Hello, LLMrouter!'
}
]
})
});
const result = await response.json();
console.log(result);
fetch('https://proxy.llmrouter.eu/v1/chat/completions', {
method: 'POST',
headers: {
Authorization: 'Bearer YOUR_API_KEY',
'Content-Type': 'application/json'
},
body: JSON.stringify({
model: 'gpt-3.5-turbo',
messages: [
{
role: 'user',
content: 'Hello, LLMrouter!'
}
]
})
})
.then(response => response.json())
.then(obj => console.log(obj.choices[0].message.content));
curl --location 'https://proxy.llmrouter.eu/v1/chat/completions' \
--header "Authorization: Bearer YOUR_API_KEY" \
--header "Content-Type: application/json" \
--data '{
"model": "gpt-3.5-turbo",
"messages": [
{
"role": "user",
"content": "Hello, LLMrouter!"
}
]
}'
Verwendung des OpenAI‑SDKs
- Python
- TypeScript
from openai import OpenAI
client = OpenAI(
base_url="https://proxy.llmrouter.eu/v1",
api_key="YOUR_API_KEY",
)
completion = client.chat.completions.create(
model="gpt-3.5-turbo",
messages=[
{
"role": "user",
"content": "Hello, LLMrouter!"
}
]
)
print(completion.choices[0].message.content)
import OpenAI from 'openai';
const openai = new OpenAI({
baseURL: 'https://proxy.llmrouter.eu/v1',
apiKey: 'YOUR_API_KEY'
});
async function main() {
const completion = await openai.chat.completions.create({
model: 'gpt-3.5-turbo',
messages: [
{
role: 'user',
content: 'Hello, LLMrouter!'
}
]
});
console.log(completion.choices[0].message);
}
main();
Nutzung von Drittanbieter‑SDKs
- VSCode Copilot - VS Code Copilot Integration