Integra inteligencia artificial en tus aplicaciones y automatizaciones N8N con LexiModel. API compatible con OpenAI, simple y potente.
Comienza en menos de 5 minutos
Usa tu API Key de forma segura
Todos los endpoints disponibles
Código listo para usar
Regístrate en panel.avyra.uk y obtén tu clave API única en el dashboard.
Usa curl para probar la API inmediatamente:
curl https://panel.avyra.uk/api/llm/chat \
-H "Content-Type: application/json" \
-H "Authorization: Bearer TU_API_KEY" \
-d '{
"model": "gemini-search",
"messages": [
{
"role": "user",
"content": "Hola, ¿cómo estás?"
}
]
}'
Usa cualquier librería compatible con OpenAI. Nuestra API es 100% compatible.
Todas las requests requieren autenticación mediante API Key en el header Authorization:
Authorization: Bearer sk_tu_api_key_aqui
Genera respuestas conversacionales usando modelos de lenguaje avanzados.
| Parámetro | Tipo | Descripción |
|---|---|---|
model requerido |
string | ID del modelo a usar. Ejemplo: gemini-search |
messages requerido |
array | Lista de mensajes de la conversación |
temperature opcional |
number | Creatividad (0-2). Default: 1 |
max_tokens opcional |
integer | Máximo de tokens en respuesta |
stream opcional |
boolean | Habilitar streaming. Default: false |
{
"id": "chatcmpl-123",
"object": "chat.completion",
"model": "gemini-search",
"choices": [{
"index": 0,
"message": {
"role": "assistant",
"content": "¡Hola! Estoy muy bien. ¿En qué puedo ayudarte?"
},
"finish_reason": "stop"
}],
"usage": {
"prompt_tokens": 15,
"completion_tokens": 20,
"total_tokens": 35
}
}
from openai import OpenAI
client = OpenAI(
api_key="TU_API_KEY",
base_url="https://panel.avyra.uk/api/llm"
)
response = client.chat.completions.create(
model="gemini-search",
messages=[
{"role": "user", "content": "Explica qué es la IA"}
]
)
print(response.choices[0].message.content)
const OpenAI = require('openai');
const client = new OpenAI({
apiKey: 'TU_API_KEY',
baseURL: 'https://panel.avyra.uk/api/llm'
});
async function chat() {
const response = await client.chat.completions.create({
model: 'gemini-search',
messages: [
{ role: 'user', content: 'Hola, ¿cómo estás?' }
]
});
console.log(response.choices[0].message.content);
}
chat();
Usa el nodo HTTP Request en N8N para conectar con LexiModel:
// Configuración del nodo HTTP Request:
URL: https://panel.avyra.uk/api/llm/chat
Method: POST
Headers:
- Authorization: Bearer TU_API_KEY
- Content-Type: application/json
Body:
{
"model": "gemini-search",
"messages": [
{"role": "user", "content": "{{ $json.mensaje }}"}
]
}
¿Necesitas ayuda? Estamos aquí para ti: