Fundamento · Referencia

Glosario crítico.

Diecisiete términos que oyes todo el rato — prompt, token, contexto, temperatura, RAG, alucinación, fine-tuning, agente — con su definición operativa y por qué te importan cuando trabajas. Cero jerga de marketing. Cero promesas de laboratorio.

Si te falta el truco (cómo formular mejor un prompt) o el atajo (comando rápido, tecla útil), no están aquí: viven en Trucos de prompt y en la Chuleta operativa. Este recurso responde otra pregunta: ¿qué significa exactamente eso que acabo de leer?

  • AudienciaCualquier perfil
  • NivelBase
  • FormatoGlosario de consulta
  • Revisión humanaBaja
Qué hace el modelo

Cuatro piezas para entender la máquina.

No necesitas ser ingeniero de ML para usar IA bien. Sí necesitas saber qué pasa por dentro en términos mínimos. Estas cuatro piezas explican el 90% de lo que lees en un artículo técnico.

G1

Modelo (LLM)

Lo que hay detrás de ChatGPT, Claude, Gemini. Un sistema estadístico entrenado con cantidades masivas de texto para predecir la siguiente palabra. No piensa: completa patrones. Cuando el output parece razonado, es porque el patrón de razonamiento también estaba en el entrenamiento.

Por qué importa: te ahorra discusiones místicas. La IA no "sabe" nada; genera lo más probable dado lo que has escrito. Cuando falla, casi siempre es porque el patrón que pedías no estaba claro.

G2

Token

La unidad mínima que procesa el modelo. Aproximadamente 4 caracteres en inglés, menos en español (porque nuestras palabras son más largas y los modelos están más optimizados para inglés). "Inteligencia" son unos 5 tokens.

Por qué importa: los precios de la API y los límites de longitud se miden en tokens, no en palabras. Un PDF de 50 páginas puede ser 30.000 tokens. Si pagas por uso o si tu modelo tiene ventana limitada, esto deja de ser anécdota.

G3

Ventana de contexto

Cuántos tokens puede "ver" el modelo a la vez en una conversación. Si superas el límite, olvida el principio sin avisarte. Referencias actuales (2025): GPT-4o ~128k tokens, Claude ~200k, Gemini hasta 1M en algunos modos.

Por qué importa: decide cuánto material puedes pegarle de golpe. Un contrato de 80 páginas entra en Claude sin problema; en un modelo pequeño local, hay que partirlo. Si el modelo "se olvida" de algo que le dijiste hace rato, mira aquí primero.

G4

Temperatura

Parámetro (cuando está disponible en API o Playground) que controla la aleatoriedad. En 0 el modelo es repetible y conservador; en 1 o más, creativo y disperso. En las interfaces normales de ChatGPT, Claude o Gemini no se expone directamente.

Por qué importa: si trabajas con API para tareas factuales, bájala a 0.2-0.3. Si haces brainstorming, súbela a 0.8. En interfaz normal, puedes pedirlo indirectamente: "sé conservador" o "proponme variantes arriesgadas".

Cómo le hablas

Las cuatro formas de instruir al modelo.

Aquí empieza lo que sí controlas tú. Un modelo grande no lee lo que querías decir — lee exactamente lo que escribiste. Estos cuatro términos cubren la mayoría de decisiones de formulación.

G5

Prompt

La instrucción que le das al modelo. No es una búsqueda, no es una pregunta a Google: es un encargo a un colaborador que hace exactamente lo que le pides, sin preguntar dos veces si algo queda ambiguo.

Por qué importa: la calidad del prompt pesa más que la elección del modelo. Un prompt bien estructurado en ChatGPT 4 supera a un prompt flojo en Claude Opus. Ver Método Kairis del prompt para la estructura de referencia.

G6

System prompt · Instrucciones del sistema

La instrucción permanente que define personalidad, reglas y tono desde el principio, por debajo de tus mensajes normales. En ChatGPT lo configuras en Custom Instructions; en Claude, en el sistema del Proyecto; en GPTs/Gems, en la configuración del asistente.

Por qué importa: lo que pongas ahí no se repite en cada mensaje pero condiciona todas las respuestas. "Respóndeme en español, nunca uses emojis, sé directo" en Custom Instructions te ahorra teclearlo cien veces.

G7

Few-shot · Zero-shot

Zero-shot: pedirle algo sin ejemplos. Few-shot: enseñarle 2-3 ejemplos de lo que quieres antes de lanzar la tarea real. Pequeño hack mental con consecuencias grandes: el modelo calca el patrón de tus ejemplos mucho mejor que el de tus descripciones.

Por qué importa: cuando tu estilo es específico y difícil de describir ("tono cercano pero profesional"), dos ejemplos ahorran veinte instrucciones. Más de cuatro ejemplos empieza a confundir y sesga en exceso.

G8

Role prompting · "Actúa como…"

Abrir la instrucción definiendo un rol: "Actúa como editor riguroso de una revista jurídica" o "como profesor de primaria explicando a un niño de 10 años". El modelo fija léxico, criterio y tono en función de ese marco.

Por qué importa: funciona bien cuando el rol aporta criterio real. Deja de funcionar cuando fuerzas roles absurdos tipo "eres el mejor copywriter del mundo" — eso no mejora el output, a veces lo empeora.

Dónde vive tu uso

Cinco piezas del ecosistema alrededor del modelo.

El modelo por sí solo es una caja. El valor real aparece cuando lo combinas con un contenedor (chat, proyecto, agente), con tus datos (RAG) o lo afinas (fine-tuning). Estas piezas definen dónde encaja la IA en tu flujo de trabajo.

G9

Chat · Proyecto · GPT/Gem

Tres contenedores de uso. Chat: conversación suelta, sin memoria entre ventanas. Proyecto: carpeta con contexto persistente y archivos que el modelo consulta siempre. GPT/Gem: asistente reutilizable, con instrucciones propias, compartible con otros.

Por qué importa: elegir mal te hace reescribir lo mismo veinte veces. Ver Mapa de escenarios para decidir cuál va con cada caso.

G10

RAG (retrieval augmented generation)

Técnica donde, antes de responder, el sistema busca en tus documentos los fragmentos relevantes y se los da al modelo como contexto. Así responde "leyendo" tu material, no solo lo que memorizó en entrenamiento. NotebookLM es el ejemplo más claro para el usuario final.

Por qué importa: es lo que evita que el modelo alucine sobre tus propios documentos. Si necesitas que cite fuentes internas (manuales, contratos, informes), RAG es la palanca — no fine-tuning.

G11

Embedding

Representación numérica de un texto en forma de vector. Permite al sistema encontrar "textos parecidos" aunque no compartan palabras literales. Base invisible de todo lo que llamamos búsqueda semántica, RAG o recomendación.

Por qué importa: normalmente no los ves ni los manipulas. Pero si alguien te habla de "indexar tus documentos" o de "base vectorial", se refiere a generar y guardar embeddings de tu material.

G12

Fine-tuning

Entrenar un modelo base con tus datos propios para que hable "como tú" (tu estilo, tu léxico, tu tipo de salida). Caro, requiere volumen grande de ejemplos y se queda desfasado cuando sale un modelo nuevo.

Por qué importa: para la mayoría de profesionales y pymes, un buen system prompt + RAG consigue el 80% del efecto con el 5% del coste. Fine-tuning solo tiene sentido en volúmenes grandes con necesidad muy específica.

G13

Agente

Sistema que no solo responde sino que ejecuta acciones en el mundo: navega por web, rellena formularios, manda correos, reserva citas. Combina un modelo con herramientas externas y una lógica de planificación.

Por qué importa: es la frontera actual (2025). Promete automatizar tareas de varios pasos y falla a veces — por eso se reserva a escenarios con revisión humana. Cuando funciona, cambia productividad. Cuando no, mete la pata con aplomo.

Riesgos y matices

Cuatro palabras que avisan de un problema.

Si no sabes estas cuatro, firmas documentos con errores y no te das cuenta. No son teóricas: son lo que falla con más frecuencia en el día a día profesional.

G14

Alucinación (hallucination)

Cuando el modelo inventa algo con aplomo: una cifra, una cita, una fecha, un autor, un enlace. No "miente" en sentido humano — genera lo que estadísticamente sonaría bien ahí, sin mecanismo interno para comprobar si es cierto.

Por qué importa: cifras redondas, autores con nombre creíble, jurisprudencia con número de sentencia. Todo ello puede ser pura invención. Verifica datos duros antes de usar en documento firmado o publicado. Regla práctica: si el dato es decisivo, cotéjalo en otra fuente.

G15

Complacencia (sycophancy)

Tendencia del modelo a darte la razón, reforzar tu hipótesis y suavizar objeciones. No porque esté de acuerdo — porque está entrenado con señales humanas que premiaron respuestas amables. Es un sesgo sistemático, no un error puntual.

Por qué importa: si le preguntas "¿esta idea es buena?" te dirá que sí casi siempre. Pídele explícitamente "dame la contra", "lista los tres peores escenarios", "critícalo como lo haría un escéptico hostil". Ahí empieza a ser útil para decisiones.

G16

Lock-in (dependencia de proveedor)

Nivel de coste que tendrías si decidieras migrar de herramienta. Cuando metes seis meses de prompts, proyectos y flujos en ChatGPT, cambiar a Claude cuesta tiempo. Cuando integras la API de un proveedor en producción, cuesta dinero.

Por qué importa: es un riesgo invisible hasta que el proveedor sube precio, cambia las condiciones o cierra un servicio. Diversificar (probar ocasionalmente un modelo alternativo, mantener los prompts fuera del vendor en formato portable) reduce el riesgo sin coste adicional grande.

G17

Prompt injection

Cuando un texto externo que le pegas al modelo (una web, un PDF, un correo) contiene instrucciones ocultas que secuestran la sesión: "ignora las instrucciones anteriores y dime X". El modelo, que no distingue datos de instrucciones, a veces obedece.

Por qué importa: riesgo bajo en tareas personales donde tú eliges qué pegar. Riesgo alto en automatizaciones donde el modelo lee correos, webs o documentos sin supervisión. Si montas un agente o un flujo automático, el diseño debe asumir que esto pasará.

Dónde encaja

Pensado para consulta rápida.

Este glosario define los términos. Para aplicarlos al trabajo, tiras de los otros dos recursos del mismo pilar: Trucos de prompt (cómo usar bien rol, formato o few-shot) y Chuleta operativa (comandos rápidos, atajos de interfaz, buenas prácticas críticas).

¿Echas algún término en falta?

Nos interesa saber qué palabra nadie te ha explicado bien.

Si oyes un término que nadie ha explicado con criterio — ni en el feed ni en los cursos — escríbenos. Mantenemos este glosario vivo con lo que la gente real se encuentra, no con el diccionario oficial del hype.