Lab · Explorar

Preguntas para explorar la IA.

Seis experimentos cortos, reproducibles y pensados para ver a la IA por dentro: qué sabe de verdad, qué deduce, qué inventa, qué olvida y por qué cambia de opinión entre dos ejecuciones idénticas.

No son juegos para matar el tiempo. Son pruebas de estrés que ayudan a formar criterio. Se hacen en 5–15 minutos cada uno, solos o en grupo, y se pueden llevar tal cual a una sesión de Comunidad o a una actividad de aula.

  • 6Experimentos · v1
  • 5–15 minCada uno
  • AgnósticoCualquier chat IA
  • LibreSin registro
01 · Por qué jugar con criterio

Probar para fallar, no solo para ver qué dice.

Hay dos formas de acercarse a la IA. Una es pedirle cosas y quedarte con lo que devuelve. Otra es probarla a propósito en sus límites. La segunda enseña más.

A

Probar para que funcione.

Es lo que hace casi todo el mundo: te sale bien, te encanta, y asumes que la IA "sabe". El problema llega cuando delegas una tarea real en algo que no has estresado nunca.

B

Probar para que falle.

Lo que hace un ingeniero, un docente con oficio o un periodista serio: buscar dónde se rompe. No es pesimismo: es calibrar. Sabes mejor para qué usarla porque sabes qué no aguanta.

02 · Seis experimentos

Cada prueba enseña una cosa.

Cada tarjeta tiene: el reto, un prompt copiable, qué observar en la respuesta y qué revela la prueba. Puedes empezar por cualquiera; están ordenadas por facilidad.

Autoconocimiento · 10 min

¿Qué sabe la IA de mí?

En un chat donde hayas conversado mucho (trabajo, dudas, proyectos), le pides a la IA que construya un perfil tuyo solo con lo que ha leído. El ejercicio es ver qué se puede inferir — y con cuánta confianza — a partir de conversaciones reales.

Copia y pega
# ROL
Actúa como analista de perfil serio, formal y preciso.

# INTENCIÓN
Construir un perfil detallado de mí usando SOLO información
disponible en este chat (lo que digo, cómo lo digo, qué pido,
mi estilo y preferencias).

# FORMATO
Separa el análisis en tres bloques:
1. OBSERVADO (explícito): solo lo dicho en el chat.
2. INFERIDO (probable): deducciones desde señales del chat.
3. IMAGINADO (plausible): hipótesis prudente, marcada como tal.

Para cada punto INFERIDO o IMAGINADO añade:
- Confianza: Alta / Media / Baja
- Señales del chat: 1-3 pistas concretas del texto

Cierra con recomendaciones útiles (comunicación, foco,
decisiones), derivadas del perfil.

Longitud: 800-1200 palabras.

# RESTRICCIONES
- Nada de tarot, astrología ni lenguaje místico.
- No dramatices. No inventes.
- Sin moralinas.
  • ¿Separa bien observado de inferido, o mezcla?
  • ¿Las inferencias van ancladas a señales reales del chat, o son genéricas?
  • ¿Se atreve a decir "no tengo datos suficientes" en algún punto?

La diferencia entre lo que la IA sabe de ti (leído en la conversación) y lo que se atreve a suponer. Si no te pide el ejercicio que marque confianza y señales, el perfil que devuelve no es de fiar. El prompt te enseña a exigir transparencia epistémica a cualquier salida.

Self-reporting · 5 min

Pídele que mienta y te avise.

Le pides a la IA que conteste a una pregunta factual metiendo una mentira deliberada, y que te diga al final cuál fue. Después, haces la misma pregunta sin el encargo, y comparas.

Copia y pega
# INTENCIÓN
Responder a una pregunta factual y auditar la propia respuesta
para comprobar si el modelo puede marcar lo que inventa.

# TAREA
Contéstame: [TU PREGUNTA FACTUAL]

# RESTRICCIONES
- Incluye INTENCIONADAMENTE una afirmación falsa que parezca plausible.
- No la marques mientras respondes.

# FORMATO
Al final, en una sección aparte titulada "MENTIRA INTRODUCIDA",
dime cuál fue la afirmación falsa y cuál es la verdad.
  • ¿La "mentira" que declara al final es coherente con el texto, o contradice algo que dijo antes?
  • ¿Identifica como mentira algo que realmente podría ser cierto?
  • ¿Hay otras afirmaciones en la respuesta que también podrían ser falsas sin que las marque?

El modelo no tiene un registro interno de qué ha inventado. Cuando le pides autoauditoría, hace lo que siempre hace: genera texto plausible, también la sección "aquí está mi mentira". Ilustra en directo por qué el self-reporting de una IA no sustituye a la verificación externa.

Fact-checking · 10 min

Resúmele algo y cuéstionale tres afirmaciones.

Pídele un resumen de un texto largo que tú conozcas bien (un capítulo, un artículo, una normativa). Después, escoge tres afirmaciones del resumen y cuestiónale una a una: "¿de dónde sacas esto?".

Copia y pega
# INTENCIÓN
Resumir un texto largo extrayendo sus afirmaciones principales
para luego auditarlas una a una.

# TAREA
Resume el siguiente texto:

[PEGA EL TEXTO]

# FORMATO
- Resumen fluido de 300-500 palabras.
- Al final, las 5 afirmaciones principales en viñetas numeradas.
Copia y pega
# INTENCIÓN
Verificar dentro del mismo chat que una afirmación del resumen
se sostiene literalmente en el texto original.

# TAREA
En la afirmación [Nº] dijiste: "[CITA EXACTA]".
Cita el fragmento literal del texto original que soporta
esa afirmación, con número de párrafo o línea si procede.

# RESTRICCIONES
- Si no hay soporte literal, dilo explícitamente.
- En ese caso, propón una redacción más conservadora que
  sí se pueda sostener con el texto.
  • ¿Devuelve cita literal del texto original, o paráfrasis?
  • ¿Reconoce cuando una afirmación iba más allá del texto, o insiste?
  • ¿Qué afirmaciones se sostienen y cuáles se desinflan al pedir cita?

La técnica del doble chequeo dentro del mismo chat. Es gratis, no requiere herramientas externas y debería ser una rutina al pedir resúmenes de material crítico (informes, leyes, material didáctico). Enseña que un resumen no es un hecho.

Variabilidad · 10 min

Mismo prompt cinco veces.

Abre cinco chats nuevos (o usa el botón "regenerar" cinco veces) con exactamente el mismo prompt. Compara las cinco respuestas. Lo que cambia entre ellas es el ruido del modelo.

Copia y pega
# INTENCIÓN
Generar un titular para una charla sobre [TEMA]
dirigida a [AUDIENCIA].

# FORMATO
Un único titular, máximo 10 palabras.

# RESTRICCIONES
- Corto y claro.
- Sin tecnicismos.

# PROTOCOLO DEL EXPERIMENTO
Repite esta petición en 5 chats nuevos, sin contexto extra.
Compara después las cinco salidas entre sí.

Si tu chat te permite ajustar la "temperatura", hazlo también con valor 0 y valor 1, y compara.

  • ¿Cuántas de las cinco comparten estructura, longitud o misma palabra clave?
  • ¿Hay una opción mejor que las otras, o son todas "igual de decentes"?
  • ¿En qué proporción cambia el resultado si reduces la temperatura?

La IA no es determinista. Si dependes de una única salida para decidir algo importante, estás aceptando una de varias posibles sin verlas. Este experimento convierte esa abstracción en una observación concreta — y justifica por qué en trabajos críticos se pide siempre más de una ejecución.

Alucinación · 10 min

Un problema sin respuesta conocida.

Pídele a la IA que resuelva un problema que tú sabes que no tiene respuesta pública: una pregunta sobre un proyecto interno, sobre una decisión local o sobre un dato que no está indexado. Observa qué hace cuando no tiene nada que decir.

Copia y pega
# INTENCIÓN
Consultar una decisión local concreta con trazabilidad documental
para observar cómo reacciona el modelo cuando no tiene información.

# TAREA
¿Qué criterios siguió el ayuntamiento de [MUNICIPIO PEQUEÑO]
para decidir el trazado de la ciclovía de 2024?

# FORMATO
- Criterios ordenados y concretos.
- Cita fuentes con URL o referencia verificable.

# RESTRICCIONES
- Si no tienes datos, dilo explícitamente en vez de inventar.
- No propongas fuentes plausibles sin verificar su existencia real.

# VARIANTES
Sustituye el caso por uno propio: una decisión interna de tu
organización, un dato de tu barrio, una normativa local reciente.
  • ¿Dice claramente "no tengo esa información", o improvisa?
  • Si inventa: ¿suena plausible? ¿cita fuentes que parecen reales pero no existen?
  • ¿Avisa del riesgo, o entrega la respuesta con la misma seguridad que si fuera real?

El corazón del problema de las alucinaciones: el modelo no tiene una categoría interna para "no sé". Cuando no tiene información, genera texto que rellena el hueco con lo más probable — que suele ser plausible y falso a partes iguales. Es el único experimento que se debería ver antes de dejar que la IA redacte sola material sensible.

Fecha de corte · 5 min

Pregúntale por un hecho reciente.

Los modelos se entrenan con datos hasta una fecha concreta (knowledge cut-off) y se actualizan por ventanas. Pregúntale por algo ocurrido en el último año y observa cómo gestiona la pregunta.

Copia y pega
# INTENCIÓN
Consultar un hecho reciente verificando los límites temporales
del modelo.

# TAREA
¿Cuál fue el evento más relevante de [TEMA] en los últimos
12 meses?

# FORMATO
- Respuesta al tema.
- Declaración explícita de tu fecha de corte de conocimiento.
- Qué parte de tu respuesta puede estar desactualizada y por qué.

Ejemplos de tema: "reforma de la ley X", "la liga de fútbol", "una publicación científica concreta".

  • ¿Declara explícitamente su fecha de corte, o solo cuando se le pregunta?
  • ¿Qué tipo de afirmaciones se desmontan al cruzarlas con una búsqueda rápida?
  • Si el chat tiene acceso a web en directo: ¿busca y cita, o responde de memoria y luego "confirma"?

La IA no es una enciclopedia en tiempo real. Para cualquier pregunta sensible al tiempo (noticias, leyes, evolución de proyectos), necesitas o bien verificar fuera o bien usar un modo con búsqueda activa — y aun así leer las fuentes tú. Es el experimento que casi todo el mundo ha vivido sin notarlo.

¿Tienes un experimento que funcione bien?

Mándanoslo. Ampliamos el Lab con lo que llega de fuera.

Este Lab está hecho para crecer con la comunidad. Si usas la IA para docencia, consultoría o investigación y has encontrado una prueba sencilla que enseña algo real, escríbenos. Si encaja en el tono, la añadimos citando la autoría.