Explora como una IA entiende tus palabras

Esta pagina reune demos, dibujos, videos, audios y explicaciones para que entiendas paso a paso que hace un modelo como GPT-2 cuando le escribes una frase. Empieza con lo visual y sencillo, y si quieres baja hasta la parte avanzada para ver el detalle tecnico.

sin formulas raras explicado paso a paso ideal si estas empezando
Ilustracion IA amigable

Explora con ejemplos visuales (BASICO)

demo

Como piensa una neurona artificial

Demo neurona

Una neurona artificial recibe datos, les da una importancia (pesos) y decide si "activa" o no. Esta demo te deja jugar con los valores y ver como cambia el resultado de forma inmediata.

demo

Resolver XOR con neuronas

Demo XOR

Un ejemplo clasico en IA: una sola neurona no puede resolver XOR, pero dos neuronas conectadas si. Aqui puedes ver como se combinan para resolver un problema un poco mas "listo".

demo

??????

???

??????

Ver el modelo en dibujos y esquemas (BASICO)

presentacion

GPT-2 en una sola lamina

Esquema GPT2

Una vista general de GPT-2: bloques principales, flujo de datos y donde entra la parte de atencion. Ideal para tener la foto completa.

esquema

Mapa mental de GPT-2

Mapa mental

Un mapa visual que conecta conceptos: tokens, embeddings, capas, atencion, salida... muy util para repasar o explicar a otra persona.

esquema

Arquitectura GPT-2 por dentro

Arquitectura GPT2

Imagen algo mas detallada de como fluyen los datos por el modelo. Perfecta si ya has visto la parte basica y quieres profundizar un poco mas.

Aprender con video y audio (BASICO)

video

El viaje de una frase en GPT-2

video

Video que muestra, paso a paso, que hace el modelo desde que escribes una frase hasta que te devuelve una respuesta.

audio

Como decide la siguiente palabra

audio

Explicacion en audio sobre el mecanismo de atencion: como el modelo "mira" unas palabras mas que otras para decidir que sigue.

XXXXXXX

XXXXXXX

XXXXXXX

Textos para leer con calma (BASICO)

informe

Introduccion clara a GPT-2

ai_informe

Documento pensado para arrancar desde cero: que es GPT-2, que piezas tiene y como se conectan. Si solo lees un texto, empieza por este.

transformer

Transformer paso a paso

diapositva

Diapositivas que recorren las etapas del modelo Transformer: desde la entrada de tokens hasta la salida final.

XXXXXXX

XXXXXXX

XXXXXXX

XXXXXXX

XXXXXXX

XXXXXXX

XXXXXXX




Presentaciones y paginas visuales (AVANZADO)

XXXXXXX

XXXXXXX

XXXXXXX

XXXXXXX

XXXXXXX

XXXXXXX

XXXXXXX

XXXXXXX

XXXXXXX

XXXXXXX

XXXXXXX

XXXXXXX

Multimedia: video y audio (AVANZADO)

video

XXXXXXXX

XXXXXXXX

XXXXXXXX.

audio

XXXXXXXX

audio

XXXXXXXX

XXXXXXXX

XXXXXXXX

XXXXXXXX.

Textos y documentacion base (AVANZADO)

informe

Explicacion del funcionamiento GPT-2

informe

Documento en HTML que explica el funcionamiento del modelo GPT-2: tokens, embeddings, capas de atencion, capas feed-forward y flujo de generacion de texto, pensado como informe tecnico.
Salidas desglosadas: X, Q, K, (Q·Kᵀ / sqrt(d_k)), attention weights (softmax), V y la salida (attn @ V).

Informe

XXXXXXXX

XXXXXXXX

XXXXXXXX

Transformer

XXXXXXXX

XXXXXXXX

XXXXXXXX.

???

XXXXXXXX

XXXXXXXX

Codigo Python y demos tecnicas (AVANZADO)

codigo

probar_gpt2_tokenizer.py – tokenizador GPT-2

probar_gpt2_tokenizer.png

Implementacion del mecanismo de self-attention: define las matrices W_Q, W_K, W_V, calcula Q, K, los scores Q·Kᵀ / sqrt(d_k), aplica softmax para obtener los pesos de atencion y combina los vectores V para obtener el nuevo embedding de salida.

codigo

Analisis de la atencion

step_02_toy_self_attention.png

Salidas desglosadas: X, Q, K, (Q·Kᵀ / sqrt(d_k)), attention weights (softmax), V y la salida (attn @ V). Ideal para ver cada tensor y cada paso de la atencion.

codigo

GPT-2 con texto fijo

codigo_probar_generacion_gpt2.py

Script sencillo para probar GPT-2 con un texto fijo. Bueno para ver rapido como responde el modelo sin complicarse con parametros.

codigo

GPT-2 funcional

codigo_gpt2_v1

Pequeno y rustico GPT-2 sin fine-tuning, pero totalmente funcional. Da una idea muy clara de como podria verse uno de los primeros modelos GPT implementados de forma sencilla.