Esta pagina reune demos, dibujos, videos, audios y explicaciones para que entiendas paso a paso que hace un modelo como GPT-2 cuando le escribes una frase. Empieza con lo visual y sencillo, y si quieres baja hasta la parte avanzada para ver el detalle tecnico.
Una neurona artificial recibe datos, les da una importancia (pesos) y decide si "activa" o no. Esta demo te deja jugar con los valores y ver como cambia el resultado de forma inmediata.
Pagina: neurona_demo.html
Un ejemplo clasico en IA: una sola neurona no puede resolver XOR, pero dos neuronas conectadas si. Aqui puedes ver como se combinan para resolver un problema un poco mas "listo".
Pagina: neurona_red_xor.html
Una vista general de GPT-2: bloques principales, flujo de datos y donde entra la parte de atencion. Ideal para tener la foto completa.
Archivo: Presentacion
Un mapa visual que conecta conceptos: tokens, embeddings, capas, atencion, salida... muy util para repasar o explicar a otra persona.
Archivo: Esquema Full
Imagen algo mas detallada de como fluyen los datos por el modelo. Perfecta si ya has visto la parte basica y quieres profundizar un poco mas.
Archivo: Esquema
Video que muestra, paso a paso, que hace el modelo desde que escribes una frase hasta que te devuelve una respuesta.
Video: Ver video
Explicacion en audio sobre el mecanismo de atencion: como el modelo "mira" unas palabras mas que otras para decidir que sigue.
Audio: Escuchar explicacion
Documento pensado para arrancar desde cero: que es GPT-2, que piezas tiene y como se conectan. Si solo lees un texto, empieza por este.
Pagina: ai_informe.html
Diapositivas que recorren las etapas del modelo Transformer: desde la entrada de tokens hasta la salida final.
Archivo: Diapositivas paso a paso
Documento en HTML que explica el funcionamiento del modelo GPT-2:
tokens, embeddings, capas de atencion, capas feed-forward y flujo
de generacion de texto, pensado como informe tecnico.
Salidas desglosadas: X, Q, K, (Q·Kᵀ / sqrt(d_k)),
attention weights (softmax), V y la salida (attn @ V).
Pagina: ai2.html
Implementacion del mecanismo de self-attention: define las matrices W_Q, W_K, W_V, calcula Q, K, los scores Q·Kᵀ / sqrt(d_k), aplica softmax para obtener los pesos de atencion y combina los vectores V para obtener el nuevo embedding de salida.
Archivo: probar_gpt2_tokenizer.py
Salidas desglosadas: X, Q, K, (Q·Kᵀ / sqrt(d_k)), attention weights (softmax), V y la salida (attn @ V). Ideal para ver cada tensor y cada paso de la atencion.
Archivo: step_02_toy_self_attention.py
Script sencillo para probar GPT-2 con un texto fijo. Bueno para ver rapido como responde el modelo sin complicarse con parametros.
Archivo: probar_generacion_gpt2.py
Pequeno y rustico GPT-2 sin fine-tuning, pero totalmente funcional. Da una idea muy clara de como podria verse uno de los primeros modelos GPT implementados de forma sencilla.
Archivo: gpt2_v1.py