genera un video educativo en base a este glosario de conceptos técnicos: Modelo de Inteligencia Artificial: Concepto: Es el "cerebro" o la parte central de un sistema de IA. Es un programa informático que ha sido entrenado con grandes cantidades de datos para aprender a realizar una tarea específica, como reconocer imágenes, generar texto o traducir idiomas. Piensa en él como un conjunto de reglas y patrones que la IA ha "descubierto" por sí misma. Ejemplo: El modelo GPT-4 es el cerebro detrás de ChatGPT. Fue entrenado con una vasta cantidad de texto e imágenes para poder generar respuestas coherentes y creativas a una amplia gama de preguntas. Herramienta de Inteligencia Artificial: Concepto: Es la interfaz o la aplicación que usamos para interactuar con un modelo de IA. Es la "carrocería" que hace que el modelo sea accesible y útil para el usuario final. Estas herramientas añaden funcionalidades como una interfaz de chat, botones para guardar, opciones de formato, etc. Ejemplo: ChatGPT es una herramienta de IA. Utiliza el modelo GPT-4 (u otro modelo de OpenAI) como su motor, pero la interfaz de chat, el historial de conversaciones y otras funcionalidades son parte de la herramienta en sí. Agente de Inteligencia Artificial: Concepto: Un agente de IA es una entidad de software diseñada para percibir su entorno, tomar decisiones y ejecutar acciones de manera autónoma para lograr un objetivo. A diferencia de un simple modelo o herramienta, un agente puede planificar, interactuar con otras herramientas y persistir en la realización de una tarea compleja. Ejemplo: Un asistente virtual que no solo responde preguntas, sino que puede, por ejemplo, agendar una cita en tu calendario, enviar un email de confirmación y luego buscar la dirección en un mapa, está actuando como un agente de IA. LLM (Large Language Model - Modelo de Lenguaje Grande): Concepto: Es una clase de modelos de IA que se especializan en comprender y generar lenguaje humano. Su característica principal es que han sido entrenados con conjuntos de datos masivos (libros, artículos, páginas web) para desarrollar una comprensión profunda de la gramática, la sintaxis y el contexto, lo que les permite realizar tareas como resumir, traducir o escribir textos creativos. Ejemplo: Los modelos detrás de Gemini, ChatGPT o Claude son ejemplos de LLM. SLM (Small Language Model - Modelo de Lenguaje Pequeño): Concepto: Son versiones más pequeñas y optimizadas de los LLM. Tienen menos parámetros y son entrenados con conjuntos de datos más reducidos. Esto los hace más rápidos, más eficientes en recursos y a menudo más adecuados para tareas específicas o para ejecutarse en dispositivos con menos capacidad, como un teléfono móvil. Ejemplo: Un SLM podría ser entrenado para realizar una tarea muy específica, como responder preguntas frecuentes en el sitio web de un colegio o corregir la ortografía de un texto corto, sin la necesidad de la potencia de un modelo masivo. Modelo Multimodal (Multimodal Model): Concepto: Es un tipo avanzado de modelo de IA que puede procesar y entender información de múltiples formatos o "modos" simultáneamente. A diferencia de un LLM (que solo maneja texto), un modelo multimodal puede trabajar con texto, imágenes, audio y video al mismo tiempo. Esto le permite hacer conexiones entre diferentes tipos de datos. Ejemplo: Un modelo multimodal podría analizar una imagen de un mapa, leer las etiquetas del mismo y responder a la pregunta del docente: "¿Qué ciudades están al sur de la cordillera que se ve en la imagen?". O un docente podría subir una imagen de una obra de arte y pedirle al modelo que le escriba un poema inspirador sobre la misma. Token: Concepto: Los tokens son las unidades básicas que un modelo de IA utiliza para procesar el lenguaje. No son siempre palabras completas, pueden ser partes de palabras, sílabas, letras individuales o signos de puntuación. El modelo descompone el texto de entrada en tokens para entenderlo y luego genera nuevos tokens para construir su respuesta. Ejemplo: La frase "El niño va a la escuela" podría ser descompuesta en tokens como ["El", " niño", " va", " a", " la", " escuela"]. La cantidad de tokens afecta directamente la longitud de la entrada y la salida de un modelo. Ventana de Contexto (Context Window): Concepto: Es la cantidad máxima de tokens que un modelo de IA puede "recordar" o tener en cuenta en un momento dado para generar su respuesta. Funciona como la memoria a corto plazo del modelo. Si la conversación supera este límite, los tokens más antiguos se olvidan para dar paso a los nuevos. Ejemplo: Si un modelo tiene una ventana de contexto de 4,000 tokens, puede procesar y recordar hasta esa cantidad de tokens en la conversación. Si la conversación es más larga, las primeras partes ya no serán recordadas por el modelo. Ventana de Contexto (Context Window): Concepto: No solamente implica la cantidad de información que puede procesar el modelo de IA, en este caso información que le proporciona el mismo usuario, sino que también incluye el hilo de la conversación que está teniendo el usuario con el modelo de IA. Por lo cual, se pueden analizar en dos perspectivas distintas: una, el procesamiento de datos e información y, otra, la memoria del hilo de la conversación. Ejemplo: Si le pasas un documento muy largo para que lo resuma, el modelo usará su ventana de contexto para procesar la información. En una conversación, el modelo usa esa misma ventana para "recordar" lo que se ha dicho en los mensajes anteriores y mantener la coherencia. Memoria a Corto Plazo (Short-Term Memory): Concepto: Es la capacidad funcional del modelo para utilizar y "recordar" la información que se encuentra dentro de su ventana de contexto para mantener el hilo de la conversación. Es la manifestación de lo que el modelo puede retener en un momento dado, y está directamente limitada por el tamaño de la ventana de contexto. Ejemplo: En una conversación, cuando el modelo responde de manera coherente a una pregunta que se relaciona con algo que dijiste hace dos mensajes, está utilizando su memoria a corto plazo para mantener el hilo. Ventana de Contexto Extendida (Extended Context Window): Concepto: Una ventana de contexto que es mucho más grande que la de los modelos tradicionales (cientos de miles o incluso millones de tokens). Permite que el modelo procese documentos muy largos y retenga el contexto de conversaciones extensas sin necesidad de recurrir a técnicas externas. Ejemplo: Un modelo con una ventana de contexto de un millón de tokens puede leer un libro completo o una base de código de software extensa en un solo prompt y responder preguntas detalladas sobre cualquier parte del material. Memoria a Largo Plazo (Long-Term Memory): Concepto: Es el vasto conocimiento general que el modelo adquirió durante su fase de entrenamiento, y que está "codificado" en la configuración de sus parámetros internos. Es el conocimiento estático sobre el mundo, los hechos y el lenguaje. Ejemplo: Cuando le preguntas al modelo quién fue Albert Einstein o cómo funciona la gravedad, la respuesta proviene de su memoria a largo plazo. Este conocimiento no cambia de una conversación a otra. Memoria Paramétrica (Parametric Memory): Concepto: Es el término técnico para la memoria a largo plazo. Se refiere a la forma en que el conocimiento está físicamente almacenado en los billones de números (parámetros) que conforman la red neuronal del modelo. Ejemplo: Un modelo entrenado para identificar perros en imágenes tiene su "conocimiento" de lo que es un perro codificado en sus parámetros. El término resalta la base matemática y estática de este conocimiento. Memoria Conversacional (Conversational Memory): Concepto: Una estrategia de ingeniería que se implementa para simular una memoria a largo plazo en conversaciones. Consiste en guardar el historial del chat en una base de datos externa y luego "inyectarlo" en el prompt del modelo en cada nueva interacción. Ejemplo: Al construir un chatbot, puedes usar una base de datos para guardar la conversación. Cuando el usuario hace una nueva pregunta, el sistema recupera el historial, lo resume si es necesario y lo envía junto con la nueva pregunta al modelo, asegurando que el modelo siempre tenga el contexto completo. Contexto "Rot" (Context Rot - Degradación del Contexto): Concepto: Es un término informal que se refiere a la pérdida de coherencia o la "confusión" que experimenta un modelo cuando el historial de la conversación se vuelve demasiado largo y supera su ventana de contexto. Como el modelo olvida la información inicial, puede empezar a contradecirse o a dar respuestas que no se ajustan al inicio de la conversación. Ejemplo: Si le pides a un modelo que te ayude a planificar una clase de historia y la conversación dura mucho tiempo, al final podría empezar a darte ideas sobre matemáticas porque la información original de "historia" ha salido de su ventana de contexto. Benchmark (Evaluación de Rendimiento): Concepto: Es un conjunto de pruebas o un estándar objetivo que se utiliza para medir y comparar el rendimiento de diferentes modelos de IA. Estas pruebas evalúan sus habilidades en áreas como el razonamiento, la resolución de problemas, la comprensión lectora, etc. Son la forma en que los desarrolladores y la comunidad tecnológica determinan qué modelo es "mejor" en ciertas tareas. Ejemplo: El benchmark MMLU (Massive Multitask Language Understanding) es una prueba común que evalúa la habilidad de un LLM en 57 materias, desde matemáticas hasta historia. Prompt: Concepto: Es la instrucción, pregunta o texto de entrada que un usuario le da a un modelo de IA para que genere una respuesta. El "prompt" es la forma en que comunicamos nuestras intenciones al modelo. La calidad del resultado depende en gran medida de la claridad y precisión del prompt. Ejemplo: En lugar de preguntar "Háblame de los romanos", un prompt efectivo podría ser: "Genera 5 ideas de actividades lúdicas para una clase de 5º de primaria sobre el Imperio Romano, enfocándote en la vida cotidiana y no en las guerras." Ingeniería de Prompts (Prompt Engineering): Concepto: Es la disciplina de diseñar y refinar prompts de manera estratégica para obtener las respuestas más precisas, útiles y de alta calidad de un modelo de IA. Se trata de cómo "programar" al modelo a través del lenguaje natural, dándole instrucciones claras, ejemplos y un rol específico para guiar su respuesta. Ejemplo: En lugar de preguntar "Resume este texto", un prompt de ingeniería podría ser: "Actúa como un profesor de historia de 10º grado. Resume el siguiente texto sobre la Revolución Francesa en 5 viñetas y usa un lenguaje que motive a los estudiantes a investigar más sobre el tema. Texto: [pegar el texto aquí]". Cadena de Pensamiento (Chain-of-Thought): Concepto: Es una técnica de prompting avanzada que le pide al modelo de IA que muestre sus pasos de razonamiento antes de dar una respuesta final. Esto ayuda a resolver problemas complejos, ya que el modelo "piensa en voz alta" y sigue una secuencia lógica, mejorando la precisión del resultado. Ejemplo: Para resolver un problema de matemáticas, en lugar de pedir la respuesta directamente, se le puede pedir al modelo: "Explica paso a paso cómo llegas a la solución del siguiente problema: [problema]. Muestra cada etapa de tu razonamiento antes de dar la respuesta final". Ingeniería de Contexto (Context Engineering): Concepto: Se refiere a la práctica de proporcionar al modelo toda la información relevante que necesita para realizar una tarea específica. A diferencia de la ingeniería de prompts, que se enfoca en la instrucción, esta técnica se centra en el "material de apoyo" que el modelo usa para contextualizar su respuesta, como documentos, datos o manuales de estilo. Ejemplo: Si quieres que el modelo cree un plan de estudios, la ingeniería de contexto implicaría proporcionarle el currículo oficial, los objetivos de aprendizaje del curso y la lista de recursos disponibles en la escuela. Alucinación (Hallucination): Concepto: Es un fenómeno en el que un modelo de IA genera información que suena plausible y coherente, pero que es incorrecta, inventada o sin fundamento en los datos de entrenamiento o en el contexto proporcionado. Es un riesgo común en los LLM. Ejemplo: Un modelo podría "inventar" una cita de un autor famoso que en realidad nunca dijo, o podría citar un libro que no existe. Temperatura (Temperature): Concepto: Es un parámetro de configuración que controla la aleatoriedad o creatividad de las respuestas del modelo. Un valor bajo (cercano a 0) hará que las respuestas sean más predecibles, seguras y conservadoras. Un valor alto (cercano a 1) aumentará la aleatoriedad, haciendo las respuestas más creativas y variadas, pero también con mayor riesgo de imprecisiones. Ejemplo: Para generar un resumen de un libro de texto, se usaría una temperatura baja. Para generar ideas para un cuento o un proyecto de arte, se usaría una temperatura alta. Memoria Conversacional (Conversational Memory): Concepto: Es la capacidad de un sistema de IA para recordar y referenciar conversaciones previas con el usuario. Permite que las interacciones sean más naturales y coherentes a lo largo del tiempo, ya que el modelo puede mantener el hilo de la conversación y utilizar información de mensajes anteriores. Ejemplo: Cuando le dices al modelo "Resúmeme la clase de ayer", y este sabe a qué clase te refieres sin que tengas que volver a mencionarla, está utilizando su memoria conversacional.

视频信息