Machine Learning (ML)
El machine learning o aprendizaje automático es una de las técnicas fundamentales de la IA. Es lo que permite que los sistemas aprendan a partir de datos sin que sea necesario programar explícitamente cada paso del proceso.
El machine learning o aprendizaje automático es una de las técnicas fundamentales de la IA. Es lo que permite que los sistemas aprendan a partir de datos sin que sea necesario programar explícitamente cada paso del proceso.
Las máquinas de vectores de soporte (SVM) son un tipo de algoritmo que se usa sobre todo para clasificar datos. Es decir, ayudan a decidir a qué grupo pertenece algo, basándose en las características que tiene.
Son modelos gráficos probabilísticos que representan relaciones de dependencia condicional entre variables dentro de un sistema complejo. En una red bayesiana, las variables se representan como nodos, y las dependencias directas entre ellas se indican mediante arcos dirigidos (flechas). Cada flecha indica que una variable influye directamente sobre otra, estableciendo así una dirección en el flujo de información o causalidad.
La regresión es una familia de algoritmos cuyo objetivo es modelar la relación entre una variable dependiente (también llamada variable objetivo, el resultado que quieres obtener) y una o más variables independientes (los factores que afectan a ese resultado). Su finalidad es predecir un valor numérico continuo a partir de los datos disponibles.
Los sistemas expertos se basan en una representación formal del conocimiento humano, estructurado en forma de reglas “si X, entonces Y” dentro de una base de conocimiento experto (de ahí su nombre).
Ocurre cuando el modelo aprende en exceso los detalles y el ruido del conjunto de entrenamiento, perdiendo capacidad de generalizar. Parece funcionar muy bien con los datos conocidos, pero falla con datos nuevos.
Se da cuando el modelo es demasiado simple o está mal configurado y no consigue captar los patrones relevantes en los datos.
Qué es Transformer Transformer: Definición breve Un Transformer es una arquitectura de red neuronal profunda diseñada específicamente para procesar secuencias de datos, como texto. Fue introducida en 2017 en el artículo “Attention is All You Need” y se ha convertido en la base de los modelos de lenguaje más avanzados actuales, como GPT y BERT. El modelo utiliza un mecanismo llamado atención para procesar información secuencial de manera paralela, permitiendo que cada elemento de una secuencia se relacione directamente con todos los demás elementos, sin depender del orden lineal de procesamiento. Transformer: Cómo funciona El Transformer funciona a través de tres componentes principales que trabajan de manera coordinada. Primero, los tokens se convierten en vectores numéricos llamados embeddings, y se añade información sobre su posición en la secuencia para que el modelo entienda el contexto ubicacional. Luego, el mecanismo de atención (Self-Attention) calcula la relevancia que cada palabra tiene con respecto a todas las demás palabras en la secuencia. Para esto, genera tres matrices: Queries (preguntas), Keys (claves) y Values (valores). La atención determina cuánto “peso” o importancia tiene cada palabra al procesar las otras. Después de la atención, los datos pasan por capas completamente conectadas llamadas redes feedforward que añaden capacidad de aprendizaje no-lineal. Este proceso se repite en múltiples capas apiladas (encoder y decoder), permitiendo que el modelo construya representaciones cada vez más complejas y abstractas de la información. Transformer: Ejemplo Considera la frase: “El gato se sentó en el tapete porque estaba cansado.” Sin un Transformer, procesar palabra por palabra de manera secuencial sería lento y las relaciones entre palabras distantes serían difíciles de captar. Con el Transformer, el modelo puede calcular simultáneamente cómo “gato” se relaciona con “cansado”, cómo “tapete” se relaciona con “se sentó”, y así sucesivamente. Cuando el modelo intenta predecir la siguiente palabra después de “porque estaba”,
