Técnicas intermedias y mixtas de ML (enfoques híbridos o adaptativos)

Técnicas intermedias y mixtas de ML (enfoques híbridos o adaptativos)

Además de los tipos principales de machine learning, existen enfoques intermedios y especializados:

Aprendizaje semi-supervisado

El aprendizaje semi-supervisado se utiliza cuando tenemos muy pocos datos etiquetados y muchos datos sin etiquetar. Etiquetar datos suele ser caro, lento o requerir conocimiento experto, por lo que este enfoque permite aprovechar ambos tipos de datos a la vez.

La idea es que el modelo aprenda primero de los ejemplos etiquetados, y después utilice los datos no etiquetados para reforzar o extender ese aprendizaje, encontrando patrones similares en los que no tienen etiqueta.

Aprendizaje auto-supervisado

Es una técnica en la que el propio sistema genera sus etiquetas a partir de los datos disponibles, sin necesidad de intervención humana. Se utiliza mucho en modelos de lenguaje y visión por ordenador, y se considera una de las bases del preentrenamiento de modelos como GPT o BERT.

Por ejemplo, en modelos de texto, se pueden ocultar algunas palabras de una frase y entrenar al modelo para que prediga las que faltan. De esta forma, los datos sin etiquetar se convierten en un recurso útil para el aprendizaje porque el modelo usa partes del propio contenido como “pregunta” y “respuesta”.

Meta-aprendizaje

En el meta-aprendizaje (también llamado learning to learn), el objetivo no es solo que el modelo aprenda a resolver una tarea específica, sino que aprenda a adaptarse rápidamente a nuevas tareas con muy pocos datos. El modelo adquiere una estructura flexible que le permite generalizar su experiencia previa a situaciones que no ha visto antes. Es un tipo de aprendizaje que puede sresultar muy útil en entornos muy cambiantes o cuando no hay tiempo para entrenar desde cero un modelo.

Aprendizaje multitarea (Multitask Learning)

El aprendizaje multitarea consiste en entrenar un único modelo para resolver varias tareas de forma simultánea, en lugar de entrenar un modelo independiente para cada una de ellas.

Permite compartir conocimiento entre tareas relacionadas, con lo que se puede mejorar la eficiencia del entrenamiento y la capacidad de generalización del modelo.

Además, el aprendizaje conjunto favorece que el modelo aprenda patrones más robustos, ya que el conocimiento adquirido al resolver una tarea puede reforzar el rendimiento en otras.

Transfer Learning (Aprendizaje por transferencia)

El aprendizaje por transferencia es una técnica que permite reutilizar el conocimiento aprendido por un modelo en una tarea inicial (tarea origen) para aplicarlo en una tarea diferente pero relacionada (tarea destino).

En lugar de entrenar un modelo desde cero, se parte de un modelo ya entrenado en un conjunto de datos grande (como imágenes generales, textos o audio) y se ajusta ligeramente a la nueva tarea con menos datos específicos. Esto reduce mucho el tiempo de entrenamiento, la necesidad de tener muchos datos etiquetados y muchos recursos computacionales.

Es una técnica muy usada en deep learning, especialmente en modelos de lenguaje e imagen, donde el conocimiento aprendido en tareas generales (como comprensión de un texto o detección de bordes en una imagen) se transfiere a problemas más específicos.

Aprendizaje Activo (Active Learning)

El aprendizaje activo es una técnica que permite hacer más eficiente el proceso de etiquetado de datos, y puede ser especialmente útil cuando etiquetar es caro o requiere de intervención experta.

En lugar de entrenar el modelo con un conjunto fijo de datos etiquetados, el propio modelo identifica qué ejemplos serían los más útiles para mejorar su rendimiento y los propone para ser etiquetados por un humano. Estos ejemplos suelen ser los más inciertos, ambiguos o informativamente valiosos.

Este enfoque es útil en contextos donde los datos no etiquetados son abundantes, pero el etiquetado es caro o lento. El modelo va aprendiendo de forma iterativa, pidiendo etiquetas solo cuando lo necesita.