Historia de la IA (X): Auge del machine learning (2000)

Historia de la IA (X): Auge del machine learning (2000)

A partir de los 2000, el machine learning se convirtió en el enfoque que captó toda la atención en el campo de la IA, dejando totalmente de lado a los sistemas expertos.

Este cambio se debió, sobre todo, a tres factores clave: el aumento en la potencia de cálculo, la disponibilidad de grandes conjuntos de datos y el desarrollo de algoritmos más sofisticados. En lugar de depender de reglas codificadas a mano, los algoritmos de machine learning permiten a los sistemas aprender patrones directamente de los datos, y ajustar por sí mismos sus parámetros internos para mejorar su rendimiento.

Durante este período, algoritmos clásicos se convirtieron en herramientas fundamentales:

  • Regresión logística: Un método que predice probabilidades para clasificar datos en categorías.
  • Máquinas de vectores de soporte (SVM): Algoritmos que clasifican datos separándolos en categorías con márgenes óptimos, utilizados, por ejemplo, para identificar tumores en imágenes médicas.
  • Árboles de decisión: Modelos que toman decisiones siguiendo una estructura de preguntas y respuestas

Estos algoritmos se aplicaron en diversos tipos de aprendizaje:

  • Aprendizaje supervisado, que utiliza datos etiquetados para entrenar modelos que predicen resultados.
  • Aprendizaje no supervisado, que identifica patrones en datos sin etiquetas.
  • Aprendizaje por refuerzo, que permite a los sistemas aprender mediante prueba y error, recibiendo recompensas por decisiones correctas.

(Estos tipos de aprendizaje y los que fueron surgiendo posteriormente los veremos en profundidad más adelante.)

El renacimiento del machine learning también se benefició de avances en hardware, particularmente las unidades de procesamiento gráfico (GPUs), originalmente desarrolladas para renderizar gráficos en videojuegos.

Las GPUs son procesadores especializados que realizan cálculos matemáticos complejos de manera muy rápida y eficiente. Su capacidad para procesar múltiples operaciones simultáneamente aceleró de forma exponencial el entrenamiento de modelos de machine learning, pudiendo utilizar grandes volúmenes de datos y cálculos intensivos requeridos por los algoritmos.