por

¿Qué es el machine learning?

La rama de la inteligencia artificial denominada machine learning (traducido al español algunas veces como aprendizaje automático), ha revolucionado la resolución de problemas con metodologías, algoritmos y técnicas que, junto a un conjunto de datos de tamaño suficiente son capaces de crear modelos altamente complejos.

Como ejemplo de aplicaciones y tareas donde se está aplicando el machine learning encontramos, entre las más novedosas, sistemas autónomos de conducción vehicular , estimadores de postura, video vigilancia, etc.

Pero concretamente:

¿Qué es machine learning?

Sin ser muy exhaustivos podemos decir que el machine learning es el conjunto de metodologías y técnicas que permiten crear y/u optimizar modelos de funciones matemáticas a partir de un conjunto de datos para la realización de una tarea de aprendizaje concreta.

Más específicamente, supongamos que nuestra tarea es la clasificación de un individuo en una especie animal concreta, a partir de un conjunto de mediciones cuantitativas y/o cualitativas realizadas en él (color del pelaje, forma, tamaño, etc.), comúnmente llamadas características. Este problema puede ser representado de manera general como la búsqueda de una función f(\textbf{x}), donde \textbf{x} son las características que describen al individuo representadas como un vector, al cual si se le aplica la función se obtiene como resultado la especie a la que pertenece. Entonces la función que deseamos encontrar nos permite mapear desde las características hacia las especies.

La función desconocida f es el santo grial que quisiéramos encontrar porque su conocimiento equivale a resolver nuestra tarea de identificación de especie. En este sentido, cualquier técnica de machine learning creará un modelo de función \hat{f}(\textbf{x}) que se aproxime lo máximo posible a f(\textbf{x}). Esto se consigue teniendo primero a disposición un conjunto de datos \textit{D} compuesto por otros individuos de los cuales si se conoce el resultado de la aplicación de f sobre cada uno de sus vectores de características. Luego se aplica un algoritmo de optimización (queda fuera del alcance de este post explicar uno en concreto) para que el resultado de la aplicación del modelo de función sea lo más parecido al resultado correcto en cada instancia \textit{D}, es decir f(\textbf{x}) \simeq \hat{f}(\textbf{x}) \forall \textbf{x} \in \textit{D}.

Tipos de aprendizaje

A la tarea detallada anteriormente, donde se desea estimar el modelo a partir de un conjunto de datos conocido, tanto en sus características como en su mapeo se le conoce como tarea de aprendizaje supervisado.

En el machine learning existen otros tipos de tareas de aprendizaje, como por ejemplo el aprendizaje no-supervisado. Para esta tarea se tiene a disposición un conjunto de datos del cual se conocen las características de las instancias pero no se dispone de su mapeo. En este caso, vamos a presuponer que existe una función f(\textbf{x}), que dadas ciertas propiedades estructurales de los datos permite agruparlos en clusters. Entonces en esta tarea se aproxima el modelo \hat{f} a f, de tal forma que el modelo pueda encontrar esos clusters. Contextualizando, esto se aplicaría en nuestro caso de reconocimiento de especies si en el conjunto \textit{D} no se dispondría del mapeo para cada instancia y se desearía encontrar animales con características similares entre ellos que permitiría, de alguna forma determinarse como de la misma especie, aunque no se supiera de cual.

Así mismo, tenemos a disposición otros aprendizajes como el aprendizaje por refuerzo, aprendizaje semi-supervisado, aprendizaje de características, etc. que quedan fuera del alcance de esta introducción.

¿Eso es todo el machine learning?

Mi respuesta es un rotundo NO. Como se presentó de manera generalmente anteriormente, el machine learning está comprendido de múltiples partes que provienen de áreas de la ciencia tan diversas como:

  • El cálculo multivariable, donde se fundamenta el cálculo de funciones junto con los algoritmos de optimización.
  • La teoría de la probabilidad, para poder lidiar de manera formal con la incertidumbre propia de los datos del mundo real.
  • La teoría de la información, que permite disponer de métricas adecuadas en dominios bajo incertidumbre.
  • El álgebra lineal, como herramienta fundamental para trabajar en espacios de alta dimensión como los que aparecen en las aplicaciones de machine learning.

Cada una de estas áreas (y otras más) son de vital importancia para poder comprender al machine learning en su verdadera extensión y profundidad. Solo de esta manera es posible el desarrollo serio de nuevas metodologías en esta rama de la inteligencia artificial.

Adicionalmente, y solo como un complemento práctico se encuentra la base tecnológica necesaria (hardware e implementaciones de software) para aplicar todos los conceptos teóricos del machine learning y poder usarlos en la solución de problemas concretos. Sin embargo, a título personal digo que esto último es solo la punta de iceberg y quizás la parte más simple (y menos bella) de lo que es el machine learning.

Escribe un comentario

Comentario