¿Qué es el aprendizaje no supervisado?
El aprendizaje no supervisado es un tipo de aprendizaje automático en el que los algoritmos aprenden patrones a partir de datos no etiquetados. A diferencia del aprendizaje supervisado, no hay categorías de salida predefinidas; el sistema intenta dar sentido a los datos identificando estructuras, agrupaciones o relaciones inherentes por sí mismo.

¿Cómo funciona el aprendizaje no supervisado?
Los algoritmos de entrenamiento de aprendizaje sin supervisión están diseñados para explorar y encontrar patrones ocultos en conjuntos de datos que carecen de etiquetas predefinidas o resultados objetivo. En lugar de que se les diga qué buscar, estos algoritmos revisan los datos para descubrir estructuras y relaciones inherentes por su cuenta.
Exploración de datos y detección de patrones
El proceso central de inteligencia artificial comienza con alimentar al algoritmo de aprendizaje automático con un conjunto de datos que consta sólo de características de entrada, sin las variables de salida correspondientes. A continuación, el algoritmo procesa estos datos de forma iterativa, intentando identificar patrones subyacentes. Esto podría implicar:
- Identificar similitudes o diferencias: El algoritmo busca puntos de datos iguales o distintos según sus características.
- Comprender la distribución de datos: Podría tratar de entender cómo se distribuyen los datos y si existen agrupaciones naturales.
- Reducción de la complejidad : A veces, el objetivo es simplificar los datos mediante la búsqueda de sus características más esenciales.
Enfoque Algoritmo
Diferentes algoritmos de aprendizaje no supervisados utilizaron diversas técnicas matemáticas y estadísticas para lograr sus objetivos de capacitación. Por ejemplo:
Los algoritmos de agrupación en clústeres pretenden agrupar puntos de datos similares. Podrían calcular distancias entre puntos y asignar los que están próximos entre sí al mismo clúster. El algoritmo aprende las características de estos grupos a partir de los propios datos.
Los algoritmos de reducción de la dimensionalidad buscan reducir el número de variables de entrenamiento (características) en el conjunto de datos, al tiempo que conservan información importante. Identifican correlaciones y redundancias para crear una representación más compacta de los datos.
Los algoritmos de minería de datos de reglas de asociación buscan relaciones o coocurrencias entre elementos en conjuntos de datos grandes, como identificar productos que se compran juntos con frecuencia en un supermercado.
El algoritmo de inteligencia artificial esencialmente aprende la estructura inherente de los datos al minimizar o maximizar una función objetiva que captura la esencia de la estructura "buena" (por ejemplo, minimizar la distancia dentro de los clústeres y maximizar la distancia entre clústeres). Es un proceso exploratorio impulsado por los datos mismos.
Diferentes tipos de aprendizaje no supervisado
El aprendizaje sin supervisión identifica patrones en datos sin etiquetar mediante técnicas como clustering, reducción de dimensiones y minería de reglas de asociación, que se pueden integrar en los flujos de trabajo de MLOps.
Clustering
El clustering es quizás el tipo más conocido de aprendizaje no supervisado. El objetivo principal de la agrupación en clústeres del modelo es agrupar un conjunto de objetos de forma que los objetos del mismo grupo (denominado clúster) sean más parecidos entre sí que los de otros clústeres. El algoritmo descubre estas agrupaciones naturales en los datos basándose en las características inherentes de los puntos de datos.
La agrupación en clústeres suele funcionar midiendo la similitud (o disimilitud) entre los puntos de datos, a menudo utilizando métricas de distancia como la distancia euclidiana o la similitud de coseno. A continuación, asignan puntos de datos a los clústeres para maximizar la similitud dentro del clúster y minimizar la similitud entre clústeres, lo que incluye el proceso de agrupación en clústeres.
Reducción de dimensiones
Las técnicas de reducción de la dimensionalidad pretenden reducir el número de variables o características aleatorias en consideración. Esto es especialmente útil cuando se trata de conjuntos de datos de alta dimensión (conjuntos de datos con muchas características), ya que puede simplificar los datos, reducir la complejidad computacional, mitigar la "maldición de la dimensionalidad" y ayudar en la visualización.
Estos métodos transforman los datos de modelo de un espacio de dimensiones altas en un espacio de dimensiones bajas, mientras intentan conservar las propiedades significativas y la varianza de los datos originales. Esto se puede lograr mediante Selección de funciones (Feature Selection), que selecciona un subconjunto de las funciones originales, o Extracción de funciones (Feature Extraction), que crea un conjunto nuevo y más pequeño de funciones combinando las funciones de ejemplo originales.
Minería de reglas de asociación
La minería de reglas de asociación es un método basado en reglas para descubrir relaciones interesantes entre variables en conjuntos de datos grandes. Se usa ampliamente para identificar patrones de coocurrencia, como artículos que se compran juntos con frecuencia en el análisis de la cesta del mercado.
Estos algoritmos buscan reglas "si entonces" (por ejemplo, si se compra el artículo A, es probable que se compre el artículo B). La fuerza de estas reglas se evalúa mediante métricas como: soporte, que indica la frecuencia con la que aparecen los elementos en el conjunto de datos; confianza, que indica la frecuencia con la que se ha determinado que la regla es verdadera; y Lift, que mide la probabilidad de que se compre el elemento B cuando se compra el elemento A, en comparación con la probabilidad general de que se utilice.
Detección de anomalías (detección de valores atípicos)
Aunque a veces se considera un campo separado, la detección de anomalías a menudo emplea técnicas no supervisadas para identificar puntos de datos, eventos u observaciones que se desvían significativamente de la mayoría de los datos: las "anomalías" o "valores atípicos". Dado que las anomalías son raras y a menudo desconocidas de antemano, los métodos no supervisados son adecuados, ya que no requieren un conocimiento previo (etiquetas) de lo que constituye una anomalía.
En este caso, los métodos crean un modelo de comportamiento normal de los datos y, a continuación, identifican las instancias que no se ajustan a este modelo. Esto puede basarse en propiedades estadísticas, distancias, densidades o errores de reconstrucción.
Desafíos y limitaciones del aprendizaje no supervisado
Si bien el aprendizaje no supervisado ofrece herramientas poderosas para descubrir información oculta en los datos mediante la canalización de aprendizaje automático para el modelo, también incluye su propio conjunto de desafíos y limitaciones. Tal vez uno de los obstáculos más importantes sea la dificultad para evaluar los resultados.
A diferencia del aprendizaje supervisado, donde los modelos se evalúan con etiquetas conocidas, el aprendizaje no supervisado carece de una "verdad fundamental" definitiva. Esto hace que sea inherentemente más difícil medir objetivamente la calidad o el significado de los patrones descubiertos, lo que a menudo requiere métodos de validación más subjetivos o indirectos.
Además, la interpretación de los resultados de los algoritmos de inteligencia artificial no supervisados depende en gran medida de la experiencia de ejemplo de dominio para el modelo. Los patrones, clústeres o dimensiones reducidas identificados por el modelo necesitan un examen cuidadoso por parte de alguien con conocimientos en el campo específico para determinar su significado real y sus implicaciones prácticas. Sin este aporte de expertos, existe el riesgo de malinterpretar los hallazgos o de centrarse en patrones que son estadísticamente interesantes pero prácticamente irrelevantes.
Variaciones de rendimiento
El rendimiento de los modelos de aprendizaje no supervisados es muy sensible a la elección y ampliación de funciones. Las funciones irrelevantes o mal escaladas pueden oscurecer patrones significativos o llevar a los algoritmos a descubrir estructuras engañosas.
En consecuencia, a menudo es necesario realizar un esfuerzo significativo en la ingeniería y el preprocesamiento de características para lograr resultados de ejemplo útiles. Además, si bien el aprendizaje no supervisado sobresale en la identificación de estructuras inherentes, no predice directamente resultados específicos o variables objetivo, lo que puede ser una limitación si una tarea predictiva es el objetivo final.
Algunos algoritmos, en particular los que tratan con conjuntos de datos muy grandes o de gran dimensionalidad, también pueden ser intensivos en el cálculo y exigir recursos considerables. Por último, siempre existe la posibilidad de que los algoritmos descubran patrones espurios o sin sentido, especialmente si los datos son ruidosos o si el método elegido no se adapta bien a la estructura subyacente del conjunto de datos, lo que hace que el análisis y la validación cuidadosos sean cruciales.
Aprendizaje no supervisado frente a aprendizaje supervisado
Comprender la distinción entre aprendizaje de modelos no supervisado y supervisado es fundamental para comprender el panorama del aprendizaje automático. Si bien ambos tienen por objeto extraer conclusiones a partir de los datos, sus enfoques y objetivos difieren significativamente, principalmente en función de la naturaleza de los datos de entrada que utilizan. La diferencia más crucial reside en los datos en sí.
Aprendizaje supervisado
Los algoritmos de aprendizaje automático supervisados funcionan con datos de ejemplo etiquetados. Esto significa que, para el proceso supervisado, cada punto de datos del conjunto de entrenamiento tiene una variable de salida o destino conocida asociada a él. El algoritmo aprende a asignar características de entrada a estas etiquetas predefinidas.
El objetivo principal del proceso supervisado es predecir un resultado específico o la clasificación de los datos en categorías conocidas. Por ejemplo, predecir los precios de la vivienda en función de características como el tamaño y la ubicación (donde se conocen los precios históricos) o clasificar los mensajes de correo electrónico como spam o no spam (donde los mensajes de correo electrónico están etiquetados previamente) son tareas de aprendizaje supervisadas habituales.
Aprendizaje sin supervisión
Los algoritmos de aprendizaje automático no supervisados, por el contrario, funcionan con datos de ejemplo no etiquetados cuando modelan. Los puntos de datos del modelo no tienen salidas ni categorías predefinidas. El algoritmo debe explorar los datos para encontrar patrones, estructuras o relaciones inherentes por sí solo.
El objetivo principal aquí es descubrir patrones ocultos, agrupar elementos similares o reducir la complejidad de los datos. Un ejemplo sería segmentar a los clientes en diferentes grupos en función de su comportamiento de compra (sin conocimiento previo de estos grupos), o identificar anomalías en el tráfico de red.
Comparación de características clave
Desglosemos las características distintivas de cada enfoque de modelo de inteligencia artificial. Cuando pensamos en el aprendizaje supervisado, encontramos las siguientes características:
- Datos de entrada: Utiliza datos etiquetados, lo que significa que cada punto de datos viene con una salida o etiqueta correcta correspondiente.
- Objetivo principal: Tiene como objetivo predecir los resultados de los nuevos datos o clasificar los datos en categorías predefinidas en función de la asignación aprendida de los datos de formación etiquetados.
- Algoritmos : Entre los algoritmos comunes se incluyen Regresión lineal, Regresión logística, Máquinas vectoriales de soporte (SVM), Árboles de decisión y Redes neuronales (para tareas supervisadas).
- Orientación: El proceso de aprendizaje está guiado explícitamente por las variables objetivo conocidas en el conjunto de datos de formación.
- Tareas comunes: Entre los ejemplos se incluyen la detección de spam en correos electrónicos, el reconocimiento de imágenes (por ejemplo, la identificación de gatos en fotos), el diagnóstico médico basado en datos de pacientes y la previsión de los precios de las acciones.
- Evaluación El rendimiento se mide normalmente comparando las predicciones del algoritmo con las etiquetas conocidas, usando métricas como precisión, precisión, recuperación, puntuación F1 o error cuadrático medio.
Por el contrario, un modelo de aprendizaje no supervisado presenta estas características:
- Datos de entrada: Funciona con datos de ejemplo sin etiqueta, donde sólo se proporcionan características de entrada sin ninguna variable de salida correspondiente.
- Objetivo principal: Se centra en descubrir patrones ocultos, estructuras inherentes o relaciones dentro de los datos. Esto incluye la agrupación de puntos de datos similares (clustering), la reducción del número de características (reducción de la dimensionalidad) o la búsqueda de patrones de coocurrencia (minería de reglas de asociación).
- Algoritmos : Los algoritmos más populares incluyen clustering de K-Means, clustering jerárquico, análisis de componentes principales (PCA), algoritmos Apriori Los codificadores automáticos, a menudo clasificados como técnicas de aprendizaje autosupervisadas, se pueden utilizar para la reducción de la dimensionalidad y la detección de anomalías.
- Orientación: El algoritmo explora los datos sin orientación explícita ni respuestas correctas predefinidas.
- Tareas comunes: Algunos ejemplos son la segmentación de clientes para marketing, la detección de anomalías en transacciones financieras, el modelado de temas en documentos de texto grandes y la creación de sistemas de recomendación.
- Evaluación La evaluación es a menudo más difícil y subjetiva, ya que no hay respuestas "correctas" para comparar. Las métricas pueden incluir cohesión y separación de clústeres (para clustering), la cantidad de varianza retenida (para reducción de dimensionalidad) o la evaluación humana de los patrones descubiertos.
Cuándo utilizarlo, que es una pregunta totalmente diferente. Podría decirse que debería elegir el aprendizaje supervisado cuando haya etiquetado los datos y un resultado objetivo claro que desee predecir o utilizar para la clasificación.
Debe optar por el aprendizaje sin supervisión de la inteligencia artificial cuando tenga datos sin etiquetar y desee explorarlos para obtener información oculta, agruparlos o simplificar su estructura.
Casos prácticos de aprendizaje automático no supervisados
El aprendizaje no supervisado, al descubrir patrones ocultos en datos sin etiquetar para un modelo, impulsa una variedad de aplicaciones impactantes en muchas industrias. Las aplicaciones clave incluyen:
- Aplicaciones de clustering : Estos métodos agrupan puntos de datos similares para descubrir segmentos naturales. Los usos comunes incluyen la segmentación de clientes para marketing dirigido, la organización de grandes conjuntos de documentos por tema (modelado de temas), la segmentación de imágenes para identificar objetos y la identificación de comunidades en redes sociales.
- Aplicaciones de reducción de dimensiones : Estas técnicas simplifican conjuntos de datos complejos al reducir el número de características y, al mismo tiempo, conservan información importante. Esto es vital para visualizar datos de alta dimensión, mejorar la eficiencia y el rendimiento de otros modelos de aprendizaje automático mediante ingeniería de características y reducir el ruido en los datos.
- Aplicaciones de minería de reglas de asociación: Este tipo de algoritmo de máquina descubre relaciones interesantes y patrones de coocurrencia entre elementos en conjuntos de datos grandes. Es famosa por su uso para análisis de cestas de mercado en el comercio minorista (para ver qué productos se compran juntos), impulsando motores de recomendación en comercio electrónico y servicios de transmisión y analizando patrones de uso de la web.
- Aplicaciones de detección de anomalías : Estas aplicaciones se centran en la identificación de elementos raros, eventos u observaciones que se desvían significativamente de la norma. Los casos de uso crítico incluyen la detección de fraude en transacciones financieras, la detección de intrusiones en sistemas de ciberseguridad, la identificación de defectos en los procesos de fabricación y el monitoreo de la salud del paciente para detectar signos vitales inusuales.
OVHcloud y el aprendizaje no supervisado
Para implementar y escalar de manera efectiva proyectos de aprendizaje no supervisados y su modelo, son esenciales herramientas e infraestructuras sólidas. OVHcloud ofrece varias soluciones diseñadas para apoyar el desarrollo, la implementación y la gestión de modelos de machine learning, incluidos los utilizados en contextos de aprendizaje no supervisados:

AI Deploy
Implemente y escale sin esfuerzo sus modelos de aprendizaje automático con AI Deploy. Reduzca la brecha entre el desarrollo y la producción de inteligencia artificial al hacer que sus modelos de IA sean fácilmente accesibles a través de las API. Concéntrese en sus algoritmos mientras gestionamos la infraestructura, garantizando una alta disponibilidad y rendimiento para sus aplicaciones inteligentes.

AI & Machine Learning
Acelere sus flujos de trabajo de IA y machine learning con nuestra solución de machine learning potente y escalable. Machine Learning de OVHcloud AI le ofrece las herramientas y la infraestructura necesarias para entrenar, gestionar e implementar sus modelos de forma eficaz.

Public Cloud
Cree, implemente y gestione sus aplicaciones de inteligencia artificial con flexibilidad y control en la solución Public Cloud de OVHcloud. Nuestra infraestructura sólida y escalable ofrece una amplia gama de servicios, que incluyen instancias informáticas, soluciones de almacenamiento de información y capacidades de redes.