9. Métricas de evaluación y validación cruzada

Cuando se trabaja con aprendizaje automático y aprendizaje profundo, es fundamental no solo crear modelos que parezcan funcionar bien, sino también garantizar que estos modelos sean sólidos, confiables y que su desempeño pueda cuantificarse adecuadamente. Esto se logra mediante el uso de técnicas de validación cruzada y métricas de evaluación.

Validación cruzada

La validación cruzada es una técnica utilizada para evaluar la capacidad de generalización de un modelo, es decir, su capacidad para funcionar bien con datos nunca antes vistos. Es esencial evitar problemas como el sobreajuste, donde el modelo se ajusta perfectamente a los datos de entrenamiento pero no logra manejar datos nuevos.

Hay varias formas de realizar una validación cruzada, pero la más común es la validación cruzada k-fold. En este enfoque, el conjunto de datos se divide en k partes (o "pliegues") de aproximadamente el mismo tamaño. El modelo se entrena k veces, cada vez usando k-1 pliegues para entrenamiento y el pliegue restante para prueba. Esto da como resultado k medidas de rendimiento diferentes, que generalmente se resumen como una media y una desviación estándar para proporcionar una estimación más estable de la capacidad del modelo.

Métricas de evaluación

Las métricas de evaluación se utilizan para cuantificar el rendimiento de un modelo de aprendizaje automático. La elección de la métrica adecuada depende en gran medida del tipo de problema que se resuelve (clasificación, regresión, ranking, etc.) y de los objetivos específicos del proyecto. A continuación se muestran algunas de las métricas más comunes utilizadas en problemas de clasificación y regresión:

Clasificación

  • Precisión: La proporción de predicciones correctas en relación con el número total de casos. Aunque es la métrica más intuitiva, puede resultar engañosa en conjuntos de datos desequilibrados.
  • Precisión: La proporción de predicciones positivas correctas en relación con el total de predicciones positivas. Es una métrica importante cuando el coste de un falso positivo es alto.
  • Recuerdo (Sensibilidad): La proporción de verdaderos positivos en relación con el número total de casos verdaderos positivos. Es crucial cuando el coste de un falso negativo es significativo.
  • Puntuación F1: Una medida armónica entre precisión y recuperación. Es útil cuando se busca un equilibrio entre estas dos métricas.
  • AUC-ROC: El área bajo la curva característica operativa del receptor (AUC-ROC) es una métrica de rendimiento para clasificadores binarios. Mide la capacidad del modelo para distinguir entre clases.

Regresión

  • Error cuadrático medio (MSE): La media de los cuadrados de las diferencias entre los valores previstos y reales. Penaliza más los grandes errores.
  • Error absoluto medio (MAE): El promedio del valor absoluto de las diferencias entre las predicciones y los valores reales. Es menos sensible a los valores atípicos que MSE.
  • Error cuadrático medio (RMSE): La raíz cuadrada del MSE. Es útil porque está en la misma unidad que los datos de entrada y es más sensible a los valores atípicos que MAE.
  • Coeficiente de determinación (R²): una medida de qué tan bien las predicciones del modelo se aproximan a los datos reales. Un valor R² cercano a 1 indica un muy buen ajuste.

Implementación de validación cruzada en Python

En Python, la biblioteca Scikit-learn ofrece potentes herramientas para realizar validación cruzada y calcular métricas de evaluación. El módulo model_selection tiene la clase KFold para realizar una validación cruzada de k veces, y el módulo metrics proporciona funciones para calcular varias métricas de rendimiento. p>


desde sklearn.model_selection importar cross_val_score, KFold
Desde sklearn.metrics importe exactitud_puntuación, precisión_puntuación, recuperación_puntuación, f1_score, mean_squared_error, r2_score
de sklearn.ensemble importar RandomForestClassifier
desde sklearn.datasets importar make_classification

# Creando un conjunto de datos de ejemplo
X, y = hacer_clasificación(n_muestras=1000, n_características=20, n_informativo=2, n_redundante=10, estado_aleatorio=42)

# Instanciando el modelo
modelo = RandomForestClassifier()

# Realizar una validación cruzada de k veces
kf = KFold(n_divisiones=5)
puntuaciones = cross_val_score(modelo, X, y, cv=kf)

print(f"Precisión promedio: {scores.mean():.2f} (+/- {scores.std() * 2:.2f})")

Este enfoque permite a los profesionales del aprendizaje automático y del aprendizaje profundo probar y comparar diferentes modelos de manera justa y rigurosa, garantizando que los resultados sean confiables y reproducibles.

Conclusión

Las métricas de evaluación y validación cruzada son elementos cruciales en el desarrollo de modelos de aprendizaje automático y aprendizaje profundo. Proporcionan un marco para evitar el sobreajuste ycomprender verdaderamente el rendimiento del modelo. Al aplicar estas técnicas y métricas correctamente, puede desarrollar modelos sólidos y confiables que funcionen bien en la práctica, no solo en un conjunto de datos de entrenamiento específico.

Ahora responde el ejercicio sobre el contenido:

¿Cuál es el objetivo principal de la validación cruzada en el aprendizaje automático?

¡Tienes razón! Felicitaciones, ahora pasa a la página siguiente.

¡Tú error! Inténtalo de nuevo.

Imagen del artículo Modelos de clasificación: árboles de decisión y K-NN

Siguiente página del libro electrónico gratuito:

38Modelos de clasificación: árboles de decisión y K-NN

4 minutos

¡Obtén tu certificado para este curso gratis! descargando la aplicación Cursa y leyendo el libro electrónico allí. ¡Disponible en Google Play o App Store!

Disponible en Google Play Disponible en App Store

+ 6,5 millones
estudiantes

Certificado gratuito y
válido con código QR

48 mil ejercicios
gratis

Calificación de 4.8/5
en tiendas de aplicaciones

Cursos gratuitos de
vídeo, audio y texto.