Imagem do artigo Avaliação de Modelos e Métricas de Desempenho: Curvas de validação

25.15. Avaliação de Modelos e Métricas de Desempenho: Curvas de validação

Página 88 | Ouça em áudio

25.15. Avaliação de Modelos e Métricas de Desempenho: Curvas de Validação

Avaliar a qualidade de um modelo preditivo é fundamental para entender o seu desempenho e garantir que as previsões sejam confiáveis. No contexto de aprendizado de máquina com Python, várias métricas e ferramentas estão disponíveis para medir a eficácia de um modelo. Entre essas ferramentas, as curvas de validação são essenciais para qualquer analista ou cientista de dados. Este capítulo explora a importância das curvas de validação e como elas podem ser usadas para avaliar e melhorar os modelos preditivos.

O que são Curvas de Validação?

As curvas de validação são gráficos que mostram o desempenho de um modelo em função de um ou mais parâmetros de treinamento. Elas são usadas para visualizar a relação entre a complexidade do modelo e a sua eficácia, ajudando a identificar tanto o underfitting (quando o modelo é muito simples e não consegue capturar a complexidade dos dados) quanto o overfitting (quando o modelo é muito complexo e captura ruídos nos dados como se fossem padrões significativos).

Por que são Importantes?

Usar curvas de validação permite que os cientistas de dados ajustem os parâmetros de um modelo para alcançar o melhor equilíbrio entre viés e variância. Esse equilíbrio é crucial para garantir que o modelo generalize bem para dados não vistos, em vez de apenas memorizar os dados de treinamento.

Como Funcionam as Curvas de Validação?

Para gerar uma curva de validação, variamos um parâmetro do modelo e calculamos uma métrica de desempenho para cada valor desse parâmetro. Isso é feito tanto para o conjunto de treinamento quanto para um conjunto de validação ou por meio de validação cruzada. Os resultados são então plotados em um gráfico, com o parâmetro no eixo x e a métrica de desempenho no eixo y.

Métricas de Desempenho Comuns

As métricas de desempenho que podem ser usadas nas curvas de validação dependem do tipo de problema (classificação, regressão, clustering, etc.). Algumas das métricas mais comuns incluem:

  • Acurácia: Usada em problemas de classificação para medir a proporção de previsões corretas.
  • Precisão: Também para classificação, mede a proporção de identificações positivas que foram realmente corretas.
  • Recall: Mede a proporção de positivos reais que foram identificados corretamente.
  • F1-Score: Combina precisão e recall em uma única métrica que leva em conta tanto os falsos positivos quanto os falsos negativos.
  • ROC-AUC: Área sob a curva do gráfico de característica de operação do receptor, uma métrica que considera a relação entre a taxa de verdadeiros positivos e a taxa de falsos positivos.
  • MSE: Mean Squared Error, ou erro quadrático médio, usado em problemas de regressão para medir a média dos quadrados dos erros.
  • RMSE: Root Mean Squared Error, a raiz quadrada do MSE, que traz os erros de volta para a escala original dos dados.

Implementando Curvas de Validação em Python

Python, através de bibliotecas como scikit-learn, fornece ferramentas para criar facilmente curvas de validação. O processo geralmente envolve os seguintes passos:

  1. Escolha do modelo e do parâmetro a ser variado.
  2. Definição de um intervalo de valores para o parâmetro escolhido.
  3. Uso da função validation_curve do scikit-learn para calcular as métricas de desempenho para cada valor do parâmetro.
  4. Plotagem dos resultados em um gráfico.

Um exemplo de código em Python para gerar uma curva de validação pode ser o seguinte:


from sklearn.model_selection import validation_curve
from sklearn.svm import SVC
import numpy as np
import matplotlib.pyplot as plt

# Definindo o modelo e o intervalo do parâmetro
model = SVC(kernel='rbf')
param_range = np.logspace(-6, -1, 5)

# Calculando a curva de validação
train_scores, test_scores = validation_curve(
    model, X, y, param_name="gamma", param_range=param_range,
    cv=3, scoring="accuracy", n_jobs=1)

# Calculando as médias e desvios padrão
train_scores_mean = np.mean(train_scores, axis=1)
train_scores_std = np.std(train_scores, axis=1)
test_scores_mean = np.mean(test_scores, axis=1)
test_scores_std = np.std(test_scores, axis=1)

# Plotando a curva de validação
plt.title("Curva de Validação com SVM")
plt.xlabel("Gamma")
plt.ylabel("Acurácia")
plt.ylim(0.0, 1.1)
lw = 2
plt.semilogx(param_range, train_scores_mean, label="Treinamento",
             color="darkorange", lw=lw)
plt.fill_between(param_range, train_scores_mean - train_scores_std,
                 train_scores_mean + train_scores_std, alpha=0.2,
                 color="darkorange", lw=lw)
plt.semilogx(param_range, test_scores_mean, label="Validação Cruzada",
             color="navy", lw=lw)
plt.fill_between(param_range, test_scores_mean - test_scores_std,
                 test_scores_mean + test_scores_std, alpha=0.2,
                 color="navy", lw=lw)
plt.legend(loc="best")
plt.show()

Esse exemplo mostra como ajustar o parâmetro 'gamma' de um SVM com kernel RBF e visualizar seu efeito na acurácia do modelo.

Interpretando as Curvas de Validação

Uma curva de validação típica terá duas linhas: uma para o desempenho no conjunto de treinamento e outra para o desempenho na validação cruzada. Se as duas linhas estão próximas e ambas têm baixo desempenho, o modelo pode estar sofrendo de underfitting. Se a linha de treinamento tem alto desempenho, mas a linha de validação tem desempenho significativamente mais baixo, o modelo pode estar sofrendo de overfitting.

O objetivo é encontrar um ponto em que o desempenho no conjunto de validação seja o mais alto possível, enquanto as duas linhas são relativamente próximas. Isso indica que o modelo está generalizando bem para dados não vistos.

Conclusão

Em resumo, as curvas de validação são uma ferramenta poderosa para avaliar e ajustar modelos de aprendizado de máquina. Ao entender como interpretar essas curvas e aplicar as métricas de desempenho corretas, os cientistas de dados podem desenvolver modelos mais precisos e confiáveis. A prática contínua e a experimentação com diferentes parâmetros e tipos de modelos são essenciais para aprimorar as habilidades analíticas e obter insights valiosos a partir dos dados.

Agora responda o exercício sobre o conteúdo:

Qual das seguintes afirmações sobre curvas de validação é verdadeira?

Você acertou! Parabéns, agora siga para a próxima página

Você errou! Tente novamente.

Imagem do artigo Avaliação de Modelos e Métricas de Desempenho: Sobreajuste e subajuste

Próxima página do Ebook Gratuito:

89Avaliação de Modelos e Métricas de Desempenho: Sobreajuste e subajuste

5 minutos

Ganhe seu Certificado deste Curso Gratuitamente! ao baixar o aplicativo Cursa e ler o ebook por lá. Disponível na Google Play ou App Store!

Disponível no Google Play Disponível no App Store

+ de 6,5 milhões
de alunos

Certificado Gratuito e
Válido em todo o Brasil

48 mil exercícios
gratuitos

4,8/5 classificação
nas lojas de apps

Cursos gratuitos em
vídeo, áudio e texto