15. Algoritmos de Clustering: K-Means e Hierarchical Clustering

Página 43

Algoritmos de Clustering: K-Means e Hierarchical Clustering

Algoritmos de Clustering: K-Means e Hierarchical Clustering

O clustering é uma técnica de aprendizado de máquina que envolve a agrupação de pontos de dados. Em teoria, os pontos de dados que estão no mesmo grupo devem ter características ou propriedades semelhantes, enquanto os pontos de dados em diferentes grupos devem ter características distintas. Dentre os algoritmos de clustering, o K-Means e o Hierarchical Clustering estão entre os mais utilizados. Neste texto, exploraremos esses dois métodos em detalhes.

K-Means Clustering

O K-Means é um método de clustering que visa particionar n observações em k clusters, onde cada observação pertence ao cluster com a média mais próxima. Esse método é particularmente eficiente em termos computacionais e fácil de implementar, o que o torna um dos algoritmos de clustering mais populares.

Funcionamento do K-Means

O algoritmo K-Means segue uma abordagem simples para classificar um dado conjunto de dados através de um certo número de clusters (assumido como k clusters). O processo é composto pelas seguintes etapas:

  1. Inicialização: Escolha de k pontos aleatórios como centros de clusters (centroides).
  2. Atribuição: Atribua cada ponto de dados ao centroide mais próximo, formando k clusters.
  3. Atualização: Recalcule os centroides como sendo o centro (média) de todos os pontos de dados atribuídos ao cluster.
  4. Repetição: Repita os passos 2 e 3 até que os centroides não mudem significativamente, o que indica a convergência do algoritmo.

Desafios do K-Means

Apesar de sua simplicidade e eficiência, o K-Means enfrenta alguns desafios:

  • A escolha do número k de clusters pode ser difícil e pode exigir métodos como o método do cotovelo ou a análise de silhueta para determinar o número ótimo de clusters.
  • O algoritmo é sensível à inicialização dos centroides e pode convergir para mínimos locais. Isso pode ser parcialmente mitigado com métodos como o K-Means++ para uma inicialização mais inteligente dos centroides.
  • O K-Means assume que os clusters são esféricos e de tamanho similar, o que pode não ser o caso para todos os conjuntos de dados.

Hierarchical Clustering

Em contraste com o K-Means, o clustering hierárquico não requer a especificação prévia do número de clusters. Em vez disso, ele cria uma árvore de clusters chamada dendrograma, que permite visualizar a estrutura dos dados e determinar o número de clusters pela análise do dendrograma.

Funcionamento do Hierarchical Clustering

Existem dois tipos de clustering hierárquico: aglomerativo (bottom-up) e divisivo (top-down). O método aglomerativo é o mais comum e funciona da seguinte maneira:

  1. Comece tratando cada ponto de dados como um cluster individual.
  2. Encontre os dois clusters mais próximos e combine-os em um único cluster.
  3. Repita o passo 2 até que todos os pontos de dados estejam em um único cluster.

O resultado é uma árvore que reflete a estrutura dos dados.

Medição de Distância no Hierarchical Clustering

Uma parte crucial do clustering hierárquico é a escolha de uma métrica de distância para determinar a proximidade entre os clusters. Algumas das métricas mais comuns incluem:

  • Distância Euclidiana
  • Distância de Manhattan
  • Distância Máxima
  • Distância de Mahalanobis

Além disso, é necessário definir como medir a distância entre conjuntos de pontos de dados (clusters). Algumas abordagens incluem o método do link simples (menor distância entre pontos de diferentes clusters), link completo (maior distância entre pontos de diferentes clusters) e link médio (distância média entre todos os pares de pontos de diferentes clusters).

Vantagens e Desvantagens do Hierarchical Clustering

O clustering hierárquico tem várias vantagens e desvantagens:

  • Vantagens:
    • Não é necessário especificar o número de clusters de antemão.
    • O dendrograma produzido é muito informativo e mostra a estrutura dos dados.
    • Pode ser mais adequado para certos tipos de dados estruturais.
  • Desvantagens:
    • Computacionalmente mais intensivo do que o K-Means, especialmente para grandes conjuntos de dados.
    • Difícil de aplicar quando temos uma grande quantidade de dados.
    • Uma vez que um ponto de dados é atribuído a um cluster, não pode ser movido para outro.

Conclusão

Os algoritmos de clustering K-Means e Hierarchical Clustering são ferramentas poderosas para a análise de dados não supervisionada. O K-Means é adequado para grandes conjuntos de dados e onde se tem uma noção do número de clusters. Já o clustering hierárquico é útil quando a estrutura dos dados é desconhecida e se deseja uma representação visual através do dendrograma. A escolha entre os dois métodos dependerá das características específicas do conjunto de dados e dos objetivos da análise.

Ahora responde el ejercicio sobre el contenido:

Qual dos seguintes pontos é verdadeiro sobre o algoritmo K-Means de clustering?

¡Tienes razón! Felicitaciones, ahora pasa a la página siguiente.

¡Tú error! Inténtalo de nuevo.

Siguiente página del libro electrónico gratuito:

4416. Introdução ao Deep Learning e Redes Neurais Artificiais

¡Obtén tu certificado para este curso gratis! descargando la aplicación Cursa y leyendo el libro electrónico allí. ¡Disponible en Google Play o App Store!

Disponible en Google Play Disponible en App Store

+ 6,5 millones
estudiantes

Certificado gratuito y
válido con código QR

48 mil ejercicios
gratis

Calificación de 4.8/5
en tiendas de aplicaciones

Cursos gratuitos de
vídeo, audio y texto.