top of page
IBM SPSS Statistics.png
Statistics Decision Trees

Il Modulo Statistics Decision Trees, partendo da un dataset di dati, permette di identificare i gruppi, di rilevare le relazioni e prevedere gli eventi futuri. Integra strutture ad albero decisionali e di classificazione che consentono di rappresentare risultati categorici in modo intuitivo, attraverso grafici ad albero, semplificando la comprensione dei risultati di analisi.

 

Il Modulo Decision Trees include quattro algoritmi di crescita ad albero e offre la possibilità di provare diversi tipi di algoritmi per trovare quello che meglio si adatta ai dati utilizzati. Offre tecniche di creazione di strutture ad albero avanzate, per la classificazione direttamente nell'ambiente Statistics for Data Analysis.

I quattro algoritmi di crescita ad albero includono:

 

  • CHAID—Un algoritmo di statistica ad albero multiplo che consente di visualizzare i dati in modo rapido ed efficiente, creando segmenti e profili in base ai risultati desiderati.

  • Exhaustive CHAID—Una modifica dell'algoritmo CHAID, che esamina tutte le possibili separazioni per ogni predittore.

  • Classification and regression trees (C&RT)—Un algoritmo ad albero binario completo che partiziona i dati e produce subset omogenei precisi.

  • QUEST—Un algoritmo statistico che seleziona le variabili senza influenze e crea strutture ad albero binario precise in modo rapido ed efficiente.

 

 

Le strutture ad albero decisionale con Statistics Decision Trees

Scheda tecnica

Statistics Decision Trees

Logo IBM gold_partner
bottom of page