Una foresta casuale (in ingleserandom forest) è un classificatored'insieme ottenuto dall'aggregazione tramite bagging di alberi di decisione[1][2]
L'algoritmo per la creazione di foreste casuali fu sviluppato originariamente da Leo Breiman e Adele Cutler.[3]Le foreste casuali sono state proposte come soluzione atta a ridurre il sovradattamento del training set negli alberi di decisione.[4]
Il nome viene dalle foreste di decisione casuali che furono proposte per la prima volta da Tin Kam Ho dei Bell Labs nel 1995.[5][6]
Il metodo combina l'idea del bagging di Breiman con la selezione casuale delle caratteristiche, introdotta indipendentemente da Ho e Amit Geman al fine di costruire una collezione di alberi di decisione a varianza controllata.
La selezione di un sottoinsieme di caratteristiche è un esempio del metodo del sottoinsieme casuale che, nella formulazione di Ho, è un modo di implementare la discriminazione stocastica proposta da Eugene Kleinberg.[7]
Applicazioni
In combinazione col metodo chiamato Repeated Incremental and Pruning, trova impiego nella categorizzazione automatica di fatti e opinioni, così come nel fact-checking di singole proposizioni.[8]
^(EN) Tin Kam Ho, Random Decision Forests (PDF), Proceedings of the 3rd International Conference on Document Analysis and Recognition, Montreal, QC, 14–16 August 1995, 1995, pp. 278–282 (archiviato dall'url originale il 17 aprile 2016).