Decision Tree & 隨機森林 & Neural Networks

 Github

 .

Kaggle:資料分析競賽

 

 

Decision Tree

決策樹只能使用目標是離散型的,不能試數字型態。

 

Entropy數值越高代表越純

範例 : https://zh.wikipedia.org/wiki/%E5%86%B3%E7%AD%96%E6%A0%91

 

 

x=wind

y=no wind

 

用熵去計算

.

Entropy = x * log(x,2)

Entropy = y * log(y,2)

 

選高的推斷哪種原因下去拆

 

 

篩選熵當作從哪層往下做

 

 

 

比較哪level與tweets哪種比較好?

 

以上結果得知用level去分第一層效果最好

.

 

建立決策樹

 

 

 

Random Forests隨機森林

可當作很多的決策樹去做

從一組資料中隨機抽取資料出來,缺點是可能會再次抽到上次抽的資料。

 

類神經網路

 

輸入層  隱藏層  輸出層

O             O          O

O

 

多個輸入透過一個以上的隱藏層,輸出一個以上的結果

EX: 輪胎不同的成分比例,透過類神經網路分析,要硬度多少、耐久多少、彈性等等屬性,進而去決定輸入原料的比例要調配多少。

 

Neural Networks

.

 

 

預測輸出結果

 

 

 .

備註:2017/05/25 計算方法分析與設計 課堂筆記

Leave a Reply