#机器学习
一元线性回归
$$ f(x) = wx + b $$
一元线性回归神经网络
$$ y=f(\sum\limits_{i=1}^{n}w_ix_i-\theta)=f(w^Tx+b) $$
神经网络决策树
$$ Gini_index(D,a)=\frac{|D^{a=v}|}{D}Gini(D^{a=v}) + \frac{|D^{a\neq v}|}{D}Gini(D^{a\neq v}) $$
决策树导论
为什么机器学习被深度学习取代
只需一个包含足够多神经元的隐层,和多层前馈网络就能够以任意精度逼近任意复杂度的连续函数,既能作回归,也能做分类,而且不需要复杂的特征工程
导论