在算法开始时,为训练数据集中的每一个样本设定一个相同的权重。如对于样本集
\(D=\left\{ (x_1,y_1),(x_2,y_2),…,(x_n,y_n) \right\}\),初始权重为
\(w^{(1)}=\left( w_{1}^{(1)} ,w_{2}^{(1)},…,w_{n}^{(1)} \right)\) ,其中
\(w_{i}^{(1)}=\frac{1}{n}\),即在第一轮训练时,每个样本在模型训练中的重要度是相同的。
AdaBoost算法的原理及Python实现
未经允许不得转载:小健博客 » AdaBoost算法的原理及Python实现