08、机器学习-决策树系列 - 猎人搜索 轻松搜寻全网资源
- file:20:Adaboost算法思路.mp4
- file:19:OOB袋外数据.mp4
- file:21:调整数据权重让权重正确率达到50%.mp4
- file:22:Adaboost如何调整样本权重和求基模型权重.mp4
- file:17:随机森林.mp4
- file:15:不同聚合方式_生成不同弱学习器方式.mp4
- file:16:Bagging_Boosting_Stacking.mp4
- file:18:代码实战随机森林对鸢尾花数据集分类.mp4
- file:1:决策树模型的特点.mp4
- file:11:代码训练回归树拟合SineWave.mp4
- file:10:绘制决策树模型_寻找最优树深度.mp4
- file:13:CCP代价复杂度后剪枝.mp4
- file:5:Gini系数.mp4
- file:3:如何构建一颗决策树.mp4
- file:8:预剪枝以及相关超参数.mp4
- file:4:什么是更好的一次划分.mp4
- file:7:熵与Gini系数关系_信息增益率.mp4
- file:37:GBDT二分类举例详解.mp4
- file:30:GBDT中shrinkage学习率和最优树权重ρ可以共存.mp4
- file:29:GBDT二分类拟合的负梯度依然是残差.mp4
- file:32:GBDT多分类如何每轮给K颗小树准备要去拟合的负梯度.mp4
- file:24:GBDT令每个弱学习器f(x)去拟合负梯度.mp4
- file:39:计算特征重要度进行特征选择.mp4
- file:45:GBDT+LR架构预测评估代码实现.mp4
- file:23:GBDT试图使用有监督最优化算法梯度下降求解F(x).mp4
- file:34:对比GBDT回归、二分类、多分类相同点与不同点.mp4
- file:43:GBDT在sklearn中源码剖析_负梯度计算和叶子节点分值计算.mp4
- file:40:GBDT用于特征组合降维.mp4
- file:41:特征组合降维在GBDT+LR架构应用.mp4
- file:25:GBDT每棵树都是回归树_准备数据才能训练下一颗小树.mp4
- file:50:通过目标函数Obj来达到准确率和复杂度平衡.mp4
- file:58:根据Obj收益指导每一次分裂从而学习一棵树结构.mp4
- file:55:重新定义树ft和树的复杂度Ω.mp4
- file:53:推导XGBoost对Loss二阶泰勒展开之后的Obj.mp4
- file:60:XGBoost中防止过拟合的前剪枝_后剪枝_学习率.mp4
- file:59:举例说明从连续型和离散型变量中寻找最佳分裂条件.mp4
- file:61:样本权重对于模型学习的影响.mp4
- file:52:得出XGBoost最开始的Obj目标函数.mp4
- file:47:Bias_Variance_Trade-off.mp4
- file:57:推导XGBoost出Wj计算公式_推导评价树好坏的Obj.mp4
- file:46:回顾有监督机器学习三要素.mp4
- file:48:基于树集成学习4个优点.mp4
- file:54:Obj化简常数项_明确训练每颗回归树需要准备gi和hi.mp4
- file:56:由每个叶子节点重组目标函数Obj.mp4
- file:51:Objective_vs_Heuristic.mp4
- file:49:回顾基于树集成学习的模型和参数并举例说明.mp4
- file:62:总结XGBoost的特性_包括缺失值的处理策略.mp4
- folder:08、机器学习-决策树系列
- folder:章节2:集成学习和随机森林
- folder:章节1:决策树
- folder:章节4:XGBoost
分享时间 | 2025-03-25 |
---|---|
入库时间 | 2025-03-25 |
状态检测 | 有效 |
资源类型 | QUARK |
分享用户 | 荷* |
资源有问题?点此举报