graph LR
A(隐马尔科夫模型) -->B(概率计算算法)
A -->C(学习算法-最大似然求模型参数)
A -->D(预测算法-已知模型参数和观测序列求状态序列)
B --> E(直接计算法-已知模型参数求观测序列出现概率)
B --> F(前向算法)
B --> G(后向算法)
C --> H(BaumWelch-无监督,只知道观测序列)
C --> HH(有监督,知道观测序列,知道状态序列)
HH --> HHH(列举所有转移频次,求概率)
D --> I(近似算法)
D --> J(维特比算法)
E --> K(列举所有可能的状态序列与观测序列的联合概率 求和)
F --> L(在时刻t 观测序列为o1 o2 o3 至 ot 且状态为qi的前向概率 从前向后递推)
I --> M(每个t时刻生成最有可能出现的状态it 分子:t时刻状态为特定i的概率乘以转移观测序列ot,分母:t时刻状态为所有i的概率乘以每个i转移ot的概率.缺点相邻的it有可能转移概率为0)
J--> N(动态规划,每步结合观测序列递推 )
G --> O(在时刻t 观测序列为ot+1 ot+2 ot+3 至 oT 且状态为qi的后向概率 从后向前递推)
graph LR
A(条件随机场模型) -->B(概率无向图)
A -->C(学习算法-最大似然求模型参数)
A -->D(预测算法-已知模型参数和观测序列求状态序列)
- 生成模型 通过联合概率分布求条件概率分布 可包含隐变量
- 判别模型 直接求条件概率分布
朴素贝叶斯公式
朴素:
集成学习
graph LR
A(集成学习) -->B(bagging-并行计算树)
A -->C(AdaBoost-迭代错分类权重)
A -->D(boosting)
B(bagging-并行计算树)-->E(随机森林-随机特征随机样本-多个弱分类器组合)
D(boosting)-->H(GBDT)
D(boosting)-->F(XgBoost)
D(boosting)-->G(lightGBM)
ROC公式
AUC公式
```mermaid graph LR A(开始) -->B(起床) B --天气不好--- C>干活] C ==> D{休息时间到了} D -.yes.-> E((休息)) D -.no.-> C E --> F(吃饭)