SDU机器学习试题回忆
本文最后更新于:2022年7月7日 上午
1 线性回归和正则化 (15’)
求线性回归的Hessian矩阵
证明对于线性回归,使用牛顿法,迭代⼀次即得最优解$\theta^*=(X^TX)^{-1}X^T\vec{y}$
证明对于正则化的线性回归,使用牛顿法,迭代⼀次即得最优解$\theta^*=(X^TX+\lambda L)^{-1}X^T\vec{y}$
2 朴素贝叶斯的计算 (20’)
计算所有$p(Y),p(x_i|Y)$
结果为$arg \max_y P(y)\prod P(x_i|y)$
3 Soft-Margin SVM的变体 (30’)
证明约束条件$\xi_i \ge 0$不用显式给出
写出原问题的KKT条件
写出原问题的对偶问题
4 EM的变体 将原始M-step改用梯度上升法 (20’)
证明收敛性
证明正确性即两式求导结果相等
5 论述 (15’)
K-means步骤
PCA步骤
Bias, Variance, Complexity关系
本文作者: 31
本文链接: http://uuunni.github.io/2022/01/15/MLmemory/
版权声明: 本博客所有文章除特别声明外,均采用 CC BY-SA 4.0 协议 ,转载请注明出处!