Section outline
-
平时成绩:6 次平时测验(选择题为主,实验课时先测验再做实验)、考勤:30%
6 次测试内容
test1 01020304讲 test2 0506 讲 test3 0708 讲 test4 09101112 讲 test5 3141516 讲 test6 1718192021 讲 期末及平时测验题库:https://talent.shixizhi.huawei.com/iexam/1365189427395223554/examInfo?examId=1592050502435512939&sxz-lang=zh_CN
Previous midterms are available: Without solutions: Spring 2013, Spring 2014, Spring 2015, Fall 2015, Spring 2016, Spring 2017, Spring 2019, Summer 2019, Spring 2020 Midterm A, Spring 2020 Midterm B, Spring 2021, Spring 2022, Spring 2023, Spring 2024. With solutions: Spring 2013, Spring 2014, Spring 2015, Fall 2015, Spring 2016, Spring 2017, Spring 2019, Summer 2019, Spring 2020 Midterm A, Spring 2020 Midterm B, Spring 2021, Spring 2022, Spring 2023, Spring 2024.
Previous final exams are available. Without solutions: Spring 2013, Spring 2014, Spring 2015, Fall 2015, Spring 2016, Spring 2017, Spring 2019, Spring 2020, Spring 2021, Spring 2022, Spring 2023, Spring 2024. With solutions: Spring 2013, Spring 2014, Spring 2015, Fall 2015, Spring 2016, Spring 2017, Spring 2019, Spring 2020, Spring 2021, Spring 2022, Spring 2023, Spring 2024.
平时成绩加分:新出或测试上述题库质量的题目,deepseek回答错误,截图发到论坛,每个题目平时成绩加5分;翻转课堂讲解moldelarts gallery AI ipynb代码,每次加5分(平时成绩100分加满为止)。
考勤每次缺席扣5分。
期末考试:70%
1.客观题15分:numpy题库3题 华为认证题库 或cs189客观题12题(会改成填空题)https://talent.shixizhi.huawei.com/iexam/1365189427395223554/examInfo?examId=1592050502435512939&sxz-lang=zh_CN
2.传统机器学习25分 模型评估、朴素贝叶斯、SVM、集成学习、PCA、K-Means
3.DNNCNN 20分 (传统机器学习的 梯度下降、逻辑回归、感知机通常合并在此考)
4.RNN 20分
5. Transformer 20分
题库:同平时测验(大题为主)
算法 模型假设 损失函数 优化方法 朴素贝叶斯 特征条件独立(给定类别下特征独立) 对数似然损失(最大似然估计) 极大似然估计(或EM算法处理缺失值) SVM 数据线性可分(或通过核函数映射到高维可分),最大化分类间隔 Hinge Loss + L2正则化项 拉格朗日对偶 + SMO(序列最小优化) 集成学习 - 随机森林:特征子集独立性
- GBDT:残差逐步拟合- 随机森林:基尼系数/信息增益
- GBDT:自定义损失(如平方损失、对数损失)- 随机森林:Bagging
- GBDT:梯度下降(加法模型)PCA 数据在低维线性子空间上方差最大 重构误差最小化(或协方差矩阵特征值最大化) 特征值分解(或SVD) K-Means 数据呈球形分布,簇内紧密 样本到簇心的平方距离和(SSE) EM算法(迭代更新簇心与样本分配) 逻辑回归 数据线性可分,通过sigmoid映射概率 交叉熵损失(对数损失) 梯度下降(或拟牛顿法) 感知机 数据线性可分 误分类点到超平面的距离和(近似Hinge Loss) 随机梯度下降(仅对误分类样本更新权重) DNN 多层非线性变换可拟合复杂函数 任务相关(如交叉熵、均方误差) 反向传播 + 梯度下降变体(如Adam、SGD) CNN 局部相关性、平移不变性(通过卷积核和池化) 任务相关(如交叉熵) 反向传播 + 梯度下降变体(如Adam) RNN 序列数据的时间依赖性(通过循环结构传递状态) 交叉熵(序列预测任务) BPTT(随时间反向传播)+ 梯度截断/Adam Transformer 全局依赖关系通过自注意力机制捕获 交叉熵(带掩码的序列预测任务) Adam优化器 + 学习率预热(如Noam调度) 实验课:代码及报告80% 实验课讲题\答辩10% 可选任务移植ipynb到modelarts AI Gallery 10%(必须LLM或Transformer相关,内容质量必须高于已有AI Gallery,推荐结合 Deepseek API )