Section outline

  • 平时成绩:6 次平时测验(选择题为主,实验课时先测验再做实验)、考勤:30%

    6 次测试内容

    test1 01020304讲
    test2 0506 讲
    test3 0708 讲
    test4 09101112 讲
    test5 3141516 讲
    test6 1718192021 讲

    期末及平时测验题库:https://talent.shixizhi.huawei.com/iexam/1365189427395223554/examInfo?examId=1592050502435512939&sxz-lang=zh_CN

    Previous midterms are available: Without solutions: Spring 2013Spring 2014Spring 2015Fall 2015Spring 2016Spring 2017Spring 2019Summer 2019Spring 2020 Midterm ASpring 2020 Midterm BSpring 2021Spring 2022Spring 2023Spring 2024. With solutions: Spring 2013Spring 2014Spring 2015Fall 2015Spring 2016Spring 2017Spring 2019Summer 2019Spring 2020 Midterm ASpring 2020 Midterm BSpring 2021Spring 2022Spring 2023Spring 2024.

    Previous final exams are available. Without solutions: Spring 2013Spring 2014Spring 2015Fall 2015Spring 2016Spring 2017Spring 2019Spring 2020Spring 2021Spring 2022Spring 2023Spring 2024. With solutions: Spring 2013Spring 2014Spring 2015Fall 2015Spring 2016Spring 2017Spring 2019Spring 2020Spring 2021Spring 2022Spring 2023Spring 2024.

    平时成绩加分:新出或测试上述题库质量的题目,deepseek回答错误,截图发到论坛,每个题目平时成绩加5分;翻转课堂讲解moldelarts gallery AI ipynb代码,每次加5分(平时成绩100分加满为止)。

    考勤每次缺席扣5分。

    期末考试:70%

    1.客观题15分:numpy题库3题 华为认证题库 或cs189客观题12题(会改成填空题)https://talent.shixizhi.huawei.com/iexam/1365189427395223554/examInfo?examId=1592050502435512939&sxz-lang=zh_CN

    2.传统机器学习25分 模型评估、朴素贝叶斯、SVM、集成学习、PCA、K-Means

    3.DNNCNN 20分 (传统机器学习的 梯度下降、逻辑回归、感知机通常合并在此考)

    4.RNN 20分

    5. Transformer 20分

    题库:同平时测验(大题为主)

    算法 模型假设 损失函数 优化方法
    朴素贝叶斯 特征条件独立(给定类别下特征独立) 对数似然损失(最大似然估计) 极大似然估计(或EM算法处理缺失值)
    SVM 数据线性可分(或通过核函数映射到高维可分),最大化分类间隔 Hinge Loss + L2正则化项 拉格朗日对偶 + SMO(序列最小优化)
    集成学习 随机森林:特征子集独立性
    GBDT:残差逐步拟合
    - 随机森林:基尼系数/信息增益
    - GBDT:自定义损失(如平方损失、对数损失)
    - 随机森林:Bagging
    - GBDT:梯度下降(加法模型)
    PCA 数据在低维线性子空间上方差最大 重构误差最小化(或协方差矩阵特征值最大化) 特征值分解(或SVD)
    K-Means 数据呈球形分布,簇内紧密 样本到簇心的平方距离和(SSE) EM算法(迭代更新簇心与样本分配)
    逻辑回归 数据线性可分,通过sigmoid映射概率 交叉熵损失(对数损失) 梯度下降(或拟牛顿法)
    感知机 数据线性可分 误分类点到超平面的距离和(近似Hinge Loss) 随机梯度下降(仅对误分类样本更新权重)
    DNN 多层非线性变换可拟合复杂函数 任务相关(如交叉熵、均方误差) 反向传播 + 梯度下降变体(如Adam、SGD)
    CNN 局部相关性、平移不变性(通过卷积核和池化) 任务相关(如交叉熵) 反向传播 + 梯度下降变体(如Adam)
    RNN 序列数据的时间依赖性(通过循环结构传递状态) 交叉熵(序列预测任务) BPTT(随时间反向传播)+ 梯度截断/Adam
    Transformer 全局依赖关系通过自注意力机制捕获 交叉熵(带掩码的序列预测任务) Adam优化器 + 学习率预热(如Noam调度)

    实验课:代码及报告80% 实验课讲题\答辩10% 可选任务移植ipynb到modelarts AI Gallery 10%(必须LLM或Transformer相关,内容质量必须高于已有AI Gallery,推荐结合 Deepseek API