章节大纲

  • 平时成绩:30%,6 次平时测验(选择题为主,实验课时先测验再做实验)、考勤

    6 次测试内容

    test1 01020304讲
    test2 0506 讲
    test3 0708 讲
    test4 091011121317讲
    test5 141516 讲
    test6 181920 讲

    期末及平时测验题库:https://talent.shixizhi.huawei.com/iexam/1365189427395223554/examInfo?examId=1592050502435512939&sxz-lang=zh_CN

    Previous midterms are available: Without solutions: Spring 2013Spring 2014Spring 2015Fall 2015Spring 2016Spring 2017Spring 2019Summer 2019Spring 2020 Midterm ASpring 2020 Midterm BSpring 2021Spring 2022Spring 2023Spring 2024. With solutions: Spring 2013Spring 2014Spring 2015Fall 2015Spring 2016Spring 2017Spring 2019Summer 2019Spring 2020 Midterm ASpring 2020 Midterm BSpring 2021Spring 2022Spring 2023Spring 2024.

    Previous final exams are available. Without solutions: Spring 2013Spring 2014Spring 2015Fall 2015Spring 2016Spring 2017Spring 2019Spring 2020Spring 2021Spring 2022Spring 2023Spring 2024. With solutions: Spring 2013Spring 2014Spring 2015Fall 2015Spring 2016Spring 2017Spring 2019Spring 2020Spring 2021Spring 2022Spring 2023Spring 2024.

    平时成绩加分:新出或测试上述题库质量的题目,deepseek回答错误,截图发到论坛,每个题目平时成绩加5分;翻转课堂讲解moldelarts gallery AI ipynb代码,每次加5分;申请 mindspore 在线实习https://www.mindspore.cn/internship并完成任意积分任务平时成绩加到满分(平时成绩100分加满为止)。

    考勤主要由 test 是否参加体现。

    期末考试:70%

    1.传统机器学习24分 模型评估(AB 卷必考)、朴素贝叶斯、SVM、集成学习、PCA、K-Means(AB 卷分别 5 考 2)

    2.DNNCNN 24分 (传统机器学习的 梯度下降、逻辑回归、感知机通常合并在此考)

    3.RNN 16分

    4. Transformer 16分

    5. 实验程序填空题 20分 :https://www.mindspore.cn/tutorials/zh-CN/r2.2/beginner/train.html 考 10 分代码填空 (AB 卷均考)

    ex04 SSD A 卷 10 分 ex05 Seq2Seq B 卷10 分。

    题库:同平时测验(大题为主)

    算法 模型假设 损失函数 优化方法
    朴素贝叶斯 特征条件独立(给定类别下特征独立) 对数似然损失(最大似然估计) 极大似然估计(或EM算法处理缺失值)
    SVM 数据线性可分(或通过核函数映射到高维可分),最大化分类间隔 Hinge Loss + L2正则化项 拉格朗日对偶 + SMO(序列最小优化)
    集成学习 随机森林:特征子集独立性
    GBDT:残差逐步拟合
    - 随机森林:基尼系数/信息增益
    - GBDT:自定义损失(如平方损失、对数损失)
    - 随机森林:Bagging
    - GBDT:梯度下降(加法模型)
    PCA 数据在低维线性子空间上方差最大 重构误差最小化(或协方差矩阵特征值最大化) 特征值分解(或SVD)
    K-Means 数据呈球形分布,簇内紧密 样本到簇心的平方距离和(SSE) EM算法(迭代更新簇心与样本分配)
    逻辑回归 数据线性可分,通过sigmoid映射概率 交叉熵损失(对数损失) 梯度下降(或拟牛顿法)
    线性回归 数据成线性分布 平方误差 最小二乘/随机梯度下降
    DNN 多层非线性变换可拟合复杂函数 任务相关(如交叉熵、均方误差) 反向传播 + 梯度下降变体(如Adam、SGD)
    CNN 局部相关性、平移不变性(通过卷积核和池化) 任务相关(如交叉熵) 反向传播 + 梯度下降变体(如Adam)
    RNN 序列数据的时间依赖性(通过循环结构传递状态) 交叉熵(序列预测任务) BPTT(随时间反向传播)+ 梯度截断/Adam
    Transformer 全局依赖关系通过自注意力机制捕获 交叉熵(带掩码的序列预测任务) Adam优化器 + 学习率预热(如Noam调度)

    实验课:代码及报告85% 实验课讲题\答辩15% 可选任务加分移植ipynb到modelarts AI Gallery 5%(必须LLM或Transformer相关,内容质量必须高于已有AI Gallery,推荐结合 Deepseek API ),迟交 24 小时扣 5%,超过 120 小时最高为 60%。实验加分:mindspore相关微认证 每个加2分。其他华为人工智能微认证每个加1分(实验加分最多 4 分)。https://edu.huaweicloud.com/certifications

      • 以垃圾邮件分类为例,出一道查准率(precision).查全率(recall)的计算题。试述真正例率(TPR).假正例率(FPR)与查准率(precision).查全率(recall)之间的关系。出一道多项选择题。
      • 写出绘制PR曲线的伪代码
      •  
      • 模仿教材例题 4.1 更改数值。出计算填空题。
      • 模仿教材例题 7.1 让学生利用几何方法直接求 svm最 ⼤ 间 隔 分 离 超 平面方程。多选题。
      • 模仿教材例题 7.2 更改点坐标 让学生 计算对偶问题展开化简过程。出填空题。
      • svm 求解分几步。出排序题。
      • 出一道多项选择题,下面哪些问题是凸优化问题。
      • 出一道多选题,svm 对偶问题的 KKT 条件,下面给出的哪些是正确的?给 10 个选项条件 诺干错 剩余对。
      •  
      • 模仿教材 例题 5.2 更改数值后 出一道填空题 随机考一种属性划分 计算信息增益 ;不用让他们重复计算每一种划分。
      • 算法 5.2 出一道 排序题
      • 算法 5.3 出一道 排序题
      • 模仿教材 例题 5.4 更改数值后 出一道填空题 随机考一种属性划分 计算Gini;不用让他们重复计算每一种划分
      • 出一道 6 个选项的单选题,给定一个比较明显的数据,让学生用 ID3 生成决策树,选择正确的树。主要考察学生对决策树算法的理解,即使不计算数值,也能估算最后的决策树。
      • 模仿教材 例题 8.1 更改数值后 出一道填空题 挖多个空 考一次更新权重过程即可
      •  
      • 出一道 计算 题 考d2l教材公式6.3.2
      • 已知模型网络架构 求上述模型参数量
      • RNN 会考去年试卷 同类型计算题