#《人工智能工程师》- 重难点提示
下周课程会介绍机器学习中最简单的模型,线性模型。
重点内容:
机器学习简介
机器学习课程环境简介
线性回归简介
回归中的损失函数
损失函数的概率解释
过拟合
Scikit-Learn中带正则的线性回归模型
正则的概率解释
线性回归模型解析求解
线性回归模型优化求解之梯度下降法
线性回归优化求解之坐标轴下降法
回归模型预测性能评价指标
交叉验证与模型选择
Logistic回归简介
Logistic回归之损失函数
Logistic回归之正则项
牛顿法
Logistic回归之优化求解
Logistic回归之多类分类
类别样本不均衡
分类模型的性能评价指标
Scikit-Learn中的Logistic回归模型实现
下周将会介绍神经网络的起源及发展简史。深度神经网络的前身感知器,其特点和局限。同时针对感知器的种种局限,新的激活函数,以及全连接神经网络的出现。
重点内容:
掌握神经网络输出层在分类和回归任务中的形式-重点-难点
掌握ground truth的含义及作用
卿老师内容:
SVM相关的内容非常重要,作为上一个人工智能时代的遗产,SVM的思想仍然对目前人工智能的发展有着深远的影响。
重点内容:
屈老师内容:
xxxxx
SVM简介
带松弛变量的SVM:C-SVM
SVM之对偶问题
SVM之核方法
SVM之回归:SVR
Scikit-Learn中的SVM实现
Bagging和随机森林1
Scikit-Learn中的随机森林模型
Adaboost
GBM
Scikit-Learn中的GBM
XGBoost原理
XGBoost工具包使用指南
XGBoost的Scikit-Learn接口
LightGBM原理
LightGBM使用指南1
PCA降维原理
Scikit-Learn中的PCA
t-SNE
Scikit-Learn中的 t-SNE
聚类简介
KMean聚类算法
Scikit-Learn中的 KMean聚类
推荐系统简介
基于内容的推荐
基于用户的协同过滤
基于物品的协同过滤
基于矩阵分解的协同过滤
CTR预估简介
FTRL模型
FM与FFM
GBDT
Wide and Deep Learning模型
下周将会进入最近这些年比较火热的深度学习重要领域,卷积神经网络的学习。
下周内容重点:
卷积的计算方式,特点,这个部分是面试的时候经常会问到的。
卷积网络的代码实现案例,需要仔细看,tensorflow中卷积是如何实现的,同时,模型训练,保存的流程等等。
了解卷积神经网络在人工智能领域的发展,优势;
掌握卷积神经网络前向传播及反向传播公式及计算方法。
了解网络输出的特征
掌握特征的距离计算方式-重点
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。