华为大数据架构师主讲
加 入 尊 享 会 员 | 云 服 务 平 台 正 在 正 在 更 新 升 级 中
Toggle navigation
首页
实战课程
实战专栏
就业指导
书籍
登录 / 注册
加入尊享会员
2025人工智能算法工程师课
90%的大数据架构师都是需要掌握机器学习算法,本课程从数学基础,通俗易懂
直播|高清录播
授课方式
2个月
学习周期
高级数据开发
教学目标
20k+
学员毕业平均薪资
永久实时答疑
课程答疑
优惠价
¥9980.00
¥12800
尊享会员免费
¥12800
立即购买
课程介绍
高清课程内容/直播回放
第 1 章 试听内容
课时1 : 在本机上开始"玩"机器学习
免费
课时1 : 在本机上开始"玩"机器学习
第 2 章 线性回归
课时2 : 线性代数-常用求导法则
免费
课时2 : 线性代数-常用求导法则
课时3 : 线性回归-特殊法则
免费
课时3 : 线性回归-特殊法则
课时4 : 线性回归-求某点的导数
免费
课时4 : 线性回归-求某点的导数
课时5 : 线性回归-复合函数
免费
课时5 : 线性回归-复合函数
课时6 : 线性回归-偏导数
免费
课时6 : 线性回归-偏导数
课时7 : 线性回归-为啥要计算行列式
免费
课时7 : 线性回归-为啥要计算行列式
课时8 : 线性回归-啥是逆矩阵
免费
课时8 : 线性回归-啥是逆矩阵
课时9 : 线性回归-求解逆矩阵的过程
免费
课时9 : 线性回归-求解逆矩阵的过程
课时10 : 线性回归-判断矩阵是否可逆-行列式法
免费
课时10 : 线性回归-判断矩阵是否可逆-行列式法
课时11 : 线性回归-判断可逆性-秩
免费
课时11 : 线性回归-判断可逆性-秩
课时12 : 线性回归-判断是否可逆并计算秩的过程
免费
课时12 : 线性回归-判断是否可逆并计算秩的过程
课时13 : 线性回归-线性方程组
免费
课时13 : 线性回归-线性方程组
课时14 : 线性回归-线性方程与矩阵
免费
课时14 : 线性回归-线性方程与矩阵
课时15 : 线性回归-线性方程矩阵求解过程
免费
课时15 : 线性回归-线性方程矩阵求解过程
课时16 : 线性回归-为什么叫最小二乘
免费
课时16 : 线性回归-为什么叫最小二乘
课时17 : 线性回归-求解模型参数过程-1
免费
课时17 : 线性回归-求解模型参数过程-1
课时18 : 线性回归-求解模型参数过程-2
免费
课时18 : 线性回归-求解模型参数过程-2
课时19 : 线性回归-模型参数方程组
免费
课时19 : 线性回归-模型参数方程组
课时20 : 线性回归-求解模型参数方程组-1
免费
课时20 : 线性回归-求解模型参数方程组-1
课时21 : 线性回归-求解模型参数方程组-2
免费
课时21 : 线性回归-求解模型参数方程组-2
课时22 : 线性回归-求解模型参数方程组-3
免费
课时22 : 线性回归-求解模型参数方程组-3
课时23 : 线性回归-多元方程模型
免费
课时23 : 线性回归-多元方程模型
课时24 : 线性回归-多元方程模型参数求解过程
免费
课时24 : 线性回归-多元方程模型参数求解过程
课时25 : 线性回归-多元模型参数矩阵
免费
课时25 : 线性回归-多元模型参数矩阵
课时26 : 线性回归-参数方程组线代方式过程
免费
课时26 : 线性回归-参数方程组线代方式过程
课时27 : 线性回归-线性回归模型参数求解过程
免费
课时27 : 线性回归-线性回归模型参数求解过程
课时28 : 线性回归-为什么要学习方向导数
免费
课时28 : 线性回归-为什么要学习方向导数
课时29 : 线性回归-梯度与方向导数的关系
免费
课时29 : 线性回归-梯度与方向导数的关系
课时30 : 线性回归-梯度的意义
免费
课时30 : 线性回归-梯度的意义
课时31 : 线性回归-方向导数与梯度的求解过程
免费
课时31 : 线性回归-方向导数与梯度的求解过程
课时32 : 线性回归-证明梯度方向是函数变化最快方向
免费
课时32 : 线性回归-证明梯度方向是函数变化最快方向
课时33 : 线性回归-梯度下降公式推导过程
免费
课时33 : 线性回归-梯度下降公式推导过程
第 3 章 线性回归-项目与实战
课时34 : 数据算法项目需求分析
免费
课时34 : 数据算法项目需求分析
课时35 : 数据收集与预处理
免费
课时35 : 数据收集与预处理
课时36 : 数据的相关分析
免费
课时36 : 数据的相关分析
课时37 : 数据的散点图可视化
免费
课时37 : 数据的散点图可视化
课时38 : 数据集清洗和规范化
免费
课时38 : 数据集清洗和规范化
课时39 : 拆分数据集
免费
课时39 : 拆分数据集
课时40 : 数据归一化
免费
课时40 : 数据归一化
课时41 : 选择机器学习模型
免费
课时41 : 选择机器学习模型
课时42 : 通过梯度下降找到最佳参数
免费
课时42 : 通过梯度下降找到最佳参数
课时43 : 权重和偏置的初始值设置
免费
课时43 : 权重和偏置的初始值设置
课时44 : 进行梯度下降算法
免费
课时44 : 进行梯度下降算法
课时45 : 调试合适的学习速率
免费
课时45 : 调试合适的学习速率
课时46 : 调试迭代次数
免费
课时46 : 调试迭代次数
课时47 : 基于测试集进行预测
免费
课时47 : 基于测试集进行预测
课时48 : 测试集与训练集曲线合并
免费
课时48 : 测试集与训练集曲线合并
课时49 : 用轮廓图描述损失、权重与偏置的关系
免费
课时49 : 用轮廓图描述损失、权重与偏置的关系
课时50 : 运行全状态模型参数
免费
课时50 : 运行全状态模型参数
第 4 章 逻辑回归
课时51 : 逻辑回归的数学演化过程
免费
课时51 : 逻辑回归的数学演化过程
课时52 : 优化函数之什么是凸函数
免费
课时52 : 优化函数之什么是凸函数
课时53 : 如何判断是否凸函数
免费
课时53 : 如何判断是否凸函数
课时54 : 逻辑回归的误差函数
免费
课时54 : 逻辑回归的误差函数
课时55 : 误差函数的证明过程
免费
课时55 : 误差函数的证明过程
课时56 : Sigmoid函数的证明过程
免费
课时56 : Sigmoid函数的证明过程
课时57 : 误差函数为凸函数的证明过程
免费
课时57 : 误差函数为凸函数的证明过程
课时58 : 逻辑回归中使用梯度下降的数学原理
免费
课时58 : 逻辑回归中使用梯度下降的数学原理
课时59 : 理解正则化的数据原理
免费
课时59 : 理解正则化的数据原理
课时60 : 用L2正则化进行预测实验
免费
课时60 : 用L2正则化进行预测实验
课时61 : 用L1惩罚逻辑回归
免费
课时61 : 用L1惩罚逻辑回归
课时62 : 用弹性网络来惩罚逻辑回归
免费
课时62 : 用弹性网络来惩罚逻辑回归
课时63 : 牛顿法原理
免费
课时63 : 牛顿法原理
课时64 : 牛顿法迭代的基本公式
免费
课时64 : 牛顿法迭代的基本公式
课时65 : 牛顿法迭代公式的求证过程1
免费
课时65 : 牛顿法迭代公式的求证过程1
课时66 : 牛顿法迭代公式的求证过程2
免费
课时66 : 牛顿法迭代公式的求证过程2
课时67 : 牛顿法迭代公式的求证过程3
免费
课时67 : 牛顿法迭代公式的求证过程3
课时68 : L-BFGS优化方法数学原理
免费
课时68 : L-BFGS优化方法数学原理
课时69 : 近似替代Hession的迭代公式
免费
课时69 : 近似替代Hession的迭代公式
课时70 : 近似替代Hession的逆迭代公式
免费
课时70 : 近似替代Hession的逆迭代公式
课时71 : Sherman-Morrison公式
免费
课时71 : Sherman-Morrison公式
课时72 : Newton-CG优化方法
免费
课时72 : Newton-CG优化方法
课时73 : 与共轭梯度的关系
免费
课时73 : 与共轭梯度的关系
课时74 : Sag与Saga优化方法
免费
课时74 : Sag与Saga优化方法
课时75 : 用SoftMax解决多分类问题
免费
课时75 : 用SoftMax解决多分类问题
课时76 : SoftMax的计算过程
免费
课时76 : SoftMax的计算过程
课时77 : SoftMax的误差函数
免费
课时77 : SoftMax的误差函数
课时78 : SoftMax的代码模型与实验
免费
课时78 : SoftMax的代码模型与实验
第 5 章 逻辑项目实战-二元分类项目
课时79 : 机器学习中的分类问题
免费
课时79 : 机器学习中的分类问题
课时80 : 用线性回归+阶跃函数完成分类
免费
课时80 : 用线性回归+阶跃函数完成分类
课时81 : 通过Sigmoid函数进行转换
免费
课时81 : 通过Sigmoid函数进行转换
课时82 : 逻辑回归的假设函数在项目中思考
免费
课时82 : 逻辑回归的假设函数在项目中思考
课时83 : 损失函数在项目中的应用
免费
课时83 : 损失函数在项目中的应用
课时84 : 逻辑回归梯度下降的应用
免费
课时84 : 逻辑回归梯度下降的应用
课时85 : 构建业务数据集
免费
课时85 : 构建业务数据集
课时86 : 生成数据散点图
免费
课时86 : 生成数据散点图
课时87 : 拆分数据
免费
课时87 : 拆分数据
课时88 : 选择归一化数据缩放器
免费
课时88 : 选择归一化数据缩放器
课时89 : 定义损失函数
免费
课时89 : 定义损失函数
课时90 : 构建梯度下降函数
免费
课时90 : 构建梯度下降函数
课时91 : 设置初始化参数值
免费
课时91 : 设置初始化参数值
课时92 : 模型训练并测试准确率
免费
课时92 : 模型训练并测试准确率
课时93 : 显示模型训练损失曲线
免费
课时93 : 显示模型训练损失曲线
课时94 : 如果解决欠拟合与过拟合的问题
免费
课时94 : 如果解决欠拟合与过拟合的问题
课时95 : 逻辑回归正则化参数选择
免费
课时95 : 逻辑回归正则化参数选择
第 6 章 逻辑项目实战-多元分类项目
课时96 : 构建数据集
免费
课时96 : 构建数据集
课时97 : 设定正则化参数
免费
课时97 : 设定正则化参数
课时98 : 构建多分类回归模型
免费
课时98 : 构建多分类回归模型
课时99 : 测试正确率
免费
课时99 : 测试正确率
第 7 章 深度学习
课时100 : 神经网络原理
免费
课时100 : 神经网络原理
课时101 : 从感知器到单隐层网络
免费
课时101 : 从感知器到单隐层网络
课时102 : 单神经元特征空间的局限性
免费
课时102 : 单神经元特征空间的局限性
课时103 : 分层:加入网络隐层
免费
课时103 : 分层:加入网络隐层
课时104 : 用Keras单隐层网络预测
免费
课时104 : 用Keras单隐层网络预测
课时105 : 准备数据
免费
课时105 : 准备数据
课时106 : 显示数据分布
免费
课时106 : 显示数据分布
课时107 : 实验逻辑回归算法
免费
课时107 : 实验逻辑回归算法
课时108 : 用序贯模型构建网络
免费
课时108 : 用序贯模型构建网络
课时109 : 全连接层实现
免费
课时109 : 全连接层实现
课时110 : 训练单隐层神经网络
免费
课时110 : 训练单隐层神经网络
课时111 : 训练过程图形化显示
免费
课时111 : 训练过程图形化显示
课时112 : 混淆矩阵
免费
课时112 : 混淆矩阵
课时113 : 精确率、F分数、召回率怎么算
免费
课时113 : 精确率、F分数、召回率怎么算
课时114 : 使用分类报告和混淆矩阵
免费
课时114 : 使用分类报告和混淆矩阵
课时115 : 梯度下降优化器
免费
课时115 : 梯度下降优化器
课时116 : 激活函数
免费
课时116 : 激活函数
课时117 : 损失函数怎么选
免费
课时117 : 损失函数怎么选
课时118 : 评估指标怎么选
免费
课时118 : 评估指标怎么选
第 8 章 基于Keras深度神经网络项目
课时119 : 准备数据与处理
免费
课时119 : 准备数据与处理
课时120 : 创建序贯模型
免费
课时120 : 创建序贯模型
课时121 : 单隐层曲线对比
免费
课时121 : 单隐层曲线对比
课时122 : 运行并预测结果
免费
课时122 : 运行并预测结果
课时123 : 评估指标看网络效果
免费
课时123 : 评估指标看网络效果
课时124 : 调试优化器
免费
课时124 : 调试优化器
课时125 : 神经网络正则化
免费
课时125 : 神经网络正则化
课时126 : 使用回调函数优化性能
免费
课时126 : 使用回调函数优化性能
课时127 : 基于TensorBoard的可视化
免费
课时127 : 基于TensorBoard的可视化
第 9 章 总结
课时128 : 课程总结
免费
课时128 : 课程总结