华为大数据架构师主讲
加 入 尊 享 会 员 | 云 服 务 平 台 正 在 正 在 更 新 升 级 中
Toggle navigation
首页
实战课程
实战专栏
就业指导
书籍
登录 / 注册
加入尊享会员
大数据专业课程
>
2025人工智能算法工程师课
> 线性回归-多元方程模型参数求解过程
课时
评论
提问
课时列表
第 1 章 试听内容
在本机上开始"玩"机器学习
(11:52)
第 2 章 线性回归
线性代数-常用求导法则
(11:52)
线性回归-特殊法则
(11:52)
线性回归-求某点的导数
(11:52)
线性回归-复合函数
(11:52)
线性回归-偏导数
(11:52)
线性回归-为啥要计算行列式
(11:52)
线性回归-啥是逆矩阵
(11:52)
线性回归-求解逆矩阵的过程
(11:52)
线性回归-判断矩阵是否可逆-行列式法
(11:52)
线性回归-判断可逆性-秩
(11:52)
线性回归-判断是否可逆并计算秩的过程
(11:52)
线性回归-线性方程组
(11:52)
线性回归-线性方程与矩阵
(11:52)
线性回归-线性方程矩阵求解过程
(11:52)
线性回归-为什么叫最小二乘
(11:52)
线性回归-求解模型参数过程-1
(11:52)
线性回归-求解模型参数过程-2
(11:52)
线性回归-模型参数方程组
(11:52)
线性回归-求解模型参数方程组-1
(11:52)
线性回归-求解模型参数方程组-2
(11:52)
线性回归-求解模型参数方程组-3
(11:52)
线性回归-多元方程模型
(11:52)
线性回归-多元方程模型参数求解过程
(11:52)
线性回归-多元模型参数矩阵
(11:52)
线性回归-参数方程组线代方式过程
(11:52)
线性回归-线性回归模型参数求解过程
(11:52)
线性回归-为什么要学习方向导数
(11:52)
线性回归-梯度与方向导数的关系
(11:52)
线性回归-梯度的意义
(11:52)
线性回归-方向导数与梯度的求解过程
(11:52)
线性回归-证明梯度方向是函数变化最快方向
(11:52)
线性回归-梯度下降公式推导过程
(11:52)
第 3 章 线性回归-项目与实战
数据算法项目需求分析
(11:52)
数据收集与预处理
(11:52)
数据的相关分析
(11:52)
数据的散点图可视化
(11:52)
数据集清洗和规范化
(11:52)
拆分数据集
(11:52)
数据归一化
(11:52)
选择机器学习模型
(11:52)
通过梯度下降找到最佳参数
(11:52)
权重和偏置的初始值设置
(11:52)
进行梯度下降算法
(11:52)
调试合适的学习速率
(11:52)
调试迭代次数
(11:52)
基于测试集进行预测
(11:52)
测试集与训练集曲线合并
(11:52)
用轮廓图描述损失、权重与偏置的关系
(11:52)
运行全状态模型参数
(11:52)
第 4 章 逻辑回归
逻辑回归的数学演化过程
(11:52)
优化函数之什么是凸函数
(11:52)
如何判断是否凸函数
(11:52)
逻辑回归的误差函数
(11:52)
误差函数的证明过程
(11:52)
Sigmoid函数的证明过程
(11:52)
误差函数为凸函数的证明过程
(11:52)
逻辑回归中使用梯度下降的数学原理
(11:52)
理解正则化的数据原理
(11:52)
用L2正则化进行预测实验
(11:52)
用L1惩罚逻辑回归
(11:52)
用弹性网络来惩罚逻辑回归
(11:52)
牛顿法原理
(11:52)
牛顿法迭代的基本公式
(11:52)
牛顿法迭代公式的求证过程1
(11:52)
牛顿法迭代公式的求证过程2
(11:52)
牛顿法迭代公式的求证过程3
(11:52)
L-BFGS优化方法数学原理
(11:52)
近似替代Hession的迭代公式
(11:52)
近似替代Hession的逆迭代公式
(11:52)
Sherman-Morrison公式
(11:52)
Newton-CG优化方法
(11:52)
与共轭梯度的关系
(11:52)
Sag与Saga优化方法
(11:52)
用SoftMax解决多分类问题
(11:52)
SoftMax的计算过程
(11:52)
SoftMax的误差函数
(11:52)
SoftMax的代码模型与实验
(11:52)
第 5 章 逻辑项目实战-二元分类项目
机器学习中的分类问题
(11:52)
用线性回归+阶跃函数完成分类
(11:52)
通过Sigmoid函数进行转换
(11:52)
逻辑回归的假设函数在项目中思考
(11:52)
损失函数在项目中的应用
(11:52)
逻辑回归梯度下降的应用
(11:52)
构建业务数据集
(11:52)
生成数据散点图
(11:52)
拆分数据
(11:52)
选择归一化数据缩放器
(11:52)
定义损失函数
(11:52)
构建梯度下降函数
(11:52)
设置初始化参数值
(11:52)
模型训练并测试准确率
(11:52)
显示模型训练损失曲线
(11:52)
如果解决欠拟合与过拟合的问题
(11:52)
逻辑回归正则化参数选择
(11:52)
第 6 章 逻辑项目实战-多元分类项目
构建数据集
(11:52)
设定正则化参数
(11:52)
构建多分类回归模型
(11:52)
测试正确率
(11:52)
第 7 章 深度学习
神经网络原理
(11:52)
从感知器到单隐层网络
(11:52)
单神经元特征空间的局限性
(11:52)
分层:加入网络隐层
(11:52)
用Keras单隐层网络预测
(11:52)
准备数据
(11:52)
显示数据分布
(11:52)
实验逻辑回归算法
(11:52)
用序贯模型构建网络
(11:52)
全连接层实现
(11:52)
训练单隐层神经网络
(11:52)
训练过程图形化显示
(11:52)
混淆矩阵
(11:52)
精确率、F分数、召回率怎么算
(11:52)
使用分类报告和混淆矩阵
(11:52)
梯度下降优化器
(11:52)
激活函数
(11:52)
损失函数怎么选
(11:52)
评估指标怎么选
(11:52)
第 8 章 基于Keras深度神经网络项目
准备数据与处理
(11:52)
创建序贯模型
(11:52)
单隐层曲线对比
(11:52)
运行并预测结果
(11:52)
评估指标看网络效果
(11:52)
调试优化器
(11:52)
神经网络正则化
(11:52)
使用回调函数优化性能
(11:52)
基于TensorBoard的可视化
(11:52)
第 9 章 总结
课程总结
(11:52)
课程评论
笔记
保存
提问none
紧急问题
一般问题
提交
分享到:
问题反馈
举报