天天看点

2022吴恩达机器学习-总结

2022吴恩达机器学习课程学习总结

目录

  • >P1 第一课 第一周 1.1 欢迎参加《机器学习》课程 02:45
  • >P2 1.2 机器学习应用 04:29
  • >P3 2.1 机器学习定义 05:36
  • >P4 2.2 监督学习-part-1 06:57
  • >P5 2.3 监督学习-part-2 07:17
  • >P6 2.4 无监督学习-part-1 08:54
  • >P7 2.5 无监督学习-part-2 03:40
  • >P8 2.6 Jupyter notebooks 04:30
  • >P9 3.1 线性回归模型-part-1 10:27
  • >P10 3.2 线性回归模型-part-2 06:45
  • >P11 3.3 代价函数公式 09:05
  • >P12 3.4 理解代价函数 15:47
  • >P13 3.5 可视化代价函数 08:34
  • >P14 3.6 可视化举例 06:01
  • >P15 4.1 梯度下降 08:04
  • >P16 4.2 梯度下降的实现 10:00
  • >P17 4.3 理解梯度下降 07:02
  • >P18 4.4 学习率 09:04
  • >P19 4.5 用于线性回归的梯度下降 06:37
  • >P20 4.6 运行梯度下降 05:49
  • >P21 第二周 1.1 多维特征 09:52
  • >P22 1.2 向量化-part-1 06:55
  • >P23 1.3 向量化-part-2 06:53
  • >P24 1.4 用于多元线性回归的梯度下降法 07:46
  • >P25 2.1 特征缩放-part-1 06:36
  • >P26 2.2 特征缩放-part-2 07:35
  • >P27 2.3 判断梯度下降是否收敛 05:40
  • >P28 2.4 如何设置学习率 06:07
  • >P29 2.5 特征工程 03:05
  • >P30 2.6 多项式回归 05:52
  • >P31 第三周 1.1 动机与目的 09:48
  • >P32 1.2 逻辑回归 09:49
  • >P33 1.3 决策边界 10:43
  • >P34 2.1 逻辑回归中的代价函数 12:00
  • >P35 2.2 简化逻辑回归代价函数 05:45
  • >P36 3.1 实现梯度下降 06:32
  • >P37 4.1 过拟合问题 11:53
  • >P38 4.2 解决过拟合 08:16
  • >P39 4.3 正则化 09:04
  • >P40 4.4 用于线性回归的正则方法 08:53
  • >P41 4.5 用于逻辑回归的正则方法 05:33
  • >P42 第二课 第一周1.1 欢迎 02:54
  • >P43 1.2 神经元和大脑 10:53
  • >P44 1.3 需求预测 16:23
  • >P45 1.4 举例-图像感知 06:36
  • >P46 2.1 神经网络中的网络层 09:50
  • >P47 2.2 更复杂的神经网络 07:19
  • >P48 2.3 神经网络前向传播 05:24
  • >P49 3.1 如何用代码实现推理 07:13
  • >P50 3.2 Tensorflow中数据形式 11:20
  • >P51 3.3 搭建一个神经网络 08:21
  • >P52 4.1 单个网络层上的前向传播 05:07
  • >P53 4.2 前向传播的一般实现 07:53
  • >P54 5.1 强人工智能 10:35
  • >P55 6.1 神经网络为何如此高效 04:23
  • >P56 6.2 矩阵乘法 09:28
  • >P57 6.3 矩阵乘法规则 09:33
  • >P58 6.4 矩阵乘法代码 06:42
  • >P59 第二周 1.1 Tensorflow实现 03:38
  • >P60 1.2 模型训练细节 13:41
  • >P61 2.1 Sigmoid激活函数的替代方案 05:30
  • >P62 2.2 如何选择激活函数 08:25
  • >P63 2.3 为什么模型需要激活函数 05:32
  • >P64 3.1 多分类问题 03:29
  • >P65 3.2 Softmax 11:33
  • >P66 3.3 神经网络的Softmax输出 07:25
  • >P67 3.4 Softmax的改进实现 09:13
  • >P68 3.5 多个输出的分类 04:20
  • >P69 4.1 高级优化方法 06:26
  • >P70 4.2 其他的网络层类型 08:56
  • >P71 第三周 1.1 决定下一步做什么 03:42
  • >P72 1.2 模型评估 10:26
  • >P73 1.3 模型选择&交叉验证测试集的训练方法 14:53
  • >P74 2.1 通过偏差与方法进行诊断 11:13
  • >P75 2.2 正则化、偏差、方差 10:37
  • >P76 2.3 制定一个用于性能评估的基准 09:26
  • >P77 2.4 学习曲线 12:14
  • >P78 2.5 (修订)决定下一步做什么 08:47
  • >P79 2.6 方差与偏差 10:45
  • >P80 3.1 机器学习开发的迭代 07:43
  • >P81 3.2 误差分析 08:21
  • >P82 3.3 添加更多数据 14:24
  • >P83 3.4 迁移学习-使用其他任务中的数据 12:11
  • >P84 3.5 机器学习项目的完整周期 08:45
  • >P85 3.6 公平、偏见与伦理 09:56
  • >P86 4.1 倾斜数据集的误差指标 11:36
  • >P87 4.2 精确率与召回率的权衡 11:50
  • >P88 第四周 1.1 决策树模型 07:06
  • >P89 1.2 学习过程 11:21
  • >P90 2.1 纯度 07:50
  • >P91 2.2 选择拆分信息增益 11:52
  • >P92 2.3 整合 09:29
  • >P93 2.4 独热编码One-hot 05:26
  • >P94 2.5 连续有价值的功能 06:54
  • >P95 2.6 回归树 09:51
  • >P96 3.1 使用多个决策树 03:57
  • >P97 3.2 有放回抽样 04:00
  • >P98 3.3 随机森林 06:23
  • >P99 3.4 XGBoost 07:26
  • >P100 3.5 何时使用决策树 06:55
  • >P101 第三课 第一周1.1 欢迎来到第三课 03:22
  • >P102 2.1 什么是聚类 04:13
  • >P103 2.2 K-means直观理解 06:50
  • >P104 2.3 K-means算法 09:50
  • >P105 2.4 优化目标 11:13
  • >P106 2.5 初始化 K-means 08:54
  • >P107 2.6 选择聚类数量 07:58
  • >P108 3.1 发现异常事件 11:54
  • >P109 3.2 高斯正态分布 10:51
  • >P110 3.3 异常检测算法 12:09
  • >P111 3.4 开发与评估异常检测系统 11:39
  • >P112 3.5 异常检测与监督学习对比 08:09
  • >P113 3.6 选择使用什么特征 14:58
  • >P114 第二周 1.1 提出建议 05:33
  • >P115 1.2 使用每个特征 11:23
  • >P116 1.3 协同过滤算法 13:56
  • >P117 1.4 二进制标签 08:28
  • >P118 2.1 均值归一化 08:46
  • >P119 2.2 协同过滤TensorFlow实现 11:38
  • >P120 2.3 寻找相关特征 06:34
  • >P121 3.1 协同过滤与基于内容过滤对比 09:46
  • >P122 3.2 基于内容过滤的深度学习方法 09:43
  • >P123 3.3 从大型目录中推荐 07:53
  • >P124 3.4 推荐系统中的伦理 10:49
  • >P125 3.5 基于内容过滤的TensorFlow实现 04:49
  • >P126 第三周 1.1 什么是强化学习 08:49
  • >P127 1.2 示例:火星探测器 06:42
  • P128 1.3 强化学习的回报 10:19
  • >P129 1.4 决策:强化学习中的策略 02:38
  • >P130 1.5 审查关键概念 05:35
  • >P131 2.1 状态-动作价值函数定义 10:37
  • >P132 2.2 状态-动作价值函数示例 05:23
  • >P133 2.3 贝尔曼方程 12:53
  • >P134 2.4 random stochastic environment(可选) 08:25
  • >P135 3.1 示例:连续状态空间应用 06:25
  • >P136 3.2 登月器 05:54
  • >P137 3.3 学习状态值函数 16:51
  • >P138 3.4 算法改进:改进的神经网络架构 03:01
  • >P139 3.5 算法改进:ε-贪婪策略 09:00
  • >P140 3.6 算法改进:小批量和软更新(可选) 11:44
  • >P141 3.7 强化学习的状态 02:55
  • >P142 3.8 课程总结和致谢 03:12

继续阅读