2021年7月组队学习-李宏毅机器学习-VandNe

Task01

机器学习介绍
机器学习就是要让机器具有自己学习的能力。
机器学习有三步骤:


机器学习相关技术

  • 监督学习:利用一组已知类别的样本调整分类器的参数,使其达到所要求性能的过程

  • 半监督学习:半监督学习属于无监督学习和监督学习之间。研究人员发现,将未标记数据与少量标记数据结合使用可以显着提高学习准确性。对于学习问题的标记数据的获取通常需要熟练的人类代理(例如转录音频片段)或物理实验。因此与标签处理相关的成本可能使得完全标注的训练集不可行,而获取未标记的数据相对便宜。在这种情况下,半监督学习可能具有很大的实用价值

  • 迁移学习:把为任务A开发模型作为初始点,重用在为任务B开发模型的过程中

  • 无监督学习:本质上是一个统计手段,在没有标签的数据里可以发现潜在的一些结构的一种训练方式

  • 监督学习中的结构化学习:相比于回归,输出一个标量或者预测,输出一个向量,结构化学习的输出更加复杂,可以是图像,可以是语句,可以是树结构,等等可由更小的组件构成的结构体。例如GAN,机器翻译

  • 强化学习:增强学习是指从动物学习、随机逼近和优化控制等理论发展而来,是一种无导师在线学习技术,从环境状态到动作映射学习,使得Agent根据最大奖励值采取最优的策略;Agent感知环境中的状态信息,搜索策略(哪种策略可以产生最有效的学习)选择最优的动作,从而引起状态的改变并得到一个延迟回报值,更新评估函数,完成一次学习过程后,进入下一轮的学习训练,重复循环迭代,直到满足整个学习的条件,终止学习

为什么要学机器学习
成为AI训练师

Task02

回归定义
Regression 就是找到一个函数 functionfunction ,通过输入特征 xx,输出一个数值 ScalarScalar。
模型步骤

  • step1:模型假设,选择模型框架(线性模型)
  • step2:模型评估,如何判断众多模型的好坏(损失函数)
  • step3:模型优化,如何筛选最优的模型(梯度下降)

验证模型好坏
通过average error值来判断

模型优化

  • step1:将多个线性模型整合到一个线性模型之中

  • step2:加入更多参数

  • step3:加入正则化,避免过拟合

Task03

梯度下降
学会了什么是梯度下降。
最重要的是正确调整学习率。

  • 调整过小:走的太慢

  • 调整太大:损失函数会越来越大

Adagrad
普通的梯度下降迭代:
image
Adagrad:
image
化简后可以得到:

随机梯度下降
更快,只需计算某一例子的损失函数就可以更新梯度
image

特征缩放
这个地方不是很懂。。。。

梯度下降的限制
容易陷入局部极值 还有可能卡在不是极值,但微分值是0的地方 还有可能实际中只是当微分值小于某一个数值就停下来了,但这里只是比较平缓,并不是极值点

Task04

深度学习历史

深度学习步骤
与机器学习类似:

  • 神经网络(Neural network)

  • 模型评估(Goodness of function)

  • 选择最优函数(Pick best function)

神经网络

完全连接前馈神经网络:
前馈(feedforward)也可以称为前向,从信号流向来理解就是输入信号进入网络后,信号流动是单向的,即信号从前一层流向后一层,一直到输出层,其中任意两层之间的连接并没有反馈(feedback),亦即信号没有从后一层又返回到前一层。

  • 为什么叫全链接呢?
    • 因为layer1与layer2之间两两都有连接,所以叫做Fully Connect;
  • 为什么叫前馈呢?
    • 因为现在传递的方向是由后往前传,所以叫做Feedforward。

通过隐藏层进行特征转换
把隐藏层通过特征提取来替代原来的特征工程,这样在最后一个隐藏层输出的就是一组新的特征(相当于黑箱操作)而对于输出层,其实是把前面的隐藏层的输出当做输入(经过特征提取得到的一组最好的特征)然后通过一个多分类器(可以是softmax函数)得到最后的输出y。

反向传播


通过正向与反向传播,利用链式法则,得到正确的梯度下降进行更新。