机器学习笔记:李宏毅ChatGPT:生成式学习的两种策略

1 策略1 “各个击破”——autoregressive model

“各个击破”——一个一个生成出来

2 策略2 : “一次到位”——non-autoregressve model

一步到位,全部生成出来

2.1 non-autoregressive model 如何确定长度? 

  •  两种策略
    • 策略1:始终生成固定长度(比如100),如果出现end,那么end后面的部分直接扔掉
    • 策略2:首先输出一个数字n,表示之后我们要输出多长,然后输出n长度的句子

3 二者的对比

 

3.1 生成速度

  •  一般文字相关的任务考虑“各个击破”,而影像相关的任务考虑“一次到位”
    • 因为影像每一帧都有很多的像素,如果“各个击破”,那么效率太慢了

3.2 生成品质

  •  “各个击破”的话是先根据概率生成“老”,然后将“老”放入输入,生成下一个字的概率分布,再sample,这样得到“老师”的概率会很大
  • “一次到位”的话同时生成所有字的概率,同时sample,得到有问题的词组的概率会很大

4 二者的结合

4.1 语音合成

4.2 类diffusion model的思路

 

  •  好多次“一次到位”联合使用
    • 每经过一次“一次到位”,图像就会更清楚一点
    • ——>图像会越来越清楚

视频来源:李宏毅讲解生成式AI(大模型,文本,图像)_哔哩哔哩_bilibili

本文链接:https://my.lmcjl.com/post/4089.html

展开阅读全文

4 评论

留下您的评论.