InstructGPT 论文精读【论文精读】

  Рет қаралды 80,870

Mu Li

Mu Li

Күн бұрын

00:00 前言
6:58 标题、作者
9:52 摘要
19:48 导论
30:21 方法
59:47 实验
1:00:02 讨论

Пікірлер: 59
@hongpengjin9435
@hongpengjin9435 Жыл бұрын
感谢老师,不知道是ChatGPT太有趣了还是老师讲解方式好,总之受益匪浅!
@frozhen2807
@frozhen2807 Жыл бұрын
非常喜欢您的讲解。最喜欢的就是您基本没有中英文混着说,纯中文非常不错。
@jingyang4636
@jingyang4636 Жыл бұрын
谢谢老师的讲解!
@wayneyue1662
@wayneyue1662 Жыл бұрын
太喜欢了Mu Li 非常需要AI领域精品论文和方法的讲解!
@Anewghost
@Anewghost Жыл бұрын
雖然大部分我都聽不懂,但還是看完了😂 謝謝你的解說🙏🏻👍🏻
@yanyanzheng4955
@yanyanzheng4955 Жыл бұрын
谢谢大神,一直等着呢
@lucantang4132
@lucantang4132 Жыл бұрын
感谢大佬,讲的很清楚🤩
@quantumjun
@quantumjun Жыл бұрын
真喜欢老师的视频
@zyw2134
@zyw2134 Жыл бұрын
感谢李哥无私分享~!
@0xsamo
@0xsamo Жыл бұрын
太感动了,很喜欢科技的小白,但读不懂论文,简直被戳中G点
@davishuang4010
@davishuang4010 10 ай бұрын
非常棒的講解!!希望你能多出關於chatgpt的影片!!
@CTT36544
@CTT36544 Жыл бұрын
看了你很多视频,发现逻辑清晰,内容可以深入浅出。建议你在这个“论文精度”的playlist之外再开个专门讲DL基础的playlist,保证受欢迎。
@sidolin6671
@sidolin6671 Жыл бұрын
Mu教Berkley课程 KZfaq有
@wayneyue1662
@wayneyue1662 Жыл бұрын
厉害!
@blockedao8855
@blockedao8855 Жыл бұрын
同学们来开组会了
@jijie133
@jijie133 7 ай бұрын
Great video!
@xugangye6494
@xugangye6494 Жыл бұрын
Here, regarding the pairwise ranking loss, it’s actually based on the softmax probability: P(y_w is preferred over y_l) = exp(r(x, y_w; theta) - r(x, y_l; theta)) / ( exp(r(x, y_w; theta) - r(x, y_l; theta)) + exp(r(x, y_l; theta) - r(x, y_w; theta)) ) So, it’s standard in for ranking model
@li-pingho1441
@li-pingho1441 Жыл бұрын
awesome!
@ostensibly531
@ostensibly531 7 ай бұрын
大牛,如果要把chatgpt变成某一领域的expert,应该用这篇文章里的方法还是直接用openai的finetuning api更好?
@jasonwu6012
@jasonwu6012 Жыл бұрын
感谢您的讲解! 我想请教您: Transformer是个非常漂亮的LLM的突破,给了GPT优秀的语言能力。有论文解释为什么好的语言能力,也等于知识记忆和逻辑归纳能力吗?🙏🙏🙏
@senx8758
@senx8758 Жыл бұрын
逻辑归纳能力主要来自语料记忆。 语言模型主要还是文科生
@hayama2363
@hayama2363 Жыл бұрын
用chatGPT讀GPT的三篇文章可以嗎?
@jacksonchen8679
@jacksonchen8679 Жыл бұрын
step 3 的圖好像在影片上沒有 model 41:37
@user-yi4hy7zw8e
@user-yi4hy7zw8e Жыл бұрын
align台灣這邊會傾向翻譯成校準,中國大陸我之前待過會用對齊這個字,可以給老師參考一下
@danielliang3842
@danielliang3842 Жыл бұрын
补充一个,在大陆的生物信息领域,align翻译为 比对
@danielliang3842
@danielliang3842 Жыл бұрын
当然,应该还是 对齐 更接近英文的字面意思
@suofeiwu3406
@suofeiwu3406 Жыл бұрын
大佬给讲讲“Multimodal Chain-of-Thought Reasoning in Language Models” 呗~
@ghostviper5887
@ghostviper5887 Жыл бұрын
最小工作发布单元真的是高情商描述了:)
@incendioraven4269
@incendioraven4269 Жыл бұрын
🤣
@goldaa4093
@goldaa4093 Жыл бұрын
😂
@fitokay
@fitokay 4 ай бұрын
good
@changtimwu
@changtimwu Жыл бұрын
9:54 是啊, 以後不要再以為 "大力出奇蹟" 了
@shuhuijiang361
@shuhuijiang361 10 ай бұрын
请问 RLHF和传统的supervised 找人标groundtruth label是一回事换了个名字吗?还是不同的意思?
@tianyw0
@tianyw0 Жыл бұрын
align = 对齐,现已简称“勾对”,即沟通对齐。
@johnnyhuo8255
@johnnyhuo8255 Жыл бұрын
学习
@qutesoft
@qutesoft Жыл бұрын
aligned 翻译的话应该 对齐
@pighuizhi7364
@pighuizhi7364 Жыл бұрын
沐神,aligned could be translated to 拉通对齐
@whoami6821
@whoami6821 Жыл бұрын
大佬可以把 divi into deep learning 的课也拌匀刀您频道吗? B站在美国好像不是很流畅😭
@user-ne3ei5rs5r
@user-ne3ei5rs5r Жыл бұрын
反向代理
@wayneyue1662
@wayneyue1662 Жыл бұрын
B站有课程视频吗,账户名叫啥
@jokehuang1611
@jokehuang1611 Жыл бұрын
CloseAI 😀
@achillesarmstrong9639
@achillesarmstrong9639 Жыл бұрын
47:27这里有一个错误哦。4选2是生成6个排序,9选2生成36个排序,所以多了6倍,而不是9倍。这里博主说错了哦
@56nxcols89nxci
@56nxcols89nxci Жыл бұрын
align=拉通对齐(华为),简称对齐
@yuli.kamakura
@yuli.kamakura 9 ай бұрын
强化学习 PPO
@yoshi_from_the_turtleland
@yoshi_from_the_turtleland 3 ай бұрын
57:41
@changtimwu
@changtimwu Жыл бұрын
14:00 只能說一語成讖了
@xufenghu3063
@xufenghu3063 Жыл бұрын
🎃
@alanllz
@alanllz Жыл бұрын
align 通常翻译成 对齐?
@yufanz1064
@yufanz1064 Жыл бұрын
统一思想,意见
@jxitc
@jxitc Жыл бұрын
请问为啥不用已有的问答数据库?比如知乎 quora之类的?
@tokyoaflowertokyo8300
@tokyoaflowertokyo8300 Жыл бұрын
知乎上的数据用来做训练?那训练的结果会很情绪化,喜欢装逼或者喜欢喷人,或者小粉红思维
@jxitc
@jxitc Жыл бұрын
@@tokyoaflowertokyo8300 情绪化 装逼 或者政治内容请你移步其他地方,我这里是科学讨论。
@user-wzb
@user-wzb Жыл бұрын
第一次比b站快
@yuli.kamakura
@yuli.kamakura 9 ай бұрын
这个是什么工具呀?
@elementsix1167
@elementsix1167 Жыл бұрын
可以肯定这篇文章主要作者都是华人,排在前三位的很明显是华人的姓氏
@liwang-pt4vp
@liwang-pt4vp Жыл бұрын
在chatGPT无法理解问题的时候,确实提供的答案都是在一本正经的胡说八道
@hujosh8693
@hujosh8693 8 ай бұрын
你真的看懂論文嗎?一開始就胡說八道了。InstructGPT的重點根本不是標數據,是RLHF和reward model,怎麼你說成一定要標一點數據這種論點?
How ChatGPT is Trained
13:43
Ari Seff
Рет қаралды 519 М.
Anthropic LLM 论文精读【论文精读·51】
1:01:52
Mu Li
Рет қаралды 25 М.
ЧУТЬ НЕ УТОНУЛ #shorts
00:27
Паша Осадчий
Рет қаралды 9 МЛН
Playing hide and seek with my dog 🐶
00:25
Zach King
Рет қаралды 33 МЛН
Clown takes blame for missing candy 🍬🤣 #shorts
00:49
Yoeslan
Рет қаралды 40 МЛН
多模态论文串讲·下【论文精读】
1:03:29
Mu Li
Рет қаралды 12 М.
GPT-4论文精读【论文精读·53】
1:20:39
Mu Li
Рет қаралды 92 М.
AWS Certified Cloud Practitioner Training 2020 - Full Course
3:58:01
freeCodeCamp.org
Рет қаралды 5 МЛН
C Programming Tutorial for Beginners
3:46:13
freeCodeCamp.org
Рет қаралды 11 МЛН
ViT论文逐段精读【论文精读】
1:11:31
Mu Li
Рет қаралды 47 М.
GPT,GPT-2,GPT-3 论文精读【论文精读】
1:29:59
Mu Li
Рет қаралды 157 М.
WE GOT ACCESS TO GPT-3! [Epic Special Edition]
3:57:17
Machine Learning Street Talk
Рет қаралды 279 М.
Codeforces Hard | Algo & Coding Stream #9
3:43:10
Errichto Hard Algorithms
Рет қаралды 73 М.
ELMO, BERT, GPT
1:04:52
Hung-yi Lee
Рет қаралды 112 М.
Опасность фирменной зарядки Apple
0:57
SuperCrastan
Рет қаралды 7 МЛН
НЕ БЕРУ APPLE VISION PRO!
0:37
ТЕСЛЕР
Рет қаралды 311 М.
Зарядка-брелок для Apple Watch
0:39
Rozetked
Рет қаралды 209 М.