科技一站

 找回密码
 立即注册
楼主: 恶魔之泪

通向AGI之路:大型语言模型(LLM)技术精要

[复制链接]

4

主题

5

帖子

12

积分

新手上路

Rank: 1

积分
12
发表于 2023-1-18 11:07:03 | 显示全部楼层
老师的文章鞭辟入里,带来了很多新视角,前排强推!
回复

使用道具 举报

3

主题

10

帖子

21

积分

新手上路

Rank: 1

积分
21
发表于 2023-1-18 11:07:34 | 显示全部楼层
感谢长文分享!
回复

使用道具 举报

2

主题

3

帖子

7

积分

新手上路

Rank: 1

积分
7
发表于 2023-1-18 11:08:09 | 显示全部楼层
感谢老师的长文分享~
回复

使用道具 举报

2

主题

4

帖子

7

积分

新手上路

Rank: 1

积分
7
发表于 2023-1-18 11:09:01 | 显示全部楼层
估计又是机器人
回复

使用道具 举报

2

主题

12

帖子

23

积分

新手上路

Rank: 1

积分
23
发表于 2023-1-18 11:09:55 | 显示全部楼层
写的文章真是干货满满。[酷]
回复

使用道具 举报

1

主题

8

帖子

14

积分

新手上路

Rank: 1

积分
14
发表于 2023-1-18 11:10:52 | 显示全部楼层
前排,干活满满,CV领域的也得到了一定的启发
回复

使用道具 举报

1

主题

11

帖子

21

积分

新手上路

Rank: 1

积分
21
发表于 2023-1-18 11:11:21 | 显示全部楼层
插眼,等过两年来看看预测的对不对
回复

使用道具 举报

2

主题

8

帖子

16

积分

新手上路

Rank: 1

积分
16
发表于 2023-1-18 11:12:04 | 显示全部楼层
收获很大,非常感谢分享! 感觉涌现能力背后原因的两种分析本质上是一个,都是不够平滑,只不过一个显示&容易理解,一个隐式&不容易理解。
另外感觉本身instruct是不存在的,原本应该只有in context。只有出现了大量的sample后才能出现instruct(自然规律),不过model可以在train data里直接学习这个instruct <-> context的规律。
回复

使用道具 举报

3

主题

5

帖子

11

积分

新手上路

Rank: 1

积分
11
发表于 2023-1-18 11:12:30 | 显示全部楼层
看完了,但是感觉这方面的研究一般的研究者难以开展[思考]NLP这个的发展趋势,小研究者比较难参与了吧……?
回复

使用道具 举报

1

主题

2

帖子

3

积分

新手上路

Rank: 1

积分
3
发表于 2023-1-18 11:13:01 | 显示全部楼层
如果可以掌握“输入和输出对应的分布”可以认为是学到了(总结了)这个规律吧?虽然不是数学符号形式的学到了,至少相当于比中世纪人们学到知识
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|科技一站

GMT+8, 2025-8-21 21:34 , Processed in 0.115096 second(s), 21 queries .

Powered by Discuz! X3.4

Copyright © 2001-2020, Tencent Cloud.

快速回复 返回顶部 返回列表