视频字幕
大家好!今天咱们聊聊最近超火的大模型背后的神秘技术。先打个比方:大模型就像一个超级会文本接龙的学霸。它的厉害之处不是靠逻辑或事实,而是死记硬背了海量文字,比如全网的小说、新闻、网页,然后总结出语言规律。
比如它知道吃饭后面接时间的概率比睡觉高,因为人类文字里经常这么写。大模型通过海量文本学会词语搭配的概率、句子的语法结构,以及上下文的关联性。
就像小孩学说话要听无数句子,大模型先啃完billions of文字,学会怎么接词、造句。比如它知道床前明月光下句大概率是疑是地上霜,因为古诗里总这么写。这个过程叫做预训练。
光会接龙不够,得让它懂具体任务。比如教它翻译:输入吃饭,输出eat;分类:输入这部电影很无聊,输出负面评价;问答:输入大熊猫幼仔体重,输出一百克左右。就像老师给学生布置作业,通过大量输入输出例子,让模型学会按指令做事。
厉害的是,大模型不用大量练习就能做新任务。比如你给它一个任务:把投诉分到理赔、销售误导等类别,再举一到两个例子,它就能自己分类新投诉了。就像你教孩子认苹果,再给他看梨,他就能自己认橘子了。这就是大模型的举一反三能力。
比如它知道吃饭后面接时间的概率比睡觉高,因为人类文字里经常这么写。大模型通过海量文本学会词语搭配的概率、句子的语法结构,以及上下文的关联性。
就像小孩学说话要听无数句子,大模型先啃完billions of文字,学会怎么接词、造句。比如它知道床前明月光下句大概率是疑是地上霜,因为古诗里总这么写。这个过程叫做预训练。
光会接龙不够,得让它懂具体任务。比如教它翻译:输入吃饭,输出eat;分类:输入这部电影很无聊,输出负面评价;问答:输入大熊猫幼仔体重,输出一百克左右。就像老师给学生布置作业,通过大量输入输出例子,让模型学会按指令做事。
厉害的是,大模型不用大量练习就能做新任务。比如你给它一个任务:把投诉分到理赔、销售误导等类别,再举一到两个例子,它就能自己分类新投诉了。就像你教孩子认苹果,再给他看梨,他就能自己认橘子了。这就是大模型的举一反三能力。