语言:中文解说配英文字幕(字幕自动生成) 视频类型:科普动画 + 信息化教学演示 画面风格:科技感强、蓝色和白色为主色调、简洁直观的 2D/3D 混合动画 时长:30 秒 分镜脚本: 开场 (0-5s):标题“什么是 BERT?”缓缓出现,背景是流动的神经网络与数据流特效。 核心理念 (5-10s):动画展示文本序列进入 BERT,左右两边的箭头代表它可以 同时读取上下文信息,字幕显示“BERT:Bidirectional Encoder Representations from Transformers”。 内部结构 (10-20s):展示多层 Transformer Encoder 堆叠的动画,每一层都有自注意力(attention)连接线闪烁,数据在层与层之间流动。 输入组成 (20-25s):简单展示 Token Embedding、Segment Embedding、Position Embedding 三者合并为一条向量序列进入模型。 应用场景 (25-30s):快速切换几个 BERT 应用示例:问答系统(高亮答案)、命名实体识别(人名和公司名高亮)、文本分类(情感正负面标签)。最后出现文字“BERT——理解语言的强大工具”。 音乐与节奏:科技感背景音乐,节奏随动画切换加快。 字幕示例: “BERT:双向理解语言的AI模型” / "BERT: A bidirectional AI language model" “基于多层 Transformer Encoder” / "Built on multi-layer Transformer Encoders" “广泛应用于问答、信息抽取、分类等任务” / "Widely used in QA, information extraction, and classification"

视频信息