微信扫码
与创始人交个朋友
我要投稿
今天我们来总结以下大型语言模型面试中常问的问题
A.微调 Fine-tuning
B.数据增强 Data augmentation
C.提示校准 Prompt calibration
D.梯度裁剪 Gradient clipping
答案:C
提示校准包括调整提示,尽量减少产生的输出中的偏差。微调修改模型本身,而数据增强扩展训练数据。梯度裁剪防止在训练期间爆炸梯度。
答案:不需要
向量存储用于存储单词或句子的向量表示。这些向量表示捕获单词或句子的语义,并用于各种NLP任务。
并非所有基于文本的LLM用例都需要矢量存储。有些任务,如情感分析和翻译,不需要RAG也就不需要矢量存储。
最常见的不需要矢量存储的:
1、情感分析:这项任务包括确定一段文本中表达的情感(积极、消极、中性)。它通常基于文本本身而不需要额外的上下文。
2、这项任务包括将文本从一种语言翻译成另一种语言。上下文通常由句子本身和它所属的更广泛的文档提供,而不是单独的向量存储。
A.RLHF
B.Direct Preference Optimization
C.Data Augmentation
答案:C
数据增强Data Augmentation是一种通用的机器学习技术,它涉及使用现有数据的变化或修改来扩展训练数据。虽然它可以通过影响模型的学习模式间接影响LLM一致性,但它并不是专门为人类价值一致性而设计的。
A)从人类反馈中强化学习(RLHF)是一种技术,其中人类反馈用于改进LLM的奖励函数,引导其产生与人类偏好一致的输出。
B)直接偏好优化(DPO)是另一种基于人类偏好直接比较不同LLM输出以指导学习过程的技术。
A.优化所期望的行为
B.利用奖励函数漏洞
答案:B
reward hacking是指在RLHF中,agent发现奖励函数中存在意想不到的漏洞或偏差,从而在没有实际遵循预期行为的情况下获得高奖励的情况,也就是说,在奖励函数设计不有漏洞的情况下才会出现reward hacking的问题。
虽然优化期望行为是RLHF的预期结果,但它并不代表reward hacking。选项A描述了一个成功的训练过程。在reward hacking中,代理偏离期望的行为,找到一种意想不到的方式(或者漏洞)来最大化奖励。
A.微调数据集的大小
B.预训练的模型架构和大小
答案:B
预训练模型的体系结构作为微调的基础。像大型模型(例如GPT-3)中使用的复杂而通用的架构允许更大程度地适应不同的任务。微调数据集的大小发挥了作用,但它是次要的。一个架构良好的预训练模型可以从相对较小的数据集中学习,并有效地推广到目标任务。
虽然微调数据集的大小可以提高性能,但它并不是最关键的因素。即使是庞大的数据集也无法弥补预训练模型架构的局限性。设计良好的预训练模型可以从较小的数据集中提取相关模式,并且优于具有较大数据集的不太复杂的模型。
A.衡量单词的重要性
B.预测下一个单词
C.自动总结
答案:A
transformer 的自注意力机制会对句子中单词的相对重要性进行总结。根据当前正在处理的单词动态调整关注点。相似度得分高的单词贡献更显著,这样会对单词重要性和句子结构的理解更丰富。这为各种严重依赖上下文感知分析的NLP任务提供了支持。
A.限制词汇量
B.减少训练数据量
C.提高计算效率
答案:A
llm处理大量的文本,如果考虑每一个单词,就会导致一个非常大的词表。像字节对编码(BPE)和WordPiece这样的子词算法将单词分解成更小的有意义的单位(子词),然后用作词汇表。这大大减少了词汇量,同时仍然捕获了大多数单词的含义,使模型更有效地训练和使用。
子词算法不直接减少训练数据量。数据大小保持不变。虽然限制词汇表大小可以提高计算效率,但这并不是子词算法的主要目的。它们的主要优点在于用较小的单位集有效地表示较大的词汇表。
A.稀疏单词表示
B.Zipf定律
C.预训练嵌入
答案:B
标准Softmax需要对每个单词进行昂贵的计算,Softmax为词表中的每个单词进行大量矩阵计算,导致数十亿次操作,而Adaptive Softmax利用Zipf定律(常用词频繁,罕见词不频繁)按频率对单词进行分组。经常出现的单词在较小的组中得到精确的计算,而罕见的单词被分组在一起以获得更有效的计算。这大大降低了训练大型语言模型的成本。
虽然稀疏表示可以改善内存使用,但它们并不能直接解决Softmax在大型词汇表中的计算瓶颈。预训练嵌入增强了模型性能,但没有解决Softmax计算复杂性的核心问题。
A.最大新令牌数
B. Top-k
C.Temperature
答案:C
在文本生成过程中,大型语言模型(llm)依赖于softmax层来为潜在的下一个单词分配概率。温度Temperature是影响这些概率分布随机性的关键参数。
当温度设置为低时,softmax层根据当前上下文为具有最高可能性的单个单词分配显着更高的概率。更高的温度“软化”了概率分布,使其他不太可能出现的单词更具竞争力。
最大新令牌数仅定义LLM在单个序列中可以生成的最大单词数。top -k采样限制softmax层只考虑下一个预测最可能的前k个单词。
A. DDP
B. FSDP
答案:B
FSDP(Fully Sharded Data Parallel)是一种技术,当模型太大而无法容纳在单个芯片的内存时,它允许跨GPU缩放模型训练。FSDP可以将模型参数,梯度和优化器进行分片操作,并且将状态跨gpu传递,实现高效的训练。
DDP(分布式数据并行)是一种跨多个GPU并行分发数据和处理批量的技术,但它要求模型适合单个GPU,或者更直接的说法是DDP要求单个GPU可以容纳下模型的所有参数。
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-11-22
ChatGPT Mac桌面端重磅更新!与VS Code、终端完美联动!工作效率起飞!
2024-11-22
用AI提升使用电脑幸福感的小例子
2024-11-13
吴恩达:如何在人工智能领域建立你的职业生涯
2024-11-12
AI知识泛滥的年代,“脑图+AI”=“埃迪+毒液”:未来工作流的黄金组合,你掌握了吗?
2024-11-08
在未来,这种人或许会沦为AI的奴隶
2024-11-05
未来5年,AI将使全球职场技能变革进程从50%加速到70%
2024-10-30
用AI工具完成部门职责和岗位分解,1天干完1个月的活
2024-10-27
鹅厂,悄咪咪上线了个 AI 智能工作台
2024-07-07
2024-06-24
2024-04-02
2024-06-06
2024-04-27
2024-04-02
2024-05-08
2024-05-04
2024-04-19
2024-05-15