avatar
文章
38
标签
0
分类
7
主页
分类
小牛壮士面试之深度学习基础 返回首页
主页
分类

面试之深度学习基础

发表于2025-09-04|更新于2025-09-04
|总字数:0|阅读时长:1分钟
文章作者: kukudelin
文章链接: http://example.com/2025/09/04/%E9%9D%A2%E8%AF%95%E4%B9%8B%E6%B7%B1%E5%BA%A6%E5%AD%A6%E4%B9%A0%E5%9F%BA%E7%A1%80/
版权声明: 本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来源 小牛壮士!
cover of next post
下一篇
面试之大模型基础
问:大模型的涌现能力是什么,什么原因造成的? 大模型的涌现能力是指当模型规模增大到一定程度时,其展现出的超出以往小模型能力范围的复杂且强大的新能力 这主要是由于模型参数量的大幅增加,使其能够学习到更复杂的模式和关系,以及大规模数据训练提供了丰富的知识基础。 问:为何现在的大模型大部分是Decoder only结构?decoder-only架构在无标注数据的zero-shot(Zero-shot学习是指模型在没有针对特定任务进行训练的情况下,能够理解和执行新任务的能力。)学习场景下表现优异,适合自监督学习。 它在参数效率和推理成本上具有优势 encoder-decoder架构需要更多标注数据进行多任务微调来达到最佳性能,且其双向注意力机制可能在某些情况下并不增加模型的表达能力。 问:什么是大模型?大模型的优缺点?大模型通常指的是参数数量巨大的深度学习模型,如 GPT 系列 大模型具有强大的语言生成和理解能力,能处理多种复杂任务 但存在训练成本高、数据需求大、可能出现错误或偏见以及对硬件要求高等缺点。 问:如何评估大模型的性能?有哪些常用的评估指标?问:请描述一下你如何对大模型进行...
avatar
kukudelin
林勇的个人博客
文章
38
标签
0
分类
7
个人开源项目🎯
公告
欢迎来到我的小站
最新文章
面试之深度学习基础
面试之深度学习基础2025-09-04
面试之大模型基础
面试之大模型基础2025-08-29
面试之Transformer,RNN,LSTM
面试之Transformer,RNN,LSTM2025-08-26
基于AutoDL云服务器的大模型LoRA微调原理及实战
基于AutoDL云服务器的大模型LoRA微调原理及实战2025-08-21
基于AutoDL云服务器的VLLM大模型部署以及本地调用
基于AutoDL云服务器的VLLM大模型部署以及本地调用2025-08-20
© 2025 By kukudelin框架 Hexo 7.3.0|主题 Butterfly 5.4.3
平静的大海培养不出优秀的水手