最近春招和实习已开启了。
不同以往的是,当前职场环境已不再是那个双向奔赴时代了。求职者在变多,HC 在变少,岗位要求还更高了。
最近,我们又陆续整理了很多大厂的面试题,帮助一些球友解惑答疑,分享技术面试中的那些弯弯绕绕。
喜欢本文记得收藏、关注、点赞。
岗位
一面
- 位置编码:Bert模型位置编码,llama的后续改进有啥rope,mla用了啥编码咋做到
- 是否有基于ChatGPT生成embedding的实际应用案例?其与Bert的embedding机制有何区别?
- 大模型微调项目(如GPT系列/Bert等)及采用的微调策略,数据集规模数据配比
- 大模型模型包含多少可训练参数?训练和推理显存估计
- megraton lm细节,zero三个阶段
- LoRA细节,AB矩阵初始化,mla和lora区别,现在有啥peft方法
- 讲讲最近读的一篇论文
- 最大子数组和问题?
二面
- 在之前使用过的一些大模型部署中,您遇到过哪些性能瓶颈及解决方案?
- 现在常见的几个大模型有哪些改进区别和不同,rope, silu, gpa, mha
- Transformer推理加速的核心技术有哪些 vllm的细节之类的
- 讲讲deepseek的mla和grpo挑一个讲讲细节
- 讲讲FlashAttention的工作原理
- 合并区间