仅用于站内搜索,没有排版格式,具体信息请跳转上方微信公众号内链接
字节大模型算法岗,被疯狂拷打。。。
是时候准备实习和面试了。
不同以往的是,当前职场已不再是那个双向奔赴时代了。求职者在变多,HC在变少,岗位要求还更高了。
最近,我们又陆续整理了很多大厂的面试题,帮助一些球友解惑答疑,分享技术面试中的那些弯弯绕绕。
总结链接如下:
《大模型算法工程师经典百问典》(2025版)正式发布!
《算法工程师直通大厂面经汇总》(2025版)正式发布!
喜欢本文记得收藏、关注、点赞。更多实战和面试交流,文末加入我们星球
情况介绍:硕士应届,有手撕,不过基本都在hot100范围内,面试还是压力很大的,有时候一时间答不出来就直接pass了,有问题欢迎与我交流。
深挖多模态论文
介绍transformer架构
详细说一下Decoder的因果注意力QKV分别来自哪
Attention为什么要做scaled不做会怎么样为什么用根号d_k
Transformer怎么做加速训练(KV缓存)训练和推理有什么区别(并行化)
深挖多模态大模型论文用的video-llama讲一下大模型的结构
论文用了CoT讲一下论文的CoT是怎么样的
微调用的LoRA介绍一下LoRA
LoRA初始化怎么做的,用的秩是多少,为什么不选其他的数
知道deepspeed和megatron吗?分别介绍一下
论文用的deepspeed详细讲了一下三个stage分别是什么
深挖多模态和大模型的论文
Decoder文本生成有哪几种方法
还知道哪些多模态大模型
介绍一下ALBEF、BLIP
BLIP2的结构是什么两阶段怎么训练的有哪些损失
知道PEFT吗讲一下LoRA
还有什么微调方法->prefix-tuning和P-tuning两者分别是怎么做的为了解决什么提出的
后面就是一些场景题
深挖论文
讲一下multi-headattention用pytorch手撕一下要可以实现crossattention的
讲一下你用的大模型是什么结构特征是怎么喂给大模型的
大模型训练为什么不用SFT
LoRA是什么?有什么好处
知道RLHF吗?讲一下训练流程
接下来就是好几个场景题,电商相关的,用大模型解决prompt应该怎么设计,怎么处理prompt的输出,怎么过滤错误格式的输出
llms大厂面试题宝典(知识星球)来了,这是一个面向全体学生和机器学习/算法/大模型/科研人员的技术沟通和求职交流的平台。
在这里你可以了解最前沿AI技术资讯、Paper、大模型、多模态,算法竞赛、实战项目、获取AI算法的校招/社招准备攻略、面试题库、面试经验分享、Offer选择、内推机会、学习路线、求职答疑和海量学习资料等内容。
同时,你也可以与来自港科大、北大、清华、中科院、CMU、腾讯、百度等名校名企开发者互动交流~
llms大厂面试题宝典方向涉及搜广推、深度学习,机器学习,计算机视觉,知识图谱,自然语言处理,大数据,自动驾驶,强化学习,大模型、多模态、具身智能等多个方向。
我们会不定期开展知识星球现金立减优惠活动,加入星球前可以添加我微信:
yangyiya2002,咨询活动详情。iOS用户直接添加我微信进星球。