节前,我们组织了一场算法岗技术&面试讨论会,邀请了一些互联网大厂朋友、今年参加社招和校招面试的同学。
针对大模型技术趋势、大模型落地项目经验分享、新手如何入门算法岗、该如何准备面试攻略、面试常考点等热门话题进行了深入的讨论。
总结链接如下:
喜欢记得点赞、收藏、关注。更多技术交流&面经学习,可以文末加入我们社群。
AI 大模型技术经过2023年的狂飙,2024年必将迎来应用的落地,对 IT 同学来讲,这里蕴含着大量的技术机会,越来越多的企业开始招聘 AI 大模型岗位。
本文梳理了 AI 大模型开发技术的面试之道,从 AI 大模型基础面、AI 大模型进阶面、LangChain 开发框架面、向量数据库面等不同知识维度,试图找到一个共同的面试速成模式,希望对 IT 同学有所助益。
✅1. 为什么要增量预训练?
✅2. 进行 增量预训练 需要做哪些准备工作?
✅3. 增量预训练 所用 训练框架?
✅4. 增量预训练 训练流程 是怎么样?
✅5. 增量预训练 一般需要多大数据量?
✅6. 增量预训练 过程中,loss 上升正常么?
✅7. 增量预训练 过程中,lr 如何设置?
✅8. 增量预训练 过程中,warmup_ratio 如何设置?
✅9. warmup 的步数对大模型继续预训练 是否有影响?
✅10. 学习率大小对大模型继续预训练 后 上下游任务影响?
✅11. 在初始预训练中使用 Rewarmup 对大模型继续预训练性能影响?
✅1、知识蒸馏和无监督样本训练?
✅2、对知识蒸馏知道多少,有哪些改进用到了?
✅3、谈一下对模型量化的了解?
✅4、模型压缩和加速的方法有哪些?
✅5、你了解的知识蒸馏模型有哪些?
✅1、当前优化模型最主要技术手段有哪些?
✅2、推理加速框架有哪一些?都有什么特点?
✅3、vLLM的功能有哪些?
✅4、vLLM的优缺点?
✅6、vLLM离线批量推理?
✅7、vLLM API Server?
✅8、介绍一下Text generation inference?
✅9、Text generation inference的功能有哪些?
✅10、Text generation inference的优缺点?
技术要学会分享、交流,不建议闭门造车。一个人可以走的很快、一堆人可以走的更远。
成立了算法面试和技术交流群,相关资料、技术交流&答疑,均可加我们的交流群获取,群友已超过2000人,添加时最好的备注方式为:来源+兴趣方向,方便找到志同道合的朋友。
方式①、微信搜索公众号:机器学习社区,后台回复:加群
方式②、添加微信号:mlc2040,备注:来自CSDN + 技术交流
原文链接:https://blog.csdn.net/2301_78285120/article/details/138401686?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522171851498716800186542559%2522%252C%2522scm%2522%253A%252220140713.130102334.pc%255Fblog.%2522%257D&request_id=171851498716800186542559&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~blog~first_rank_ecpm_v1~times_rank-3-138401686-null-null.nonecase&utm_term=AI%E9%9D%A2%E8%AF%95