【前端面经】字节前端社招面经分享(已offer)

社招时间线

全程面试时间都是候选人定的,字节效率还是非常高的
  • 10.23 HR电话沟通约面
  • 10.28 技术一面(两小时后告知通过约面)
  • 10.30 技术二面(半小时后告知通过约面)
  • 11.4 技术三面(两小时后告知通过约面)
  • 11.5 HR面(三小时后告知通过)
  • 11.5 OC
  • 11.5 收集薪资流水证明
  • 11.6 谈薪
  • 11.11 书面offer

面试

基本都是从简历出发深挖问题,没有太多通用性,仅列出偏技术点不涉及具体项目的问题。
因为AI相关内容较多,所以问题也偏AI。

技术一面(1h)

  1. 代码输出题:闭包与变量提升相关
  2. 手写题:数组转树形结构
  3. 手写题:实现带并发限制的异步任务调度器
  4. Promise 相关方法及应用场景
  5. JS 中 this 的指向是如何确定的?
  6. 覆盖数组 forEach 方法时,内部的 this 指向谁?
  7. 前端跨域的解决方案?
  8. Nginx 代理和 CORS 解决跨域原理上的区别?
  9. 介绍一个对自己成长帮助最大或难度最大的项目
  10. 介绍一下大数据量下的性能优化实践
  11. setTimeout 的时间间隔是如何确定的?
  12. AI 在你工作中的应用场景?如何处理 AI 生成代码的 Bug?
  13. 项目经历深挖

技术二面(1h)

  1. AI 服务与模型选择
  2. 微前端与应用间通信
  3. Web Worker 的使用场景和原因
  4. AI 编程的更多探索
  5. MCP (Model Context Protocol) 的使用
  6. 对 Agent 模式的了解
  7. SSO 单点登录方案
  8. 项目经历深挖
  9. 职业规划
  10. 手写题:实现带重试和超时的 fetch
  11. 手写题:实现函数柯里化

技术三面(1h)

  1. AI 提效带来的研发流程变化
  2. AI 编程采纳率与遇到的问题
  3. 提升 AI 采纳率的思考
  4. Design to Code (D2C) 的思考
  5. 提示词(Prompt)的编写与迭代
  6. Web Worker 的原理与实践
  7. 离职原因与当前状态
  8. ECharts 大数量下的性能优化,场景题
  9. 项目经历深挖
  10. Webpack vs Vite
  11. 手写题:实现异步任务调度器(一面题的变式,若未复盘追问会写不出)
  12. 职业规划、工作强度与学习方式

HR面(50min)

  1. 离职原因 & 职业规划
  2. 前司经历 & 成就复盘
  3. 项目深度剖析
  4. 求职动机 & 对 AI 的思考
  5. 薪资期望

总结

  • 前端基础:前端基础一定要扎实,每个点都会问到原理层面
  • 项目深挖:简历上的项目必须经得住“拷打”,要能从业务逻辑讲到技术选型,再到底层实现原理;每个点都可能被层层追问
  • AI相关:现在行业普遍看重具备 AI Native 思维 的研发工程师,要对 AI 技术保持好奇和实践敏感度
  • 职业规划:技术面和 HR 面都会问,尤其是每段经历的离职和求职动机,提问会很犀利
  • 手写题:虽然准备了hot100的算法没考到,但是还是准备着比较好,JS 手写题不仅要写得出,还要能现场讲清思路、分析边界,并应对变式和追问

分享

这次面试也是重新梳理准备了一遍八股文,因为原本技术栈主要是Vue所以没有React相关的梳理,大家有需要的可以参考,有错误的地方欢迎评论区交流指正~
【前端面试】HTML篇
【前端面试】CSS篇
【前端面试】JS篇
【前端面试】Vue篇
【前端面试】Git篇
【前端面试】前端性能优化篇
【前端面试】手写题篇
【前端面试】浏览器&网络篇
【前端面试】前端工程化篇

结尾

本次面试最深的感受就是,网上的面经其实参考意义已经没有很大了,更多的是参考每家公司的面试风格与侧重。每段经历都要经得起“拷打”,思考问题要全面有深度,面对很多犀利的有压力的提问也要快速反应。

有个小经验可以分享给大家,面试的时候录音,面试后直接把录音转文字的内容写到IDE的新建md文档中,让AI帮你做梳理和复盘会非常高效。除此之外,在简历编写和项目深度问答方面都可以让AI协助mock面试,并做进一步复盘总结也很好用。

祝愿看到这篇文章的大家都能拿到满意的offer~ 有什么问题欢迎在评论区交流~

Read more

llama-cpp-python完整安装指南:5步解决90%新手问题 [特殊字符]

llama-cpp-python完整安装指南:5步解决90%新手问题 🎯 【免费下载链接】llama-cpp-pythonPython bindings for llama.cpp 项目地址: https://gitcode.com/gh_mirrors/ll/llama-cpp-python llama-cpp-python是专为llama.cpp库设计的Python绑定项目,为开发者提供了在Python环境中高效运行本地大语言模型的完美解决方案。通过该项目,您可以轻松实现文本生成、对话交互、多模态推理等AI功能,无需依赖云端API即可享受强大的本地AI推理能力。 🔧 一键编译配置技巧 环境配置是新手最容易遇到问题的环节。llama-cpp-python支持多种硬件加速后端,正确配置编译环境至关重要。 步骤1:基础环境检查 确保系统已安装Python 3.8+和C编译器: * Linux/Mac: gcc或clang * Windows: Visual Studio或MinGW * MacOS: Xcode命令行工具 步骤2:核心安装命令 pip in

用OpenClaw做qq ai办公机器人(支持群聊关键词触发+自定义域名发送任意邮件)

用OpenClaw做qq ai办公机器人(支持群聊关键词触发+自定义域名发送任意邮件)

1.OpenClaw对接QQ(qq账号当机器人使用) 在任意文件夹创建项目文件夹napcat及需要的文件夹,并创建docker-compose.yml mkdir -p napcat && cd napcat mkdir -p config .config logs docker-compose.yml内容参考 services: napcat: image: mlikiowa/napcat-docker:latest container_name: napcat restart: unless-stopped environment: - NAPCAT_UID=${NAPCAT_UID:-1000} - NAPCAT_GID=${NAPCAT_GID:-1000} - MESSAGE_POST_FORMAT=string # 网络服务(

Whisper 模型本地化部署:全版本下载链接与离线环境搭建教程

Whisper 模型本地化部署指南 一、模型版本与下载 Whisper 提供多种规模版本,可通过以下官方渠道获取: 1. GitHub 仓库 https://github.com/openai/whisper 包含最新代码、预训练权重和文档 * tiny.en / tiny * base.en / base * small.en / small * medium.en / medium * large-v2 (最新大模型) Hugging Face 模型库 所有版本下载路径: https://huggingface.co/openai/whisper-{version}/tree/main 替换 {version} 为具体型号: 二、离线环境搭建教程 准备工作 1.

llama.cpp量化模型部署实战:从模型转换到API服务

1. 为什么你需要关注llama.cpp:让大模型在普通电脑上跑起来 如果你对AI大模型感兴趣,肯定听说过动辄需要几十GB显存的“庞然大物”。想在自己的电脑上跑一个7B参数的模型,以前可能得配一张昂贵的专业显卡。但现在,情况不一样了。我今天要跟你聊的 llama.cpp,就是那个能让大模型“瘦身”并飞入寻常百姓家的神奇工具。 简单来说,llama.cpp是一个用C/C++编写的开源项目,它的核心目标只有一个:用最高效的方式,在消费级硬件(比如你的笔记本电脑CPU)上运行大型语言模型。它不像PyTorch那样是个庞大的深度学习框架,它更像一个“推理引擎”,专注于把训练好的模型,以最小的资源消耗跑起来。 我刚开始接触大模型部署时,也被各种复杂的依赖和巨大的资源需求劝退过。直到用了llama.cpp,我才发现,原来在我的MacBook Pro上,也能流畅地和Llama 2这样的模型对话。这背后的功臣,主要就是两点:纯C/C++实现带来的极致性能,以及模型量化技术带来的体积与速度革命。量化这个词听起来有点技术,你可以把它想象成给模型“压缩图片”