前端预览doc文件,收藏这篇就够了

市面上看到很多关于预览的 但很多都不支持doc 可能是版本太老了 被遗弃了吧 直接步入正题

解决方案:

1.让后端进行转 返回给你docx格式 进行预览

2.使用 iframe 直接进行预览

主要说一下注意事项:

<iframe :src="previewUrl" frameborder="0"></iframe> 

1.docUrl 必须是一个线上联网可打开的地址 拒绝本地 局域网

对地址进行处理

 const docUrl = "你doc的地址"; this.previewUrl = `https://view.officeapps.live.com/op/embed.aspx?src=${encodeURIComponent( docUrl )}`; 

将doc文件的URL传递给Microsoft Office Viewer服务

previewUrl 接收处理之后的地址 赋值到iframe中的src中就ok了

踩坑 如果有其他方法 欢迎请教

2025开年,AI技术打得火热,正在改变前端人的职业命运:

阿里云核心业务全部接入Agent体系;

字节跳动30%前端岗位要求大模型开发能力;

腾讯、京东、百度开放招聘技术岗,80%与AI相关……

大模型正在重构技术开发范式,传统CRUD开发模式正在被AI原生应用取代!

最残忍的是,业务面临转型,领导要求用RAG优化知识库检索,你不会;带AI团队,微调大模型要准备多少数据,你不懂;想转型大模型应用开发工程师等相关岗,没项目实操经验……这不是技术焦虑,而是职业生存危机!

曾经React、Vue等热门的开发框架,已不再是就业的金钥匙。如果认为会调用API就是懂大模型、能进行二次开发,那就大错特错了。制造、医疗、金融等各行业都在加速AI应用落地,未来企业更看重能用AI大模型技术重构业务流的技术人。

如今技术圈降薪裁员频频爆发,传统岗位大批缩水,相反AI相关技术岗疯狂扩招,薪资逆势上涨150%,大厂老板们甚至开出70-100W年薪,挖掘AI大模型人才!

在这里插入图片描述

不出1年 “有AI项目开发经验”或将成为前端人投递简历的门槛。

风口之下,与其像“温水煮青蛙”一样坐等被行业淘汰,不如先人一步,掌握AI大模型原理+应用技术+项目实操经验,“顺风”翻盘!

大模型目前在人工智能领域可以说正处于一种“炙手可热”的状态,吸引了很多人的关注和兴趣,也有很多新人小白想要学习入门大模型,那么,如何入门大模型呢?

下面给大家分享一份2025最新版的大模型学习路线,帮助新人小白更系统、更快速的学习大模型!

2025最新版ZEEKLOG大礼包:《AGI大模型学习资源包》免费分享**

一、2025最新大模型学习路线

一个明确的学习路线可以帮助新人了解从哪里开始,按照什么顺序学习,以及需要掌握哪些知识点。大模型领域涉及的知识点非常广泛,没有明确的学习路线可能会导致新人感到迷茫,不知道应该专注于哪些内容。

我们把学习路线分成L1到L4四个阶段,一步步带你从入门到进阶,从理论到实战。

L1级别:AI大模型时代的华丽登场

L1阶段:我们会去了解大模型的基础知识,以及大模型在各个行业的应用和分析;学习理解大模型的核心原理,关键技术,以及大模型应用场景;通过理论原理结合多个项目实战,从提示工程基础到提示工程进阶,掌握Prompt提示工程。

L2级别:AI大模型RAG应用开发工程

L2阶段是我们的AI大模型RAG应用开发工程,我们会去学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。

L3级别:大模型Agent应用架构进阶实践

L3阶段:大模型Agent应用架构进阶实现,我们会去学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造我们自己的Agent智能体;同时还可以学习到包括Coze、Dify在内的可视化工具的使用。

L4级别:大模型微调与私有化部署

L4阶段:大模型的微调和私有化部署,我们会更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调;并通过Ollama、vLLM等推理部署框架,实现模型的快速部署。

整个大模型学习路线L1主要是对大模型的理论基础、生态以及提示词他的一个学习掌握;而L3 L4更多的是通过项目实战来掌握大模型的应用开发,针对以上大模型的学习路线我们也整理了对应的学习视频教程,和配套的学习资料。

二、大模型经典PDF书籍

书籍和学习文档资料是学习大模型过程中必不可少的,我们精选了一系列深入探讨大模型技术的书籍和学习文档,它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础(书籍含电子版PDF)

三、大模型视频教程

对于很多自学或者没有基础的同学来说,书籍这些纯文字类的学习教材会觉得比较晦涩难以理解,因此,我们提供了丰富的大模型视频教程,以动态、形象的方式展示技术概念,帮助你更快、更轻松地掌握核心知识

四、大模型项目实战

学以致用 ,当你的理论知识积累到一定程度,就需要通过项目实战,在实际操作中检验和巩固你所学到的知识,同时为你找工作和职业发展打下坚实的基础。

五、大模型面试题

面试不仅是技术的较量,更需要充分的准备。

在你已经掌握了大模型技术之后,就需要开始准备面试,我们将提供精心整理的大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。


因篇幅有限,仅展示部分资料,需要点击下方链接即可前往获取

2025最新版ZEEKLOG大礼包:《AGI大模型学习资源包》免费分享

Read more

【实测】OpenClaw 爆火背后:国内这几款“执行式AI”平替,谁才是真正的生产力黑马?

【实测】OpenClaw 爆火背后:国内这几款“执行式AI”平替,谁才是真正的生产力黑马?

摘要:最近 GitHub 上 OpenClaw(大龙虾)斩获 21 万 Star,正式宣告 AI 进入“执行代理”元年。但冷静下来看,高昂的 API 账单、复杂的 Docker 配置以及对国内办公软件(钉钉/飞书)的“水土不服”,让很多开发者直呼“玩不起”。本文将深度拆解国内主流 Agent 平台,并引入 RPA 领军者“实在Agent”进行破坏性实测,看看谁才是真正能落地的生产力工具。 1. 行业现状:Agent 落地为何成了“极客的玩具”? 在过去的一周里,AI 圈的口号已经从“Chat”转向了“Act”。OpenClaw 的爆火证明了用户不再满足于“

@anthropic-ai/claude-code 快速上手指南

本文重点:快速启动项目、配置 API、常用操作,让开发者立即开始实战,命令清单放在最后参考。 一、安装及配置秘钥 说明:Claude Code 依赖 git 和 npm,这里不赘述基础安装。 1.1 安装 Claude Code 升级或首次安装: npminstall-g @anthropic-ai/claude-code ⚠️ 不同版本支持的命令略有差异,最终以 /help 输出为准。 1.2 配置 API 配置文件路径: 系统路径WindowsC:\Users\用户名\.config\claude-code\config.jsonLinux/Mac~/.config/claude-code/config.json 参考:https://platform.

超越代码生成器:深度解析Triton-Copilot的人机协同设计哲学

超越代码生成器:深度解析Triton-Copilot的人机协同设计哲学 最近和几位负责底层性能优化的同事聊天,大家普遍有个共鸣:现在做高性能算子开发,感觉像是在走钢丝。一边是模型复杂度指数级增长带来的性能压力,另一边是手写CUDA或Triton代码那令人望而生畏的学习曲线和调试成本。资深专家忙得脚不沾地,而应用层开发者面对性能瓶颈往往束手无策,只能干等着排期。这种“专家依赖症”已经成为AI工程化落地的一个典型瓶颈。 正是在这种背景下,我第一次接触到Triton-Copilot。起初我以为它不过是又一个“智能代码补全”工具,但深入使用和剖析其架构后,我发现它的野心远不止于此。它不像ChatGPT那样,你问一句“写个矩阵乘法的Triton代码”,它给你一段可能能跑、但性能和正确性都无法保证的文本。Triton-Copilot构建的,是一套完整的、以验证和协作为核心的软件开发新范式。它试图回答一个根本性问题:如何将人类专家的领域知识(比如对硬件内存层次的理解、对数值稳定性的把握)与AI的代码生成和探索能力系统性地结合起来,而不仅仅是让AI“模仿”人类写代码? 这篇文章,我想从一个系统设

LM Studio模型加载全攻略:从格式识别到本地部署(支持LLaMA/Mistral等主流模型)

LM Studio模型加载全攻略:从格式识别到本地部署(支持LLaMA/Mistral等主流模型) 在开源大模型生态中,本地部署已成为开发者探索AI能力的重要方式。LM Studio作为一款轻量级模型运行环境,以其简洁的交互界面和对多种架构的支持,逐渐成为个人开发者的首选工具。本文将深入剖析模型加载的全流程,从文件格式解析到实战部署技巧,帮助您避开常见陷阱,高效运行各类主流大模型。 1. 模型格式深度解析 LM Studio对模型格式的支持并非一刀切,不同格式在性能、兼容性和功能完整性上存在显著差异。当前主流格式可分为三类: GGUF格式 作为llama.cpp生态的专有格式,GGUF已成为LM Studio的黄金标准。其优势体现在: * 量化支持:内置从2bit到8bit的多级量化方案(如q4_K_M表示4bit中精度量化) * 跨平台一致性:同一模型文件可在Windows/macOS/Linux无缝运行 * 内存映射:支持部分加载,降低内存占用 GPTQ格式 基于TensorRT的量化方案,特点包括: * 仅部分架构支持(如LLaMA-1/2、Mistral