[科研实践] VS Code (Copilot) + Overleaf (使用 Overleaf Workshop 插件)

[科研实践] VS Code (Copilot) + Overleaf (使用 Overleaf Workshop 插件)

科研圈写文档常用 Latex 环境,尤其是 Overleaf 它自带的 AI 润色工具 Writefull 太难用了。如果能用本地的 CoPilot / Cursor 结合 Overleaf,那肯定超高效!


于是我们找到了 VS Code 里的 Overleaf Workshop 插件。这里已经安装好了,没装过的同学可以直接点击 “安装”

安装后左边会出现 Overleaf Workshop 的图标:

点击右边的“+”:

Overleaf 官网需要登录,这里我们通过 cookie 调用已登录账号的 API:

回到主界面,右键点击 “检查”:


打开检查工具后,找到 “网络”(Network)窗口,搜索 “/project”

/project

如果首次加载没内容,刷新页面就能看到 project 条目了:


点击 project 条目,往下找到 “请求标头”,需要复制一段包含 cookie 的字符串(“神秘代码”)。这段代码全选后按 Ctrl+C 复制:

回到 VS Code,选择 “通过 cookie 登录”,粘贴(Ctrl+V)刚才的 cookie 字符串,回车确认:

这时会列出所有 Overleaf 项目。单击新窗口打开,打开后界面和 Overleaf 一致,左边是 LaTeX 代码,右边是 PDF 预览(“Ctrl+cmd+v” 预览快捷键)。现在试试本地 AI 功能:安装 VS Code 后,可连接 GitHub 或其他 AI 工具(如 CoPilot)

这相当于是用本地AI工具远程操作网页端的Overleaf

接下来就可以畅快写作啦~

快捷键:Ctrl + S 就能直接开始远程编译啦

参考视频:科研论文党王炸组合overleaf+Copilot_哔哩哔哩

Read more

终极指南:5步掌握llama.cpp量化技术,让大模型内存占用直降70%

终极指南:5步掌握llama.cpp量化技术,让大模型内存占用直降70% 【免费下载链接】llama.cppPort of Facebook's LLaMA model in C/C++ 项目地址: https://gitcode.com/GitHub_Trending/ll/llama.cpp 还在为大模型推理时内存爆满而苦恼吗?作为C/C++实现的LLaMA模型移植项目,llama.cpp通过创新的量化(Quantization)技术,将模型参数量化为低精度格式,在保持推理质量的同时大幅降低内存需求。本文将为你揭秘量化技术的核心原理、实战配置和性能优化技巧,帮你轻松在消费级硬件上运行千亿参数模型。 量化技术:大模型部署的破局利器 传统FP32精度模型在推理时需要消耗大量内存,以70亿参数模型为例,仅权重就需要占用约28GB显存。量化技术通过将模型参数从32位浮点数压缩为4位、8位整数,就像把高清视频转为标清——虽然细节略有损失,但核心内容依然清晰可用。 llama.cpp的量化方案通过精度分级+

解密Copilot:如何打造高效的AI原生应用

解密Copilot:如何打造高效的AI原生应用 一、引言:从“工具使用者”到“AI合作者”的革命 钩子:你经历过这些“开发至暗时刻”吗? 凌晨3点,你盯着屏幕上的Cannot read properties of undefined错误,第10次检查接口返回的数据结构——明明昨天还能跑通; 写一个分页组件,你翻了3次Ant Design文档,却还是记不住Pagination组件的showTotal属性怎么用; 改祖传代码时,你花了1小时理解上一任开发者的“天才逻辑”,最后发现只是少写了一个await; 这些场景,每一个开发者都不陌生。我们总在“找工具”“记语法”“修低级错误”上浪费大量时间,而真正创造价值的“逻辑设计”“创意实现”却被挤压到了碎片时间。 直到2021年GitHub Copilot发布,一切开始改变: * 当你输入// 写一个React的登录表单,它自动生成带表单验证、状态管理的完整组件; * 当你写const users = await

基于Qwen2.5-7B实现高效LoRA微调|LLaMA-Factory实战指南

基于Qwen2.5-7B实现高效LoRA微调|LLaMA-Factory实战指南 一、前言 在大语言模型(LLM)快速发展的今天,如何以较低成本对预训练模型进行定制化微调,已成为企业与开发者关注的核心问题。本文将围绕阿里云最新发布的 Qwen2.5-7B-Instruct 模型,结合开源工具 LLaMA-Factory,详细介绍如何通过 LoRA(Low-Rank Adaptation) 技术实现高效的参数微调。 本教程不仅涵盖从环境搭建、数据准备到模型训练的完整流程,还深入解析关键配置项和工程实践中的优化技巧。无论你是初学者还是有一定经验的开发者,都能从中掌握 LoRA 微调的核心方法论,并将其应用于实际项目中。 二、核心概念解析 2.1 Qwen2.5-7B-Instruct:新一代高性能语言模型 Qwen2.5-7B-Instruct 是通义千问系列中的一款指令微调版本,基于 18T tokens 的高质量数据训练而成,在多个维度实现了显著提升: * 更强的知识覆盖:在数学推理、编程能力方面表现优异。 * 更长上下文支持:最大上下文长度达 131,

比 Copilot 能扛事,比 Cursor 懂协作:MonkeyCode 重新定义 AI 编程

比 Copilot 能扛事,比 Cursor 懂协作:MonkeyCode 重新定义 AI 编程

作为每天跟代码、需求、Git打交道的开发者,你是不是早就对AI编程工具又爱又恨? 用Copilot补函数、靠Cursor写Demo确实快,但一到真实项目就拉胯:生成的代码逻辑漏洞百出,改起来比自己写还费劲;本地环境跑AI脚本怕删库跑路,云端工具又没法跟团队Git流程打通;明明想要一个完整的用户管理模块,AI却只给一段孤立代码,还得自己搭架构、调依赖…… 直到长亭科技的MonkeyCode上线,才真正戳中了开发者的核心痛点:AI编程的终极目标,从来不是“写代码更快”,而是让AI成为能参与需求分析、架构设计、团队协作的“全职队友”,把研发流程从“人干活、AI辅助”变成“人决策、AI执行”。 一、颠覆认知:AI编程不该只是“代码打印机” 市面上90%的AI编程工具,本质都是“代码打印机”——你喂给它指令,它吐出代码,至于逻辑对不对、架构合不合理、能不能融入现有项目,全看运气。这也是为什么很多开发者吐槽“AI写Demo还行,真项目不敢用”。 MonkeyCode的核心颠覆,在于它重新定义了AI在研发中的角色:不是IDE里的插件,