全网最靠谱有效!!!解决新机型 Copilot 键替代右 Ctrl 键问题

全网最靠谱有效!!!解决新机型 Copilot 键替代右 Ctrl 键问题

引路者👇:

前言

一、先搞懂:Copilot 键原本是干嘛的?

二、核心解决方案:用微软官方工具 PowerToys 映射

步骤 1:下载安装 PowerToys

步骤 2:开启 “键盘管理器” 功能

步骤 3:添加 “快捷键映射”(关键步骤)

步骤 4:测试功能是否生效

三、注意事项:确保映射长期生效

四、常见问题排查(避坑指南)

五、总结


前言

        作为一名长期依赖右 Ctrl 键进行操作的程序员 / 办公用户,今年换了新的拯救者笔记本后,发现键盘上原本的右 Ctrl 键被一个陌生的 “Copilot 键” 取代了。日常用 “Ctrl+C”“Ctrl+V”“Ctrl+X” 时,总习惯性摸向右 Ctrl 键,结果每次都按错,效率大打折扣。相信不少 2025年入手拯救者、小新、YOGA、ThinkBook 机型的朋友,都遇到了同样的困扰。

        Fly 查了不少网上的教程,要么步骤不完整,要么没说清关键原理,试了好几次都失败。后来自己研究了微软官方工具 PowerToys,终于找到靠谱的解决方法,亲测一周稳定可用,今天把详细步骤整理出来,希望能帮到有同样需求的小伙伴。

一、先搞懂:Copilot 键原本是干嘛的?

        在开始修改之前,先给大家科普下这个 “抢位置” 的 Copilot 键 —— 它可不是普通的功能键,而是微软为 Windows 11 系统推出的AI 助手快捷触发键

正常情况下,按下 Copilot 键后:

  1. 如果你的电脑支持且已登录微软账户,会直接打开「Copilot for Windows」生成式 AI 助手,能帮你做很多事:比如语音指令设置系统(静音、开深色模式)、截图分析、查航班酒店、解答设备问题(比如 “为什么音频没声音”);
  2. 如果电脑不支持 Copilot 应用,或者所在地区无法使用该功能(微软暂未在中国大陆开放该服务),按下后会默认打开 Windows 搜索框 ,或者是按下之后毫无反应,相当于一个无用按键

        虽然 Copilot 键的 AI 功能有一定实用性,但对于习惯用右 Ctrl 键的用户来说,“失去右 Ctrl” 的痛点远大于它的价值,所以才有了 “将 Copilot 键改回右 Ctrl 功能” 的需求。

二、核心解决方案:用微软官方工具 PowerToys 映射

        很多人不知道,微软有个免费的 “效率神器”——PowerToys,里面的 “键盘管理器” 功能能自定义键盘映射,而且是官方工具,安全性和兼容性都比第三方软件靠谱。

        关键要注意:Copilot 键不是独立按键,它实际触发的是 “Win + Shift + F23” 这个组合指令,所以不能直接 “单

Read more

无人机航测内业处理(iTwin Capture Modeler)

无人机航测内业处理(iTwin Capture Modeler)

iTwin Capture Modeler 内业处理 1、概述 本文以iTwin Capture Modeler(旧名称为Context Capture或Smart3D)软件为例介绍航测建模、土方算量、三维模型在线发布分享等内业处理。 本机所使用笔记本电脑主要配置: CPU:intel Core Ultra 9 275HX 显卡:NVIDIA GeForce RTX 5070 Ti Laptop GPU 12GB 内存:32GB 注意:内存大小决定是否可以成功建模,内存不足建模失败(不会提示失败原因),推荐16GB以上;硬盘剩余容量建议为建模图片大小的2~3倍,否则会因为容量不足建模失败。 2、内业数据处理 2.1新建工程 打开两个软件,第一个为引擎,建模必须打开,第二个为主程序,第三个为模型浏览查看程序 开始计算空三或者建模时,

Vitis使用教程:从零实现AI模型FPGA部署

从零开始:用Vitis把AI模型部署到FPGA上,我走过的每一步都算数 最近在做边缘AI推理项目时,被一个现实问题卡住了:GPU功耗太高,端侧跑不动;云端延迟又太大,实时性扛不住。于是我把目光转向了FPGA——这块曾经“难啃”的硬件,如今在 Vitis 的加持下,竟然也能像写软件一样开发AI加速器。 今天我想和你分享的,不是一篇冷冰冰的技术文档,而是一次真实的、手把手带你从模型训练到板级验证的全过程实战记录。如果你也想让自己的PyTorch模型在KV260开发板上跑出上千FPS,同时保持极低功耗,那这篇文值得你完整读一遍。 为什么是FPGA?为什么是Vitis? 先说结论: FPGA + Vitis AI = 边缘智能场景下的“黄金组合” 传统印象里,FPGA开发等于Verilog、时序约束、逻辑综合……门槛高得吓人。但Xilinx(现AMD)推出的 Vitis统一平台 彻底改变了这一点。它允许我们用C/C++甚至Python来描述算法,再通过 高层次综合(HLS) 自动生成硬件电路。 更关键的是,

(10-1)大模型时代的人形机器人感知:视觉-语言模型在机器人中的应用

(10-1)大模型时代的人形机器人感知:视觉-语言模型在机器人中的应用

本章内容聚焦大模型时代人形机器人的感知体系升级,系统介绍了视觉—语言模型、多模态Transformer与3D大模型在机器人中的核心作用,详细讲解了文本、视觉、点云与语音等信息的语义对齐与融合机制,介绍了从语言指令到视觉目标的Grounding、任务分解与意图理解方法,并通过闭环感知与决策联动,展示了大模型支撑机器人在复杂真实场景中的理解、规划与实时行动的用法。 10.1  视觉-语言模型在机器人中的应用 视觉—语言模型(Vision-Language Model,VLM)通过统一建模视觉与自然语言,使机器人具备“看懂并理解语言”的能力,是大模型时代机器人感知与认知融合的核心技术。VLM不仅能够完成图像识别、目标检测等传统感知任务,还可以直接理解语言指令、进行语义推理,并将高层语义映射为可执行的感知与行动目标,在人形机器人中广泛应用于交互理解、场景认知和任务执行等环节。 10.1.1  CLIP/BLIP/Flamingo等模型简介 随着大规模多模态数据与Transformer架构的发展,视觉—语言模型逐渐从“跨模态对齐”演进为“多模态理解与推理”。CLIP、BLIP与Flam

基于FPGA的CARRY4 抽头延迟链TDC延时仿真

基于FPGA的CARRY4 抽头延迟链TDC延时仿真

基于FPGA的CARRY4 抽头延迟链TDC延时仿真 1 摘要 基于 FPGA 的 CARRY4 抽头延迟链 TDC,核心是利用 Xilinx FPGA 中 CARRY4 进位单元的固定、低抖动级联延迟构建抽头延迟线,通过锁存信号传播位置实现亚纳秒级时间测量,单级进位延迟约 10–30 ps,级联后可覆盖更大时间量程并结合粗计数拓展动态范围。TDC设计利用FPGA的专用进位链硬件,实现了亚纳秒级的时间测量精度,这是传统数字方法无法达到的。虽然需要校准,但其性能优势和数字集成的便利性使其成为高精度时间测量的首选方案。 2 CARRY4 核心结构与抽头延迟链原理 2.1 CARRY4 单元结构(Xilinx 7 系列 / UltraScale) 每个 CARRY4 包含 4 个 MUXCY 进位选择器与 4 个 XORCY 异或门,