电脑端 搜狗输入法自动弹皮肤推荐、AI旺仔关闭方法

电脑端 搜狗输入法自动弹皮肤推荐、AI旺仔关闭方法

1. 背景

  1. 电脑端 搜狗输入法 莫名其妙多了一个狗头,叫“AI旺仔”。即下方输入法快捷栏最后一个狗头就是。点击狗头会出现以下界面。
image.png


2. 有时 输入法快捷栏 上方也会出现皮肤等,很占屏幕空间
3. 还有选中自动取词,本来是想选中复制的,结果每次选中都会有弹框

2. 自动弹皮肤推荐/宠物弹泡 关闭方法

点击搜狗输入法状态栏S图标常用设置更多设置→点击属性设置高级→滚动页面到底部,关闭皮肤推荐、皮肤弹泡推荐右边的按钮,全部给关闭。

image.png


image.png

3. 关闭 AI旺仔 方法

  1. 关闭自启动:点状态栏AI汪仔图标→右下角【齿轮设置】→更多设置→关闭【自启动AI汪仔】
image.png


image.png


2. 关闭快捷键弹出:点状态栏AI汪仔图标→右下角【齿轮设置】→可以关闭快捷键按【=】或【alt+空格】弹出汪仔AI搜索。
3. 关闭后台进程:电脑任务管理器→找到AI汪仔图标→右键【结束任务】。

image.png
  1. 关闭状态栏图标:点击状态栏上的S标→点击【定制状态栏】→去掉【AI汪仔】图标前边的勾选。
image.png


5. 遇到划词卡顿问题或快捷键冲突影响复制复制粘贴,请使用浏览器打开链接:https://ime.gtimg.com/pc/ichat_1.0.2.2661.scpf 下载完成后,双击 ichat_1.0.2.2661.scpf 文件进行安装,然后重启电脑试下。

Read more

【薅羊毛教程】LLaMaFactory 不用本地跑!免费 GPU,一键微调大模型

【薅羊毛教程】LLaMaFactory 不用本地跑!免费 GPU,一键微调大模型

一、环境 之前介绍过本地部署LLaMaFactory微调平台(https://blog.ZEEKLOG.net/m0_73982863/article/details/159208213?spm=1001.2014.3001.5501),如果你还在为设备问题而烦恼,那就来薅羊毛吧(手动狗头)。 首先注册魔搭社区,绑定个人阿里云账号即可,详情见:https://www.modelscope.cn/my/mynotebook ;然后就可免费获得36小时GPU环境。 8核:CPU有8个核心,主要负责数据的调度和预处理;32GB:内存,数据从硬盘加载后会暂时存放这里;显存24G;(比我自己的老古董好多 T-T) Ubuntu 22.04:Linux操作系统; CUDA 12.8.1:英伟达的并行计算平台。12.8版本意味着它支持最新的RTX

5步搞定!用Ollama玩转Llama-3.2-3B文本生成

5步搞定!用Ollama玩转Llama-3.2-3B文本生成 你是不是也试过在本地跑大模型,结果被复杂的环境配置、显存报错、依赖冲突搞得头大?或者下载完模型发现根本不会用,对着空白输入框发呆?别担心——这次我们不搞虚的,就用最轻量的方式,5个清晰步骤,从零开始把Llama-3.2-3B真正“用起来”。 这不是一篇讲原理的论文,也不是堆参数的说明书。它是一份写给真实使用者的操作手记:没有Docker命令恐惧症,不碰CUDA版本焦虑,不查GPU显存表,连笔记本都能跑得动。重点就一个:让你今天下午就能写出第一句由Llama-3.2-3B生成的、像人话一样的文字。 Llama-3.2-3B是Meta最新发布的轻量级指令微调模型,30亿参数,专为多语言对话优化。它不像动辄几十GB的大块头那样吃资源,却在文案生成、逻辑推理、多轮问答等任务上表现扎实。更重要的是——它和Ollama是天生一对。Ollama把模型封装成“开箱即用”的服务,而Llama-3.2-3B则把能力稳稳装进这个盒子。我们不需要知道Transformer里有多少层注意力头,只需要知道:点一下、输一句、等两秒、看到结果。 下

手把手教你用Whisper-large-v3搭建个人语音转文字服务

手把手教你用Whisper-large-v3搭建个人语音转文字服务 1. 为什么你需要一个自己的语音转文字服务 你有没有遇到过这些场景: * 开完一场两小时的线上会议,想快速整理会议纪要,却要花半天时间听录音打字; * 收到客户发来的5分钟语音咨询,一边回消息一边反复暂停播放,手忙脚乱; * 做自媒体剪辑时,反复听口播素材写字幕,耳朵累、效率低、还容易漏字。 市面上的在线语音识别工具看似方便,但存在几个现实问题:音频上传慢、隐私有风险、中文识别不准、长语音断句混乱、不支持本地部署——尤其当你处理的是内部会议、客户沟通或敏感内容时,把语音传到别人服务器上,真的安心吗? 而今天要带你搭的这个服务,就解决了所有痛点:它跑在你自己的机器上,99种语言自动识别,中文准确率高,支持实时录音和批量上传,GPU加速后30秒音频2秒出结果,全程不联网、不上传、不依赖第三方API。 这不是概念演示,而是已经稳定运行的完整Web服务——镜像名称叫“Whisper语音识别-多语言-large-v3语音识别模型 二次开发构建by113小贝”,基于OpenAI最新版Whisper Large

3步搞定llama.cpp在Linux上的GPU加速编译

3步搞定llama.cpp在Linux上的GPU加速编译 【免费下载链接】llama.cppPort of Facebook's LLaMA model in C/C++ 项目地址: https://gitcode.com/GitHub_Trending/ll/llama.cpp 还在为llama.cpp的编译失败而头疼吗?😫 想让你心爱的Intel显卡在Linux系统上跑出飞一般的推理速度?今天我就带你用最简单的方法,从零开始搞定llama.cpp的GPU加速编译!无论你是AI新手还是资深开发者,都能在30分钟内完成部署。 1 问题诊断:为什么你的编译总是失败? 你有没有遇到过这样的情况:满怀期待地下载了llama.cpp源码,执行make命令后却看到一堆看不懂的错误信息?别担心,这几乎是每个Linux用户的必经之路! 常见编译失败的三大症状: * "Command not found" - 缺少关键编译器 * "Permission