iFlow Cli — 运行于终端的AI工具

前言:最近无意中发现了一款可在终端运行的AI工具,叫做iFlow Cli,与其他网页版的相比,个人觉得有些特色,推荐给感兴趣的童鞋。本文简单做一些介绍与指导。

目录

一、iFlow Cli背景

二、手把手安装iFlow

2.1 安装nvm

2.2 安装Node.js

2.3 安装iFlow

三、体验iFlow

3.1 让iFlow做一个自我介绍

3.2 /stats查看

3.3 做一个小游戏

3.4 分析项目结构

3.5 分析代码


一、iFlow Cli背景

iFlow CLI 是阿里心流团队推出的终端 AI 助手,能通过自然语言交互进行聊天、分析代码、执行编程任务、处理文件操作并自动化复杂工作流。具有以下特点:

  • 免费前沿 AI 模型:永久免费调用 Kimi K2、Qwen3 Coder、DeepSeek v3、GLM-4.6 等国产尖端模型,不限流量,支持 OpenAI 协议兼容的模型提供商。
  • 自然语言驱动:无需记忆复杂命令,用日常语言下达指令,即可完成代码开发、文件整理、数据分析等任务。
  • 多智能体协作(SubAgent):复杂任务自动拆解为子任务,调度多个专业智能体(如代码审查、架构分析等角色)并行执行,结果聚合输出。
  • 灵活集成:无缝集成 VS Code、JetBrains 等主流 IDE;提供 4 种执行模式(yolo、accepting edits、plan mode、default),兼顾效率与安全。
  • 便捷交互语法:支持斜杠命令(/init、/help)、文件引用(@文件路径)、SubAgent 调用($agent-name)、Shell 命令(!command)等,操作直观高效platform.iflow.cn。

二、手把手安装iFlow

(本人是在Windows下进行的安装)

2.1 安装nvm

a.访问 cloud.iflow.cn/iflow-cli/n… 下载最新的 nvm 安装程序

b.运行安装程序来安装 nvm

c.测试nvm是否安装成功:打开PowerShell,输入nvm,显示以下则安装OK

若报错 nvm识别不到,可尝试重启(使得环境变量生效)

2.2 安装Node.js

a.运行如下命令

nvm node_mirror https://npmmirror.com/mirrors/node nvm npm_mirror https://npmmirror.com/mirrors/npm/ nvm install 22

b. 运行nvm

nvm use 22

2.3 安装iFlow

a. 安装iFlow命令

npm install -g @iflow-ai/iflow-cli

如果出现以下错误,可在PowerShell中运行 Set-ExecutionPolicy -ExecutionPolicy Bypass -Scope Process,即可解决。

b. iFlow安装完成

c. 运行iFlow

d. 注册登录(本人选的是第二个,Login with iFlow ApiKey,可根据自己偏好选择)

点击此直达链接,复制API Key

将复制的API Key填入PowerShell中

e. 选择模型(根据自身需求选择即可)

f. 一些Tips可以参考

至此,恭喜!iFlow安装完成!

三、体验iFlow

3.1 让iFlow做一个自我介绍

3.2 /stats查看

/stats model:查看模型调用

/stats tools:查看工具使用

3.3 做一个小游戏

3.4 分析项目结构

到项目根目录下打开shell,进去iflow,输入/init

在当前路径下会生成一个IFLOW.md文件,详细的结构可打开文件查看

3.5 分析代码

示例:@代码文件路径 帮我分析这段代码

写在后面:iFlow的功能远不止于上面列举的这些,童鞋们可根据自己的需求做进一步的研究。学习如何使用工具不是目的,最终目的是帮助我们提高工作学习效率。共勉。

                                          感兴趣的童鞋可关注作者公众号(定期同步)

                        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​

Read more

LLaMAfactory跑通LLM api作为奖励模型的PPO训练

目录 一、操作步骤 1.1 更新版本 1.2 修改文件 1.2 训练数据格式 1.3 训练模型 1.4 各项训练指标查看 二、注意事项 三、问题及解决方案 1.api奖励+ppo占用大量显存问题: 2.LLaMAfactory不支持Qwen3_vl_moe问题 3.版本不兼容问题。LLaMAfactory ppo训练 ,使用deepspeed 跟trl版本冲突 4.ppo的模型不能加think(think 截断后think会作为模型回复,导致得分非常低) 5.模型自带系统提示词修改 一、操作步骤 1.1 更新版本 更新最新版本的LLaMAfactory后(qwen3_vl_

Whisper.cpp:高效语音识别的边缘计算革命

Whisper.cpp:高效语音识别的边缘计算革命 【免费下载链接】whisper.cpp 项目地址: https://ai.gitcode.com/hf_mirrors/ai-gitcode/whisper.cpp 技术原理深度解析 Whisper.cpp作为OpenAI Whisper模型的C++移植版本,在保持原始模型强大性能的同时,通过ggml张量库实现了在边缘设备上的高效部署。该项目的核心创新在于将原本依赖PyTorch的神经网络模型转换为纯C++实现,大幅降低了运行时依赖和内存占用。 传统的语音识别系统通常需要云端计算资源,而Whisper.cpp通过量化技术和内存优化策略,使得大型语言模型能够在本地设备上稳定运行。其技术架构基于编码器-解码器的Transformer结构,但在实现层面进行了深度优化: * 内存池管理:采用预分配内存池减少动态内存分配开销 * 量化推理:支持多种精度量化(q4_0、q5_0、q5_1、q8_0等) * 流式处理:支持实时音频流的连续识别 架构设计与实现创新 模型转换机制 Whisper.cpp的核心突破在于实现了从P

8卡RTX 5090服务器llama.cpp测试

8 卡 RTX 5090 服务器 完整安装及性能调优指南  8卡RTX 5090服务器 从 NVIDIA驱动安装 → CUDA环境 → llama.cpp编译 → 多GPU测试 的完整、可直接执行流程(基于Ubuntu 22.04 LTS,适配Blackwell架构)。 一、系统与硬件准备(必做) 1.1 系统要求 • 推荐:Ubuntu 22.04 LTS(64位) • 内核:6.8+ HWE内核(5090必须高内核) • 禁用:Nouveau开源驱动(与NVIDIA驱动冲突) 1.2 硬件检查 Bash # 查看8张5090是否被识别 lspci | grep -i nvidia

Stable Diffusion v1-5-pruned.safetensors本地部署指南

Stable Diffusion v1-5-pruned.safetensors 本地部署与 LoRA 微调实战指南 在消费级 GPU 上跑通一个 AI 图像生成模型,曾经是件门槛极高的事。动辄几十 GB 的显存占用、复杂的环境配置、晦涩的训练脚本……这些都曾让许多创作者望而却步。但如今,随着 .safetensors 格式的普及和 LoRA 技术的成熟,我们已经可以在一张 RTX 3090 上,用不到 10GB 显存完成一次完整的风格微调。 这一切的核心起点,正是 Stable Diffusion v1-5-pruned.safetensors —— 这个名字看似冗长,实则浓缩了当前本地 AIGC 实践中最关键的技术组合:轻量化基础模型 + 安全权重格式 + 高效微调机制。 为什么选择 v1-5-pruned.safetensors? 当你打开 Hugging