在Ubuntu Linux安装brew 使用brew安装llama.cpp 运行文心Ernie大模型

经常用Mac的都知道brew,是Mac下的包管理软件。其实这个包管理软件也可以安装在Linux系统,进而可以用brew管理和安装linux软件包。

安装brew

直接安装

直接用下面命令安装即可,注意需要用管理员权限

/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)" 

配置环境变量

安装完成,提示配置环境变量:

 echo >> /root/.bashrc echo 'eval "$(/home/linuxbrew/.linuxbrew/bin/brew shellenv)"' >> /root/.bashrc eval "$(/home/linuxbrew/.linuxbrew/bin/brew shellenv)"

因为是直接在root账户下安装的,所以环境变量也都设置的root账户下。

同时它还提醒安装gcc,照办:

brew install gcc

配置一下清华加速镜像

export HOMEBREW_BREW_GIT_REMOTE="https://mirrors.ustc.edu.cn/brew.git" export HOMEBREW_CORE_GIT_REMOTE="https://mirrors.ustc.edu.cn/homebrew-core.git" export HOMEBREW_BOTTLE_DOMAIN="https://mirrors.ustc.edu.cn/homebrew-bottles" 

安装完成,测试一下,安装llama.cpp

安装llama.cpp

先用brew search查看一下 llama相关的软件包

brew search llama ==> Formulae gollama llama.cpp ollama lla llm

直接brew安装llama.cpp

brew install llama.cpp

配置llama.cpp加速镜像

如果速度慢,就加上Huggingface的加速镜像

export HF_ENDPOINT=https://hf-mirror.com

用llama.cpp启动文心ERNIE模型

就用这个文心ERNIE明星模型ERNIE-4.5-21B-A3B-Thinking ,当然是GGUF格式的:ERNIE-4.5-21B-A3B-Thinking-Q4_K_M-GGUF

llama-cli --hf-repo enacimie/ERNIE-4.5-21B-A3B-Thinking-Q4_K_M-GGUF --hf-file ernie-4.5-21b-a3b-thinking-q4_k_m.gguf -p "The meaning to life and the universe is" 

如果下载模型速度慢,就加上Huggingface的加速镜像

export HF_ENDPOINT=https://hf-mirror.com

启动了,但是因为只用了异构计算架构的cpu,么有用到dcu,所以速度非常慢,有多慢呢,简直比13年前的cpu慢

<|im_start|>user The meaning to life and the universe is <|im_start|>assistant We are going to explore the meaning of life and the universe in the context of human existence. The Meaning of Life: Philosophical Perspectives: - Existentialism: Emphasizes individual freedom and responsibility. The meaning of life is what each person chooses to create. - Eudaimonism: Focuses on flourishing (eudaimonia) through virtues and realizing one's potential. - Religious/Spiritual Views: Many religions propose that life's meaning comes from serving a higher power or fulfilling a divine plan. The Meaning of the Universe: Cosmological View: - The universe is vast and indifferent to human concerns. - Big Bang Theory: The universe began 13.8 billion years ago and has been expanding ever since. - Steady State Theory: The universe is eternally constant, but this has been largely discredited. - Multiverse Theory: Our universe is one of many, with each having different physical laws. Connecting Life and

总结

这次主要是实践在Linux系统安装brew,并通过brew来安装llama.cpp,进而启动文心大模型。

总体实践成功过!

Read more

在 IDEA 里用 AI 写完两个 Java 全栈功能,花了 7 分钟

作为后端开发者,你可能每天都在几种工具之间来回切换。  在ChatGPT 里问问题,然后拷贝生成的代码,或者在 Cursor 中调用Agent生成代码, 再回到 IntelliJ IDEA 里编译,排错,重构和调试等上下文一断,思路也跟着断,节奏很难保持稳定。 即便 AI 编码能力已经很厉害了,但很多后端开发还是离不开 JetBrains IDEs,在重构和调试场景中,JetBrains 的体验依然非常扎实。这篇教程介绍一条更顺畅的路径。   把 AI 编码能力直接接进 JetBrains,用一个插件完成从数据库到前端界面的一整套开发工作。主角是 Qoder JetBrains 插件。它把 Qoder 领先的上下文引擎打包带进了 JetBrains 全家桶。 你在熟悉的 IDE 里,就能使用补全、问答和编程智能体等能力。 下面通过一个完整示例,演示如何用 Qoder 配合 Vaadin

【AI 】OpenSpec 实战指南:在 Cursor 中落地 AI 原生开发工作流

【AI 】OpenSpec 实战指南:在 Cursor 中落地 AI 原生开发工作流

OpenSpec 实战指南:在 Cursor 中落地 AI 原生开发工作流 前言:OpenSpec 是“规范驱动开发 (Spec-Driven Development, SDD)”在 Cursor IDE 中的最佳实践落地。它将 AI 从一个“容易遗忘的编码助手”升级为“严谨的工程合作伙伴”。 0. 安装和初始化 安装要求:Node.js >= 20.19.0 npm install -g @fission-ai/openspec@latest openspec --version 装好后可以查看版本,输出版本号,说明安装成功,我的版本号是1.1.1,注意1.0.0之后的版本命令都更新了,

awesome-design-md:AI 设计系统实战

awesome-design-md:AI 设计系统实战

👋 大家好,我是你们的老朋友,一名专注于前端工程化与 AI 辅助开发的技术博主。 在当前的开发浪潮中,我们正经历着从“手写代码”到“提示词工程”的范式转移。然而,许多开发者在使用 AI 生成 UI 时,常常面临一个痛点:生成的界面风格杂乱,无法复现成熟产品的设计质感。设计稿与代码之间的鸿沟,依然阻碍着效率的进一步提升。 📌 本文适合谁读: * 希望利用 AI 加速前端开发的全栈工程师 * 苦恼于设计系统落地难的设计师与开发者 * 对 Design Token 与 AI 上下文工程感兴趣的技术人员 为了彻底摸清如何利用标准化文档赋能 AI 编码,我耗时 3 天深度研究了 awesome-design-md 项目,并在两个实际落地页项目中进行了验证。本文不仅是对项目的介绍,更是一份经过实战检验的集成指南,承诺带你掌握让 AI 代理读懂设计系统的核心方法。 核心原理与架构解析 awesome-design-md 并非传统的

Lada v0.10.1最新版本地一键启动包教程:AI去马赛克神器实测 Lada去马赛克工具、AI视频去马赛克、本地AI视频修复、一键启动AI工具、视频像素恢复神器

Lada v0.10.1最新版本地一键启动包教程:AI去马赛克神器实测 Lada去马赛克工具、AI视频去马赛克、本地AI视频修复、一键启动AI工具、视频像素恢复神器

Lada v0.10.1最新版本地一键启动包教程:AI去马赛克神器实测 Lada去马赛克工具、AI视频去马赛克、本地AI视频修复、一键启动AI工具、视频像素恢复神器 下载地址:https://pan.quark.cn/s/7819816715d6?pwd=Pnbx 之前在网上刷视频的时候,经常会遇到一个特别让人崩溃的问题——关键画面总被打上厚厚的马赛克。 想认真看内容,却只能看到一堆像素块,体验直接拉满折磨值。 我前前后后试过不少所谓的去码工具,不是效果拉胯,就是要上传视频到云端处理,说实话这种私密视频谁敢随便传?直到最近发现了这个本地神器——Lada 本地一键启动包,才算是真正解决问题。 它直接在电脑本地跑AI模型,不联网、不上传、不限制,用起来相当舒服。 下载地址:https://pan.quark.cn/s/7819816715d6?pwd=Pnbx 一、Lada到底是干什么的? 简单概括一句话: