Ollama免费获取Gemini-3-pro模型并连接AI Coding工具

1. 在Ollama获取Gemini 3 pro

Gemini 3 Pro 现已加入 Ollama 的免费套餐,不再需要付费订阅 Cloud Max 或 Pro 服务,即可体验这款功能强大的多模态模型。此外,此次集成将 Gemini 3 Pro 的先进推理功能直接融入到数百万用户已在使用的 Ollama 本地模型工作流程中。

只需执行一条命令:

ollama run gemini-3-pro-preview 

此命令无需额外计费即可拉取并运行模型。此外,该模型支持 100 万个令牌的上下文窗口、原生多模态输入(文本、图像、音频、视频)以及高级代理功能。

在代码中集成该模型:

from openai import OpenAI client = OpenAI( base_url="http://localhost:11434/v1", api_key="ollama",# dummy key) response = client.chat.completions.create( model="gemini-3-pro-preview", messages=[{"role":"user","content":"Write a poem."}])print(response.choices[0].message.content)

2. 在AI coding中集成Gemini:

下面介绍如何在Cursor或Cline中使用该模型:

2.1 整体思路概览

Cursor 支持通过以下方式访问模型:

  1. 官方支持的云提供商(OpenAI、Anthropic、Google 等);
  2. “自定义 OpenAI API Base URL + API Key”,用来连接 OpenAI API 兼容的自定义端点(例如一个本地代理)。

核心目标是:

Ollama 本地 Gemini 3 Pro server → HTTP 代理/反向代理 → OpenAI 兼容 API endpoint → Cursor 

换句话说,要让 Cursor 看到的是一个 OpenAI API 格式的服务,背后再把请求转发给本地 Ollama。

2.2 前提准备

先在本机确保 Ollama 能正常运行模型:

# 拉取并运行模型 ollama pull gemini-3-pro-preview ollama serve 

默认 Ollama Serve 会启动在:

http://localhost:11434 

这个端点支持 OpenAI API 兼容模式(但 Cursor 默认不能直连 localhost)。

2.3 搭建OpenAI 兼容的代理

由于 Cursor 不直接访问 localhost,因此需要通过一个可公网访问的代理或一个中间服务,使其对外呈现 OpenAI API 格式。

2.3.1 使用ngrok代理

适用情境:没有公网服务器,只是开发机;希望快速连接。

  1. 安装 ngrok 并登录:
ngrok authtoken YOUR_NGROK_TOKEN 
  1. 将本地 Ollama 服务映射到外网:
ngrok http 11434
  1. 记录 ngrok 给出的公网 URL,例如:
https://xxxxxxxxxx.ngrok.io 

这个 URL 就是后续要填给 Cursor 的 “Custom Base URL”。

注意:ngrok URL 会变;如果关掉 ngrok或电脑重启可能需要重新启动并更新到 Cursor 设置里。

但是国内使用该方法容易遇到问题:

ngrok http 11434显示reconnecting (failed to send authentication request: failed to fetch CRL. errors encounter 

这是一个典型的 ngrok 在国内/受限网络环境下的 TLS 证书吊销列表(CRL)获取失败问题。因此,最好使用另一种方法——cloudflare。

2.3.2 使用cloudflare代理
  1. 安装cloudflare:
winget install Cloudflare.cloudflared 
  1. 登录cloudflare:
cloudflared login 

此处会弹出网页开始登录,没有账号需要新建账号。基本按默认选项勾选,唯一要注意的是需要设置域名,因为cloudflare的工作方式是:

公网域名 → Cloudflare Edge → 你的本地服务(Ollama) 

所以cloudflare必须知道:

  • 你要用哪个 域名 对外暴露服务
  • Cloudflare 才能为这个域名配置 DNS + Tunnel 路由

因此需要设置任意一个域名,例如example-ollama.dev

  1. 暴露 Ollama 的 OpenAI API
cloudflared tunnel --url http://localhost:11434 

运行后的输出可能类似于:

>cloudflared tunnel --url http://localhost:11434 2025-12-13T04:09:37Z INF Thank you for trying Cloudflare Tunnel. Doing so, without a Cloudflare account, is a quick way to experiment and try it out. However, be aware that these account-less Tunnels have no uptime guarantee, are subject to the Cloudflare Online Services Terms of Use (https://www.cloudflare.com/website-terms/), and Cloudflare reserves the right to investigate your use of Tunnels for violations of such terms. If you intend to use Tunnels in production you should use a pre-created named tunnel by following: https://developers.cloudflare.com/cloudflare-one/connections/connect-apps 2025-12-13T04:09:37Z INF Requesting new quick Tunnel on trycloudflare.com... 2025-12-13T04:09:42Z INF +--------------------------------------------------------------------------------------------+ 2025-12-13T04:09:42Z INF | Your quick Tunnel has been created! Visit it at (it may take some time to be reachable): |2025-12-13T04:09:42Z INF | https://pvc-shots-vacuum-floors.trycloudflare.com |2025-12-13T04:09:42Z INF +--------------------------------------------------------------------------------------------+ 2025-12-13T04:09:42Z INF Cannot determine default configuration path. No file[config.yml config.yaml]in[~/.cloudflared ~/.cloudflare-warp ~/cloudflare-warp]2025-12-13T04:09:42Z INF Version 2025.8.1 (Checksum b5d598b00cc3a28cabc5812d9f762819334614bae452db4e7f23eefe7b081556)2025-12-13T04:09:42Z INF GOOS: windows, GOVersion: go1.24.2, GoArch: amd64 2025-12-13T04:09:42Z INF Settings: map[ha-connections:1 protocol:quic url:http://localhost:11434]2025-12-13T04:09:42Z INF cloudflared will not automatically update on Windows systems. 2025-12-13T04:09:42Z INF Generated Connector ID: 0706ac77-90b1-4ddb-9d71-3e8177816a8f 2025-12-13T04:09:42Z INF Initial protocol quic 2025-12-13T04:09:42Z INF ICMP proxy will use 192.168.10.7 as sourcefor IPv4 2025-12-13T04:09:42Z INF ICMP proxy will use 2409:8a30:5a0:eeb1:347c:8cf1:4dd3:666d in zone WLAN as sourcefor IPv6 2025-12-13T04:09:42Z INF cloudflared does not support loading the system root certificate pool on Windows. Please use --origin-ca-pool <PATH> to specify the path to the certificate pool 2025-12-13T04:09:42Z INF ICMP proxy will use 192.168.10.7 as sourcefor IPv4 2025-12-13T04:09:42Z INF Tunnel connection curve preferences: [X25519MLKEM768 CurveP256]connIndex=0event=0ip=198.41.192.57 2025-12-13T04:09:42Z INF ICMP proxy will use 2409:8a30:5a0:eeb1:347c:8cf1:4dd3:666d in zone WLAN as sourcefor IPv6 2025-12-13T04:09:42Z INF Starting metrics server on 127.0.0.1:20241/metrics 2025-12-13T04:09:43Z INF Registered tunnel connection connIndex=0connection=9d75de6d-a1de-4846-b6ea-85aa32ee3450 event=0ip=198.41.192.57 location=lax11 protocol=quic 

其中可以看到映射的公网地址是 https://pvc-shots-vacuum-floors.trycloudflare.com,注意每次重新运行其地址后会不一样,需要重新在AI Coding工具中设置。

  1. 在AI Coding工具中设置

现在可以在Cursor、Cline等工具中进行设置了:

Base URL: https://pvc-shots-vacuum-floors.trycloudflare.com/v1 APIKey: ollama Model: gemini-3-pro-preview 

对于Cline,此时已经可以正常使用:

在这里插入图片描述

但是实际使用时可以看到,Cursor中自带gemini-3-pro-preview,并且Cursor 内部对模型名做了 白名单 + 路由绑定,例如:gpt-4.1、claude-3.5-sonnet、gemini-3-pro-preview。

这些名称在 Cursor 看来是“官方托管模型”。即使开启了 Custom OpenAI API,只要模型名命中内置列表,Cursor 就会:

忽略 Base URL → 强制走 Cursor 云端 

因此,需要对自己设置的Ollama本地Gemini做改名:

  1. 在任意目录(例如桌面)新建一个文本文件,文件名必须叫:Modelfile,注意没有任何扩展名;
  2. 打开该文件,填写信息:FROM gemini-3-pro-preview
  3. 在文件所在地址打开命令提示符,命令为ollama create gemini-3-pro-local -f Modelfile
  4. 命令ollama list观察是否有gemini-3-pro-local模型存在,如有则改名成功。

在Cursor的模型名称中将模型名字改为gemini-3-pro-local,即可正常使用。

Read more

【OpenClaw从入门到精通】:Web控制台使用全解析——可视化配置与监控(2026实操版)

【OpenClaw从入门到精通】:Web控制台使用全解析——可视化配置与监控(2026实操版)

【OpenClaw从入门到精通】:Web控制台使用全解析——可视化配置与监控(2026实操版) 引言 在OpenClaw的多种管理方式中,Web控制台提供了最直观、最友好的用户体验。通过图形化界面,用户可以轻松完成复杂的配置任务,实时监控系统状态,以及进行各种管理操作。对于不熟悉命令行的用户来说,Web控制台是最佳选择。 本文将详细介绍OpenClaw Web控制台的各项功能,从基本操作到高级配置,从实时监控到数据分析。通过本文的学习,你将掌握Web控制台的使用技巧,能够高效地管理和监控OpenClaw系统。 Web控制台概览 访问方式 基本访问 # 启动Gateway服务 openclaw gateway --port18789--verbose# 打开浏览器访问 http://127.0.0.1:18789/ 安全

Cursor实战:Web版背单词应用开发演示

Cursor实战:Web版背单词应用开发演示

Cursor实战:Web版背单词应用开发演示 * 需求分析 * 自行编写需求文档 * 借助Cursor生成需求文档 * 前端UI设计 * 后端开发 * 项目结构 * 环境参数 * 数据库设计 * 安装Python依赖 * 运行应用 * 前端代码修改 * 测试前端界面 * 测试数据生成 * 功能测试 * Bug修复 * 总结 在上一篇《Cursor AI编程助手不完全指南》中,我们详细介绍了Cursor这款强大的AI编程工具。为了让大家能更直观地了解 Cursor 的实战应用价值,本文将通过一个实际项目来展示其开发流程。我们将使用 Cursor 开发一个 Web 版单词学习程序,通过这个案例,您将看到 AI 辅助开发的完整过程,体验从需求分析到代码实现的全过程。让我们开始这次实战之旅。 需求分析 在开始开发之前,明确的需求文档是项目成功的关键。一个好的需求文档不仅能指导开发方向,还能作为与 Cursor 进行高效对话的重要基础。我们有两种方式来准备需求文档:自行编写需求文档和借助 Cursor 生成需求文档

【前端小站】CSS 样式美学:从基础语法到界面精筑的实战宝典

【前端小站】CSS 样式美学:从基础语法到界面精筑的实战宝典

半桔:个人主页  🔥 个人专栏: 《前端扫盲》《手撕面试算法》《C++从入门到入土》 🔖阻止了我的脚步的,并不是我所看见的东西,而是我所无法看见的那些东西。 《海上钢琴师》 文章目录 * 前言 * 一. CSS是什么 * 1.1 概念 * 1.2 基本语法 * 二. CSS如何引入HTML * 2.1 内部样式表 * 2.2 行内选择器 * 2.3 外部引入 * 三. CSS选择器 * 3.1 基础选择器 * 3.1.1 标签选择器 * 3.1.2 类选择器 * 3.1.3 id选择器 * 3.

基于YOLO26/11/v8算法的Web目标检测系统,人脸表情识别系统,Django+Vue3 的前后端分离,实现摄像头实时识别,YOLO26/YOLO11/v8 + LLM大模型智能分析,科研必备

基于YOLO26/11/v8算法的Web目标检测系统,人脸表情识别系统,Django+Vue3 的前后端分离,实现摄像头实时识别,YOLO26/YOLO11/v8 + LLM大模型智能分析,科研必备

✨ 更新日志 * ✔️ 2026/3/3,2.0 版本,前端导航栏改为侧边栏系统,视频流采用websocket框架延迟更低, YOLO26/YOLO11/YOLOv8 视频流更稳定,在之前的系统增加 LLM 大模型智能分析,是科研必备,支持 YOLO26/11/v8 分类模型、目标检测、分割、obb、关键点检测任务,还支持双模型联合检测与识别,如人脸表情识别、人脸识别等一些识别任务需要检测模型与分类模型共同完成,在人脸表情识别中,单独使用检测模型去识别人脸表情也不是不可以,但有一个问题数据集如果全是头部照片的话,当模型预测的照片是全身照片时,模型识别准确率就没有这么高了, 那么这时候可以用检测模型识别人脸,把人脸信息输入到表情分类模型进行分类即可,反正这是一个通用的系统,更换自己模型即可,大家懂得都懂的,更多功能看下文即可。 摘要 在人工智能迈向通用化(AGI)的今天,“视觉感知 + 语言理解”的多模态联合是未来的趋势。单纯的检测画框已经无法满足复杂的业务需求,如何让系统“看懂”