OpenRouter 入门教程:一个 API 玩转 500+AI 模型

OpenRouter 入门教程:一个 API 玩转 500+AI 模型

OpenRouter入门教程:一个API玩转500+AI模型(多案例版)

一、OpenRouter是什么?

OpenRouter是一个AI模型API聚合平台,它像一个"万能插座",让你用一个API密钥统一接口调用来自OpenAI、Anthropic、Google、Mistral等50+提供商的500+主流AI模型,包括50+个可免费使用的模型。

核心优势:

  • 统一接口:无需适配不同厂商的API格式
  • 灵活切换:一行代码即可更换模型,便于对比测试
  • 成本优化:自动选择最经济的模型方案
  • 自动故障转移:主模型不可用时自动切换备用模型

免费模型:提供多个免费模型,适合学习和原型开发

在这里插入图片描述

二、准备工作:注册与API密钥获取

1. 注册账号

  1. 访问官网:https://openrouter.ai
  2. 点击"Sign Up"注册,支持Google账号快速登录或邮箱注册
  3. 完成邮箱验证后登录

2. 启用免费模型(重要)

免费模型需要特殊的隐私设置,否则无法使用:

  1. 点击右上角头像 → Settings(设置)→ Privacy(隐私)
  2. 勾选"Agree to the free models data policy"(同意免费模型数据政策)
  3. 保存设置

3. 创建API密钥

  1. 点击右上角头像 → API Keys(密钥)
  2. 点击"Create Key"创建新密钥
  3. 输入密钥名称,可选设置额度限制
  4. 复制密钥并妥善保存(仅显示一次)

三、三种核心调用方式(Python)

方式1:使用OpenAI SDK(推荐,兼容性最好)

OpenRouter提供OpenAI兼容接口,可直接使用OpenAI SDK调用所有模型。

# 安装依赖 pip install openai python-dotenv 

基础案例:调用GPT-3.5-turbo

import os from openai import OpenAI from dotenv import load_dotenv # 加载环境变量 load_dotenv()# 配置OpenRouter客户端 client = OpenAI( base_url="https://openrouter.ai/api/v1", api_key=os.getenv("OPENROUTER_API_KEY"), default_headers={"HTTP-Referer":"https://your-website.com",# 可选,用于排行榜展示"X-Title":"Your App Name"# 可选,应用名称})asyncdefmain():# 发送请求 completion =await client.chat.completions.create( model="openai/gpt-3.5-turbo", messages=[{"role":"user","content":"用一句话解释什么是人工智能?"}])# 输出结果print(completion.choices[0].message.content)# 运行主函数import asyncio asyncio.run(main())

方式2:直接API调用(无依赖,适合轻量场景)

import requests import os import json from dotenv import load_dotenv load_dotenv() url ="https://openrouter.ai/api/v1/chat/completions" headers ={"Authorization":f"Bearer {os.getenv('OPENROUTER_API_KEY')}","Content-Type":"application/json","HTTP-Referer":"https://your-website.com",# 可选"X-Title":"Your App Name"# 可选} data ={"model":"deepseek/deepseek-r1-distill-llama-70b:free",# 免费模型"messages":[{"role":"user","content":"推荐3本Python入门书籍"}]}# 发送POST请求 response = requests.post(url, headers=headers, data=json.dumps(data)) result = response.json()# 输出结果print(result["choices"][0]["message"]["content"])

方式3:使用OpenRouter Python SDK(Beta版)

# 安装SDK pip install openrouter 
from openrouter import OpenRouter import os from dotenv import load_dotenv load_dotenv()# 初始化客户端 client = OpenRouter( api_key=os.getenv("OPENROUTER_API_KEY"), base_url="https://openrouter.ai/api/v1")asyncdefmain():# 发送请求 response =await client.chat.completions.create( model="mistralai/mistral-7b-instruct:free",# 免费模型 messages=[{"role":"user","content":"什么是大语言模型?"}])# 输出结果print(response.choices[0].message.content)# 运行import asyncio asyncio.run(main())

四、7个实战案例,覆盖主流应用场景

案例1:免费模型调用(零成本学习)

OpenRouter提供多个免费模型,名称通常带":free"后缀:

# 免费模型列表(部分):# - deepseek/deepseek-r1-distill-llama-70b:free# - mistralai/mistral-7b-instruct:free# - google/gemma-7b-it:free# - tencent/tencenthunyuan-pro-7b:freeasyncdeffree_model_demo(): completion =await client.chat.completions.create( model="mistralai/mistral-7b-instruct:free",# 选择免费模型 messages=[{"role":"user","content":"写一首关于程序员的短诗"}])print("免费模型结果:")print(completion.choices[0].message.content) asyncio.run(free_model_demo())

案例2:流式响应(实时显示结果)

适合聊天应用,逐字显示AI回复:

asyncdefstreaming_demo():print("AI正在思考,将实时显示结果:") stream =await client.chat.completions.create( model="openai/gpt-3.5-turbo", messages=[{"role":"user","content":"解释什么是流式响应?"}], stream=True# 启用流式)asyncfor chunk in stream:if chunk.choices[0].delta.content:print(chunk.choices[0].delta.content, end="", flush=True) asyncio.run(streaming_demo())

案例3:多轮对话(上下文记忆)

通过维护messages列表实现连续对话:

asyncdefmulti_turn_demo():# 初始化对话历史 messages =[{"role":"system","content":"你是一个友好的助手,擅长解释技术概念"},{"role":"user","content":"什么是OpenRouter?"}]# 第一轮对话 response =await client.chat.completions.create( model="anthropic/claude-3-haiku", messages=messages ) assistant_msg = response.choices[0].message print("AI:", assistant_msg.content)# 添加AI回复到对话历史 messages.append(assistant_msg)# 第二轮对话(基于上下文) messages.append({"role":"user","content":"它和直接调用OpenAI API有什么区别?"}) response2 =await client.chat.completions.create( model="anthropic/claude-3-haiku", messages=messages )print("AI:", response2.choices[0].message.content) asyncio.run(multi_turn_demo())

案例4:代码生成与解释

调用擅长代码的模型生成Python代码:

asyncdefcode_generation_demo(): prompt =""" 写一个Python函数,实现以下功能: 1. 接收一个列表作为输入 2. 计算列表中所有偶数的平方和 3. 返回结果 4. 添加详细注释 """ response =await client.chat.completions.create( model="deepseek/deepseek-coder-6.7b-instruct:free",# 免费代码模型 messages=[{"role":"user","content": prompt}], temperature=0.3# 降低随机性,提高代码准确性)print("生成的代码:")print(response.choices[0].message.content) asyncio.run(code_generation_demo())

案例5:模型对比测试(一行代码切换模型)

快速对比不同模型的输出差异:

asyncdefmodel_comparison_demo(): prompt ="解释量子计算的基本原理,用简单易懂的语言" models =["openai/gpt-3.5-turbo","anthropic/claude-3-haiku","mistralai/mistral-7b-instruct:free"]for model in models:print(f"\n===== {model} =====") response =await client.chat.completions.create( model=model, messages=[{"role":"user","content": prompt}])print(response.choices[0].message.content[:200]+"...")# 显示前200字符 asyncio.run(model_comparison_demo())

案例6:参数调优(控制输出风格)

通过参数调整AI回复的长度、随机性和格式:

asyncdefparameter_tuning_demo(): messages =[{"role":"user","content":"写一个关于太空探索的故事"}]# 高随机性(创意故事)print("=== 高随机性(temperature=0.9)===") response1 =await client.chat.completions.create( model="openai/gpt-3.5-turbo", messages=messages, temperature=0.9,# 0-2,越高越随机 max_tokens=200# 限制最大长度)print(response1.choices[0].message.content)# 低随机性(结构化输出)print("\n=== 低随机性(temperature=0.1)===") response2 =await client.chat.completions.create( model="openai/gpt-3.5-turbo", messages=messages, temperature=0.1, max_tokens=200, top_p=0.1# 核采样,0-1,越小越集中)print(response2.choices[0].message.content) asyncio.run(parameter_tuning_demo())

案例7:工具调用(连接外部API)

通过MCP(Model Context Protocol)实现工具调用:

asyncdeftool_calling_demo():# 定义可用工具 tools =[{"type":"function","function":{"name":"get_weather","description":"获取指定城市的天气信息","parameters":{"type":"object","properties":{"city":{"type":"string","description":"城市名称"}},"required":["city"]}}}] response =await client.chat.completions.create( model="openai/gpt-3.5-turbo", messages=[{"role":"user","content":"北京今天的天气怎么样?"}], tools=tools, tool_choice="auto"# 自动选择工具)# 处理工具调用请求 tool_calls = response.choices[0].message.tool_calls if tool_calls:print("需要调用工具:", tool_calls[0].function.name)# 这里可以添加调用外部天气API的逻辑# 然后将结果返回给模型继续生成回复 asyncio.run(tool_calling_demo())

五、常见问题与最佳实践

常见问题

  1. 免费模型无法使用:检查隐私设置是否启用了免费模型数据政策
  2. API调用失败
    • 检查API密钥是否正确
    • 确认模型名称是否正确(可在https://openrouter.ai/models查询)
    • 检查余额是否充足(免费模型有调用频率限制)
  3. 响应缓慢:尝试切换到其他模型,或调整max_tokens减少输出长度

最佳实践

  1. 环境变量管理:使用dotenv存储API密钥,避免硬编码
  2. 错误处理:添加try-except捕获API调用异常
  3. 模型选择策略
    • 原型开发:使用免费模型
    • 生产环境:根据任务选择最合适的付费模型
    • 成本敏感:选择性价比高的模型如Mistral、DeepSeek
  4. 对话管理:合理维护上下文,避免对话历史过长导致token消耗过多
  5. 监控与优化:使用OpenRouter控制台查看调用统计,优化模型选择和参数设置

六、进阶方向

  1. 批量处理:同时处理多个请求,提高效率
  2. 自定义路由:根据任务类型自动选择最优模型
  3. 缓存机制:缓存常见查询结果,减少API调用
  4. 多模态:调用支持图像生成的模型(如DALL-E、Stable Diffusion)
  5. 应用部署:将OpenRouter集成到Web应用、桌面程序或移动应用中

总结

OpenRouter让AI开发变得前所未有的简单,你只需专注于应用逻辑,无需关心底层模型的复杂性。通过本教程的7个案例,你已经掌握了从基础调用到高级功能的核心技能。现在,开始用一个API探索500+AI模型的无限可能吧!

Read more

一文通透OpenVLA——在Prismatic VLM(SigLIP、DinoV2、Llama 2)的架构上:基于“下一个token预测技术”预测离散化动作

一文通透OpenVLA——在Prismatic VLM(SigLIP、DinoV2、Llama 2)的架构上:基于“下一个token预测技术”预测离散化动作

前言 当对机器人动作策略的预测越来越成熟稳定之后(比如ACT、比如扩散策略diffusion policy),为了让机器人可以拥有更好的泛化能力,比较典型的途径之一便是基于预训练过的大语言模型中的广泛知识,然后加一个policy head(当然,一开始背后的模型比较简单,比如有用LSTM或MLP——RoboFlamingo) 再之后,便出来了越来越多成熟稳定的专门的VLA模型,比如OpenVLA,再比如近期介绍过过的π0——用于通用机器人控制的VLA模型:一套框架控制7种机械臂(基于PaliGemma和流匹配的3B模型) 1. π0的意义在于,首次用同一套策略/算法操作不同机器人/机械臂,这种基于机器人大模型的「预训练-微调」模式,很快会越来越多(犹如此前大模型革命NLP 其次CV等各模态,目前到了robot领域),算是代表了通用机器人的核心发展方向 2. 且π0 比英伟达的HOVER早一点,当然,同时期的RDT GR2也有这个潜力的,期待这两 后续的更新 一个多月前(本文首发于25年1月),有朋友曾说,一个月内,π0 会开源来着,当时虽然觉得不太可能,但还是抱着期待,可还

Qwen3-TTS-VoiceDesign实战案例:为AR导览眼镜生成空间音频定位语音提示(3D Audio Ready)

Qwen3-TTS-VoiceDesign实战案例:为AR导览眼镜生成空间音频定位语音提示(3D Audio Ready) 1. 项目背景与需求 想象一下,你戴着一副AR导览眼镜在博物馆参观。当你走近一幅名画时,耳边传来清晰的解说声:"您现在观看的是《蒙娜丽莎》,创作于1503年..."。更神奇的是,这个声音仿佛就是从画作方向传来的,让你感觉解说员就站在画作旁边。 这就是空间音频定位技术的魅力。传统的语音导览往往是单声道播放,所有声音都从同一个方向传来,缺乏真实感和方位感。而基于Qwen3-TTS-VoiceDesign的空间音频技术,可以让语音提示具有明确的方向性,大幅提升AR体验的沉浸感。 技术需求分析: * 需要生成高质量、自然流畅的语音内容 * 语音需要具备方向感和空间定位能力 * 支持多语言,满足国际游客需求 * 能够根据场景快速调整语音风格和情感表达 2. Qwen3-TTS-VoiceDesign技术优势 Qwen3-TTS-12Hz-1.7B-VoiceDesign是一个端到端的语音合成模型,专门为声音设计场景优化。相比传统TTS系统,它在以下

30 步组装纸风车 + 0.02 秒接乒乓!这台机器人让 “类人操控” 不再是噱头

30 步组装纸风车 + 0.02 秒接乒乓!这台机器人让 “类人操控” 不再是噱头

拉斯维加斯 CES 展上,新加坡 Sharpa 公司的全尺寸人形机器人 North 凭两项 “神操作” 引爆全场:面对高速飞来的乒乓球,它的反应时间仅0.02 秒,是人类职业运动员最快反应(0.1 秒)的 5 倍;更让人惊叹的是,它能独立完成 30 余个步骤的纸风车组装,灵活切换抓取轻薄易皱的纸张、坚硬的木棍和直径不足 5 毫米的塑料图钉,全程零失误。 别小看这两个任务 —— 纸张受力阈值仅 0.01N,稍用力就会变形;塑料图钉体积微小,定位误差超过 0.1 毫米就会组装失败。即便是工业级机械臂,也常因 “力度控制失衡”“材质识别不准” 在此类任务中折戟。而 North 的核心竞争力,正是其搭载的SharpaWave 灵巧机械手,

YOLOv9农业应用案例:无人机遥感图像作物计数部署

YOLOv9农业应用案例:无人机遥感图像作物计数部署 在农田管理中,准确统计作物数量是评估种植密度、预测产量、指导灌溉和施肥的关键一步。传统人工计数耗时费力,而卫星影像分辨率有限,难以满足单株级识别需求。如今,搭载高清相机的消费级无人机配合先进目标检测模型,正成为农业数字化的新标配。YOLOv9作为2024年发布的最新一代YOLO架构,在小目标检测、低对比度场景和复杂背景干扰下展现出显著优势——它不依赖额外模块就能稳定检出密集排列的玉米苗、水稻秧或果树幼株。本文不讲论文推导,也不堆砌参数指标,而是带你用一个开箱即用的官方镜像,把YOLOv9真正跑在真实的农田遥感图上,完成从数据准备到结果可视化的完整作物计数流程。 1. 为什么选YOLOv9做农业计数 1.1 农业图像的三大难点,YOLOv9怎么破 农田航拍图不是普通照片:植株颜色与土壤接近、幼苗尺寸小(常小于32×32像素)、排列密集且存在遮挡。过去很多模型在这类图像上漏检率高、定位不准。YOLOv9针对这些问题做了本质优化: * 可编程梯度信息(PGI)机制:让网络在训练中自动聚焦于对检测真正重要的特征区域,而不是被背