和 AI 玩海龟汤差点崩溃:它永远比我多知道 100 个隐藏真相

和 AI 玩海龟汤差点崩溃:它永远比我多知道 100 个隐藏真相

关于海龟汤

第一次接触海龟汤时,我还以为这是某种美食烹饪挑战,直到朋友抛出第一个谜题 ——“一个人走进酒吧,要了一杯水,酒保却掏出一把枪对准他,可这个人不仅没害怕,反而说了声谢谢离开了”,才惊觉这是场烧脑的逻辑游戏。海龟汤,学名情境猜谜,玩家只能通过提问获取 “是”“否” 或 “无关” 的回答,一步步拼凑出汤底背后的完整故事。这种用有限线索破解无限想象的过程,就像在黑暗中摸索开关,每次提问都是试探,当真相突然亮起时,那种恍然大悟的快感让人上瘾。

image.png

作为计算机专业的学生,我常在蓝耘 API 的助力下完成课程设计。有次用它处理文本数据时,突然冒出个想法:既然海龟汤的本质是文本逻辑交互,为什么不做一款属于自己的海龟汤游戏?
最初的念头源于对解谜的热爱。深夜和朋友玩海龟汤时,看着大家为了一个谜题争论到面红耳赤,最后被反转的汤底惊得笑出眼泪,我意识到这种互动游戏的魅力。市面上虽然有不少海龟汤游戏,但要么谜题老套,要么交互不够灵活。我想用蓝耘 API 的高反应速度和灵活度,打造一款能实时生成新谜题、根据玩家提问动态调整线索的游戏,让每场推理都充满新鲜感。

为什么使用蓝耘api呢?

作为一名计算机专业的学生,在完成课程设计和参与项目实践时,API 的选择直接影响着我的 “肝代码” 效率和最终成果。在踩过无数 “坑” 后,蓝耘 API 就像发现新大陆一样,成为我在开发路上的得力助手,特别是它反应速度快、灵活度高、量大还便宜的特点,完全精准戳中了学生党的需求!

image.png

蓝耘 API 支持多种编程语言和调用方式,无论是 Python、Java 还是其他语言,都能轻松适配。在开发一个图像识别小项目时,我可以根据自己的需求自由调整参数,实现个性化的功能。而且,它的接口设计非常人性化,即使是我这样的 “学生小白”,对照着详细的文档和示例代码,也能快速上手,大大节省了学习成本和开发时间。

image.png

对于学生党来说,“量大” 简直是蓝耘 API 的 “绝杀技”。做项目时,数据需求量大是常有的事,要是 API 调用次数有限制,分分钟就会 “弹尽粮绝”。蓝耘 API 提供的调用额度十分慷慨,完全能满足我日常学习和项目实践的需求,再也不用担心因为调用次数不够而中断开发。

image.png

最最关键的是,蓝耘 API 的价格对学生党太友好了!没有高昂的授权费用,性价比超高。相比其他动不动就 “大出血” 的 API,它简直是 “良心之选”。省下的钱,我还能多买两杯奶茶犒劳辛苦写代码的自己。

image.png

使用ai完成蓝耘api的本地调用

我们先进行api的获取以及你需要知道你要调用的模型的编号和申请api
模型编号的话你来到模型广场,点击一个模型,然后名字下面就会有ai模型的编号,将这个进行复制操作

image.png


然后进行api的创建
点击创建api并且进行复制操作

image.png


来到api调用的文档
我这里选择的是py代码进行ai的调用,你需要将你的api和要调用的模型名称粘贴进去

image.png
from openai import OpenAI # 构造 client client = OpenAI( api_key="sk-xxxxxxxxxxx", # APIKey base_url="https://maas-api.lanyun.net/v1", ) # 流式 stream = True # 请求 chat_completion = client.chat.completions.create( model="/maas/deepseek-ai/DeepSeek-R1", messages=[ { "role": "user", "content": "你是谁", } ], stream=stream, ) if stream: for chunk in chat_completion: # 打印思维链内容 if hasattr(chunk.choices[0].delta, 'reasoning_content'): print(f"{chunk.choices[0].delta.reasoning_content}",) # 打印模型最终返回的content if hasattr(chunk.choices[0].delta, 'content'): if chunk.choices[0].delta.content != None and len(chunk.choices[0].delta.content) != 0: print(chunk.choices[0].delta.content,) else: result = chat_completion.choices[0].message.content 

打开vscode我们对ai说出你的提示词,让ai帮你开发一个具体的应用就行了

image.png


image.png


image.png

经过几轮调试我们也是生成好了
代码生成好了之后,我们直接在终端输入命令python main.py
运行之前一定记得将你的依赖都安装好,一般ai是会帮你搞好的
下面是我们进行了几轮的对话,看起来效果还是很不错的,你如果也想有这么好的效果的话,你得给你的蓝耘ai设置下prompt

image.png


下面是部分的代码,可以参考下

import gradio as gr import json import requests API_KEY = "sk-xxxxxxxxxxxxxxxxxxxxxx" API_URL = "https://maas-api.lanyun.net/v1/chat/completions" def get_initial_riddle():     headers = {         "Content-Type": "application/json",         "Authorization": f"Bearer {API_KEY}"     }     data = {         "model": "/maas/qwen/QwQ-32B",         "messages": [             {                 "role": "user",                 "content": "请你扮演一个出题人,给我出一道海龟汤题目。请按照以下格式输出:1. 题目描述 2. 正确答案。请确保题目有趣且富有创意。"             }         ],         "stream": False     }     response = requests.post(API_URL, headers=headers, json=data)     response_data = response.json()     return response_data['choices'][0]['message']['content'] def check_answer(user_answer, history):     headers = {         "Content-Type": "application/json",         "Authorization": f"Bearer {API_KEY}"     }     messages = [         {"role": "assistant", "content": history[0][1]},  # 原题目和答案         {"role": "user", "content": f"玩家的回答是:{user_answer}。请你判断这个回答是否接近正确答案,如果正确就表扬他,如果错误就给出一些提示,但不要直接告诉答案。"}     ]     data = {         "model": "/maas/qwen/QwQ-32B",         "messages": messages,         "stream": False     }     response = requests.post(API_URL, headers=headers, json=data)     response_data = response.json()     ai_response = response_data['choices'][0]['message']['content']     history.append((user_answer, ai_response))     return "", history def create_new_riddle(history):     new_riddle = get_initial_riddle()     history = [(None, new_riddle)]     return history with gr.Blocks(theme=gr.themes.Soft()) as demo:     chatbot = gr.Chatbot(         [],         elem_id="chatbot",         bubble_full_width=False,         avatar_images=(None, "🤖"),     )     with gr.Row():         txt = gr.Textbox(             scale=4,             show_label=False,             placeholder="请输入你的答案...",             container=False,         )         submit_btn = gr.Button("提交", scale=1)     new_riddle_btn = gr.Button("出新题")     txt.submit(check_answer, [txt, chatbot], [txt, chatbot])     submit_btn.click(check_answer, [txt, chatbot], [txt, chatbot])     new_riddle_btn.click(create_new_riddle, [chatbot], [chatbot])     demo.load(create_new_riddle, [chatbot], [chatbot]) if __name__ == "__main__":     demo.launch() 

总结

开发过程中,蓝耘 API 的高效响应为谜题秒级生成提供支持,灵活的接口适配让玩法设计不受束缚,超大调用量与亲民价格,则为游戏的持续优化与迭代保驾护航。学生时代敢想敢做的冲劲,配合技术工具的赋能,让这款融合了创新思维与硬核实力的游戏得以成型。
如果你也对api调用感兴趣,不妨来试试蓝耘呢

image.png


用下方链接就ok了

https://cloud.lanyun.net//#/registerPage?promoterCode=0131

Read more

专业Web打印控件Lodop使用教程

专业Web打印控件Lodop使用教程

有时候需要在web上实现复杂的打印功能。但是用纯JavaScript实现基础打印是可行的,但要实现专业、稳定且复杂的打印功能,自己开发不仅难度极大,而且几乎不可能在浏览器环境中完全实现,所以像Lodop这样的打印控件来完成。 一、概述 (一)技术选型 1. 什么情况下可以用纯JS打印? * 需求简单:只需打印网页上的部分纯文本或简单图文内容。 * 体验要求低:不介意弹出系统对话框,用户可以手动调整打印设置。 * 无精度要求:对格式、分页、定位没有严格限制。 2. 什么情况下必须使用Lodop这类专业控件? * 企业级应用:OA、ERP、CRM、财务、物流、仓储等系统。 * 专业票据打印:发票、快递单、支票、证书等需要精确套打的场景。 * 批量与自动化:需要后台静默打印、批量打印标签或报告。 * 强格式要求:必须生成带复杂条码、图表、公章、分页汇总的文档。 (二)差异对比 特性纯JavaScript (CSS + window.print(

同花顺API收费模式全解析:如何根据投资需求选择最优档位?

1. 同花顺API收费模式全景解读 第一次接触同花顺API时,我和很多投资者一样被复杂的收费体系弄得一头雾水。经过半年多的实际使用,我发现它的收费结构其实很有逻辑性,完全可以根据自己的需求找到性价比最高的方案。 同花顺API采用典型的三层阶梯式收费体系,这种设计让我想起手机流量套餐——基础版满足日常使用,进阶版适合深度用户,专业版则面向企业级需求。每个档位在数据维度、调用频率、功能权限等方面都有明显区分。 基础档就像超市的"每日特惠",提供最核心的行情数据服务。我实测下来,这个档位支持每秒2次的查询频率,能获取A股市场的实时买卖五档行情、分钟级K线等基础数据。对于偶尔查看行情的散户来说完全够用,月费仅相当于两杯咖啡的价格。 进阶档开始展现同花顺的数据优势,增加了Level-2行情、逐笔成交等深度数据。去年我尝试用这个档位开发短线策略时,发现它支持每秒10次的高频查询,还能获取融资融券、大宗交易等特色数据。费用比基础档高出约3倍,但数据维度丰富了近10倍。 专业档则是机构投资者的"武器库",包含算法交易接口、独家资金流向数据等核心资源。某私募朋友告诉我,他们使用的专业版API能

GPT-OSS-20B多用户并发:WEBUI压力测试案例

GPT-OSS-20B多用户并发:WEBUI压力测试案例 1. 引言:为什么我们需要关注多用户并发下的AI推理表现? 你有没有遇到过这种情况:团队里好几个人同时用同一个大模型做内容生成,结果页面卡住、响应变慢,甚至直接报错?这其实不是网络问题,而是推理服务扛不住并发请求。 今天我们来聊一个非常实用的场景——基于 GPT-OSS-20B 模型的 WebUI 多用户并发压力测试。这个模型是 OpenAI 最新开源项目的一部分(注:仅为模拟设定),专为高效推理优化,配合 vLLM 加速框架,在双卡 4090D 上实现了接近生产级的响应能力。 本文将带你从零开始部署镜像,并通过真实压力测试数据告诉你:这套组合在 5 人、10 人同时提问时,到底能不能稳住?延迟多少?吞吐量如何?适合哪些实际应用场景? 无论你是想搭建团队内部的知识助手、客服机器人,还是用于内容批量生成平台,这篇文章都能给你提供可落地的参考依据。 2. 环境准备与快速部署 2.1 硬件要求说明

大厂都在用的 12 大主流 AI 前端组件库!阿里、蚂蚁、腾讯也纷纷推出 AI 组件库!

大家好,我是你们的 猫哥,那个不喜欢吃鱼、又不喜欢喵 的超级猫 ~ 随着 AI 技术的迅猛发展,前端工程师对智能化 UI 组件的需求日益增长。 阿里、蚂蚁、腾讯等大厂相继推出了自家的 AI 前端组件库,涵盖了 React 和 Vue 等主流技术栈。这些组件库不仅极大降低了 AI 能力接入门槛,还为企业和开发者带来了更高效、更智能的产品开发体验。 本文将为大家盘点当前主流的 AI 前端组件库,助力你在项目中快速集成前沿的 AI 能力! 1. Ant Design X Ant Group 团队打造的面向 AI 时代的全新企业级前端组件库,融合 Copilot、Agent、AI 驱动表单/表格等能力,支持多模型智能推荐与企业场景适配。 https: