LangBot:企业级即时通讯 AI 机器人平台 LangBot聚合服务&LangBot Space账号注册篇

LangBot:企业级即时通讯 AI 机器人平台 LangBot聚合服务&LangBot Space账号注册篇

LangBot:企业级即时通讯 AI 机器人平台 LangBot聚合服务&LangBot Space账号注册篇

“专为企业打造的即时通讯 AI 机器人平台,无缝集成飞书(Lark)、钉钉、企业微信等企业通讯工具,与 Dify 等 AI 应用平台深度整合,让企业 AI 应用快速落地。”

LangBot项目地址LangBot项目官网LangBot项目社区我的博客LangBot项目文档

LangBot(原 QChatGPT)是一款专为企业设计的开源 AI 机器人平台,立项于 2021 年中旬。它专注于帮助企业将 AI 能力无缝集成到现有的工作流程中,特别针对使用飞书(Lark)和 Dify 的企业用户,提供了完整的解决方案,让企业能够快速部署智能客服、知识库助手、工作流自动化等 AI 应用。

Langbot Space 平台

该平台可以提供

  • Langbot Space plugin market
  • LangBot Space cloud(SASS)
  • LangBot Space 商业
  • LangBot Space model

Langbot Space 平台是专为Langbot打造的一站式平台 他对企业以及单位的部署十分友好 已经获得青睐 并且由于针对生产环境的SDK优化 使LangBot便携性与安全性远超Astrbot Openclaw同类型项目(主要在沙箱和RUNTIME分离,插件容器爆炸不会影响LangBot的主容器,是目前的IM和agent前所未有的) 在这里不仅提供LangBot Cloud一键部署和LangBot plugin安全插件以及LangBot model模型聚合一站式服务(同时提供自定义配置模型) 减少了大量维护成本 是LangBot在企业上成功的生力军 所以如果你用LangBot 我是极力推荐你注册一个Langbot Space平台账号的 对于LangBot本体 你完全可以不使用LangBot Space

在这里插入图片描述

注册&登录

如果你首先进入Space界面 你可能先进入Cloud界面 不过这没有关系 登录窗口在右上角

在这里插入图片描述

可见即所得 你可以看到三种注册&登录方式 我在这推荐github登录 因为如果你要发布插件 溯源和绑定账号是一定要有的(尽管插件下载不经过github)当然你可以使用其他方式

登录完了以后你可以看到你的个人中心变成了这样

在这里插入图片描述
‘除了打码的邮箱 剩下你没有 别问’

介绍-账号设置

入口大概在这里

在这里插入图片描述

进入以后你就有丰富的设置了

个人中心

如果之前你没有设置github绑定 你也可以在这里绑定 但是github的邮箱会自动顶替你的space邮箱 如果你作为一名插件开发者 你一定要注意自己的邮箱 因为space的评论区会同步到你的邮箱

计费中心
在这里插入图片描述

Langbot space提供的免费积分是会用尽的 所以你需要充值时可以在这里


这些是Space服务提供的模型 可以开发票’

同时我们提供自定义配置 可以自定义url和key’
我的插件

这里可以为自己的插件添加标签 我不多说 进阶篇目我会详细讲解的

在这里插入图片描述
工单
在这里插入图片描述

在space的bug 以及LangBot AI 服务的发票都可以在这里得到反馈

在这里插入图片描述

Read more

VSCode扩展工具Copilot MCP使用教程【MCP】

VSCode扩展工具Copilot MCP使用教程【MCP】

MCP(Model Context Protocol,模型上下文协议) ,2024年11月底,由 Anthropic 推出的一种开放标准,旨在统一大型语言模型(LLM)与外部数据源和工具之间的通信协议。本文章教你使用VSCode扩展工具Copilot MCP快速上手MCP应用! 1. VSCode中安装Copilot MCP Copilot MCP是一个适用于 VSCode 的 MCP Client。 2. Copilot MCP使用 安装之后会出现Coplilot授权,并在左侧菜单中出现MCP Server按钮 3. Add Server 点击Add Server,MCP Server分为两种建立方式,Process和SSE 以Process为例,输入必要信息: 其中Server Name是你给Server起的任意名字,需要注意的是Start Command。 这里我的输入为: npx -y @modelcontextprotocol/server-filesystem /path 注意path修改为自己的文件路径,

多模态模型Qwen3-VL在Llama-Factory嵌套量化QLoRA训练+测试+导出+部署(Ollama/LMDeploy)全流程--以具身智能数据集open-eqa为例

多模态模型Qwen3-VL在Llama-Factory嵌套量化QLoRA训练+测试+导出+部署(Ollama/LMDeploy)全流程--以具身智能数据集open-eqa为例

前期环境配置等准备可参考教程: 多模态模型Qwen3-VL在Llama-Factory中断LoRA微调训练+测试+导出+部署全流程--以具身智能数据集open-eqa为例 这里数据来源 Open-EQA 多模态具身智能数据集,经过处理每个样本八张图片,划分为训练-验证集和测试集。 若对下载和处理open-eqa数据集代码有兴趣,可以通过网盘分享的文件:OpenEQACode.zip 链接: https://pan.baidu.com/s/1DqmIp1Xw6HJPX77O-iOXdQ?pwd=dgn8 提取码: dgn8 如果不方便下载和处理open-eqa数据集,可以通过网盘分享的文件:OpenEQA8s.zip 链接: https://pan.baidu.com/s/1_6G4YwI5tmYXUSDLssJ13A?pwd=hfvw 提取码: hfvw 1.微调训练 有cuda显卡可以执行pip install unsloth可以安装Unsloth加快训练和推理 执行pip install tensorboard安装保存完整训练过程的数据,避免中断只能部分曲线

AI写论文引用的文献是真的吗?别再被“幻觉引用”坑了!宏智树AI:所有参考文献均来自知网/维普,真实可查,AIGC率<10%

AI写论文引用的文献是真的吗?别再被“幻觉引用”坑了!宏智树AI:所有参考文献均来自知网/维普,真实可查,AIGC率<10%

“AI写的论文,参考文献靠谱吗?” 这是许多本科生、研究生在使用智能写作工具时最担心的问题。 你可能已经遇到过这样的场景: * AI生成了一篇“看起来很专业”的论文,引用了10篇文献; * 你满怀信心地复制进Word,准备写综述; * 结果一搜标题——根本不存在! * 作者名字像真的一样,期刊名也像正规刊物,但无论知网、万方还是百度学术,都查不到原文。 这种现象,学术界称之为 “幻觉引用”(Hallucinated Citations)——是通用大模型因训练数据混杂、缺乏事实核查机制而产生的“一本正经地胡说八道”。 而一旦你把这类“虚假文献”写进毕业论文,轻则被导师退回,重则被认定为学术不端——因为虚构参考文献,属于严重违反科研诚信的行为。 那么,有没有一个AI工具,既能高效辅助写作,又能100%保证引用真实、可查、可溯源? 答案是:有。宏智树 AI 学术(www.hzsxueshu.com 平台的“毕业论文”

llama的Qwen3.5大模型单GPU高效部署与股票筛选应用|附代码教程

全文链接:https://tecdat.cn/?p=45082 原文出处:拓端数据部落公众号   在当今AI技术快速迭代的背景下,大模型的能力边界不断被突破,但随之而来的隐私安全、推理成本等问题也逐渐凸显。对于许多企业和研究者而言,将大模型部署在本地环境,既能保证数据隐私,又能灵活控制推理流程,成为了迫切需求。我们团队在近期的一个咨询项目中,就帮助客户完成了Qwen3.5大模型的本地化部署,并基于此开发了一款股票筛选工具,整个方案已通过实际业务校验。 本文将从环境准备开始,一步步讲解如何在单GPU上高效运行Qwen3.5,包括llama.cpp的编译、模型下载、服务启动,以及最终的应用开发。希望能为有大模型本地化需求的读者提供一些实用参考。 本文内容改编自过往客户咨询项目的技术沉淀并且已通过实际业务校验,该项目完整代码教程已分享至交流社群。阅读原文进群获取更多最新AI见解和行业洞察,可与900+行业人士交流成长;还提供人工答疑,拆解核心原理、代码逻辑与业务适配思路,帮大家既懂 怎么做,也懂 为什么这么做;遇代码运行问题,更能享24小时调试支持。 全文脉络流程图