OpenClaw基础-3-telegram机器人配置与加入群聊

OpenClaw基础-3-telegram机器人配置与加入群聊

💡 大家好,我是可夫小子,《小白玩转ChatGPT》专栏作者,关注AI编程、AI自动化和自媒体。

Openclaw的优势是接入各种聊天工作,在前面的文章里,已经介绍了如何接入飞书。但之前我也提到了,飞书的最大的问题是请求多的限制,以及无法在非认证企业账号下面组建群聊。但这些限制另一个聊天工具可以打破,那就是Telegram,今天就跟大家分享一下,如果在OpenClaw里面接入Telegram。

图片

第一步:Openclaw端配置

通过命令openclaw config,local→channels→telegrams

image.png

这里等待输入API Token,接下来我们去Telegram里面获取

第二步:Telegram端配置

  1. 1. 在聊天窗口找到BotFather,打开对话与他私聊
  2. 3. 然后再输入一个机器人,再输入一个账号名username,这里面要求以Bot或者Bot结尾,这个是全网的id,要

2. /newbot 来创建一个机器人,输入一个名字name

image.png

Read more

如何用AI翻译工具快速实现‘麦子交换1‘的中文翻译

快速体验 1. 打开 InsCode(快马)平台 https://www.inscode.net 2. 输入框内输入如下内容: 使用快马平台的AI翻译功能,将英文短语'Wheat Exchange 1'翻译成中文'麦子交换1',并生成一个简单的网页展示这个翻译结果。网页需要包含标题、翻译结果展示区域和一个刷新翻译的按钮。使用HTML、CSS和JavaScript实现,确保界面简洁美观。 1. 点击'项目生成'按钮,等待项目生成完整后预览效果 最近在开发一个农业相关的项目时,遇到了需要将英文术语"Wheat Exchange 1"翻译成中文的需求。作为一个开发者,我发现InsCode(快马)平台的AI辅助功能可以很好地解决这个问题,还能直接生成可运行的代码示例。下面分享我的具体实现过程。

面向AI浪潮:openGauss在向量数据库与RAG场景下的应用深度研究

面向AI浪潮:openGauss在向量数据库与RAG场景下的应用深度研究

文章目录 * 引言 * 一、openGauss技术演进与AI能力基础 * 1.1 openGauss版本迭代回顾:迈向智能与云原生 * 1.2 核心AI特性:从AI4DB到DB4AI * 1.3 生态系统支撑 * 二、openGauss向量数据库能力深度解析与实战 * 2.1 向量数据库:AI时代的基石 * 2.2 openGauss的向量能力:datavec扩展 * 2.3 实战演练:构建基于openGauss的向量检索引擎 * 2.3.1 环境准备与登录 * 2.3.2 向量能力启用与数据表创建 * 2.3.3 向量数据插入 * 2.3.4 IVFFlat索引构建 * 2.3.5 向量相似度检索 * 三、

ToDesk推出ToClaw:让AI Agent真正走进你的日常工作流

ToDesk推出ToClaw:让AI Agent真正走进你的日常工作流

2026开年,中文互联网最热的AI关键词之一,非“OpenClaw”莫属。这款开源AI助手在技术圈掀起热潮,让越来越多人意识到:AI不该只负责聊天,它应该开始替人干活。但问题也随之而来——复杂的Python环境配置、繁琐的API部署、全英文的文档,将大多数普通用户挡在了门外。 就在今天,国民级远控软件ToDesk给出了自己的答案:ToClaw。它不是另一个需要单独下载的新软件,而是完全封装在最新版ToDesk里的AI助手。打开ToDesk,左侧AI入口就能找到它——免安装、免部署,可直接体验。 从“装环境”到“直接干活”,零门槛的AI助理 如果你折腾过OpenClaw,就会知道它的魅力和门槛几乎是同时出现的。魅力在于它真的是Agent,能执行任务而不只是聊天;门槛在于你要先理解安装、模型、渠道、权限、运行环境,甚至还得接受“先踩坑,再用起来”的现实。 ToClaw走的是另一条路。 打开之后,不是黑乎乎的终端,也不是一堆配置文件,而是一个非常直接的桌面助手界面:输入框、场景入口、技能页、

破除各种限制,手把手教你本地部署大语言模型,打造私人AI

破除各种限制,手把手教你本地部署大语言模型,打造私人AI

随着 AI 应用的快速普及,它已经悄然融入了人们的日常生活。相信大家对 ChatGPT、豆包、元宝这些 AI 应用已经不再陌生,并且几乎离不开它们了。但是,随着这些商用 AI 的广泛应用,一些问题也随之而来。由于监管日益严格,商用大模型的“输出限制”越来越多,动不动就触发拦截;另一方面,很多人也担心自己的敏感信息(比如商业机密、个人敏感信息,或者一些不便于给别人知道的对话)被大厂收集导致隐私泄露。这就导致很多时候,虽然 AI 很智能,但在某些特定场景下却显得非常“鸡肋”。那么,在自己的电脑上本地部署一个完全受自己控制的大语言模型的需求对个人用户就变得非常迫切。本文就将一步一步教你在本地电脑上部署一个专属于你自己的AI。 第一步:认识并安装 Ollama 简单来说,Ollama 是一个开源的本地大模型运行框架。在过去,想要在自己的电脑上运行一个几十亿参数的大语言模型(LLM),你需要懂 Python、配置复杂的代码环境、处理各种让人头疼的报错。而