MCP插件使用(browser-tools-mcp为例)

MCP插件使用(browser-tools-mcp为例)

1. 环境配置(Brower Tools为例)

python 安装 nodejs 安装 mkdir C:\Users\Suoxd\Documents\Cline\MCP\browser-tools-mcp git clone https://github.com/AgentDeskAI/browser-tools-mcp.git "C:\Users\Suoxd\Documents\Cline\MCP\browser-tools-mcp"

2. MCP服务安装启动

cd C:\Users\Suoxd\Documents\Cline\MCP\browser-tools-mcp npminstall @agentdeskai/[email protected] npx @agentdeskai/[email protected] npx @agentdeskai/[email protected] 

参考https://browsertools.agentdesk.ai/installation

在这里插入图片描述


在这里插入图片描述


在这里插入图片描述
在这里插入图片描述


在这里插入图片描述
在这里插入图片描述

3. 浏览器插件配置

https://github.com/AgentDeskAI/browser-tools-mcp/releases/download/v1.2.0/BrowserTools-1.2.0-extension.zip 
在这里插入图片描述

4. Cline 服务配置

"browser-tools-mcp":{"command":"node","args":["d:/Suo/code/tmp-AI/browser-tools-mcp/browser-tools-mcp/dist/mcp-server.js"],"disabled":false,"autoApprove":[]}

5. 最终效果

浏览器端调试工具增加了插件页面

在这里插入图片描述


在这里插入图片描述
在这里插入图片描述

Read more

深入解析 Spark 数据读取与 Hive 数据来源:构建高效数据处理链路

深入解析 Spark 数据读取与 Hive 数据来源:构建高效数据处理链路

在大数据技术生态中,Spark 作为核心计算引擎,Hive 作为数据仓库工具,二者协同支撑着海量数据的处理与存储工作。其中,Spark 的数据读取能力直接决定了计算效率的起点,Hive 的数据来源则影响着数据仓库的完整性与可用性。本文将系统梳理 Spark Core、Spark SQL 的数据读取方式,以及 Hive 中数据的主要来源,为大数据从业者构建高效数据处理链路提供参考。 一、Spark Core:底层数据读取的多元化实现         Spark Core 作为 Spark 生态的基础组件,依托SparkContext提供的 API,实现了对多种数据源的读取支持,其设计注重底层灵活性与兼容性,能够适配不同格式、不同存储位置的数据读取需求。 (一)本地集合:内存级数据快速加载         当数据规模较小时,可直接将本地集合转换为弹性分布式数据集(RDD),实现内存级别的快速读取与计算。Spark Core 提供了parallelize()和makeRDD()两种核心方法: * parallelize()方法支持将数组、

By Ne0inhk
一文说清楚Hive中常用的聚合函数[collect_list]

一文说清楚Hive中常用的聚合函数[collect_list]

collect_list(col)是Hive中常用的聚合函数,用于将分组内的某列值(col)收集到一个数组中。它的核心作用是将多行数据合并为单行的数组结构,常用于数据重组或复杂分析场景。以下是详细说明和示例: 一、函数特点 1. 分组聚合:需配合GROUP BY使用,将每个分组内的col值收集为数组。 2. 保留重复值:与collect_set(col)不同,collect_list不会去重,保留所有原始值(包括重复值)。 3. 顺序不确定:默认不保证数组内元素的顺序(除非配合窗口函数ORDER BY)。 二、典型应用场景 1. 用户行为序列分析:将用户的多次操作按时间串联为行为路径。 2. 数据结构转换:将行式存储的数据转为列式(如将多行商品标签转为单个商品的标签数组)。 3. 复杂统计:计算每个分组内的所有值的列表(如收集每个班级的所有学生成绩)。 三、示例演示 场景1:用户订单列表收集 需求:

By Ne0inhk
【DBeaver】连接带kerberos的hive[Apache|HDP]

【DBeaver】连接带kerberos的hive[Apache|HDP]

目录 一、安装配置Kerberos客户端环境 1.1 安装Kerberos客户端 1.2 环境配置 二、基于Cloudera驱动创建连接 三、基于Hive原生驱动创建连接 一、安装配置Kerberos客户端环境 1.1 安装Kerberos客户端 在Kerberos官网下载,地址如下:https://web.mit.edu/kerberos/dist/index.html 安装过程就是下一步 ,下一步那种。 1.2 环境配置 配置C:\ProgramData\MIT\Kerberos5\krb5.ini文件,将KDC Server服务器上/etc/krb5.conf文件中的部分内容,拷贝到krb5.ini中,如果直接将krb5.conf文件更名为krb5.ini并替换krb5.ini,

By Ne0inhk