格拉姆角场(Gramian Angular Field, GAF)详解

格拉姆角场(Gramian Angular Field, GAF)详解

格拉姆角场(Gramian Angular Field, GAF)是一种于2015年被提出的时间序列可视化与特征编码技术。其核心思想是将一维时间序列转换为二维图像,并在此过程中保留原始序列的时间依赖关系与数值特征。目前,GAF已在故障诊断、生物电信号分析、射频信号识别等多个领域得到广泛应用。

GAF的实质是借助极坐标变换格拉姆矩阵的结构,将一维序列中的“时间–数值”映射为图像中的像素关联信息。生成的图像矩阵的行列索引直接对应时间顺序,使其能够兼容主流图像识别模型(如CNN),从而挖掘出时间序列中的深层特征。

一、GAF 的核心设计逻辑

传统的一维时间序列包含两类基本信息:数值大小(如振幅)和时间顺序(如信号随时间的变化趋势)。折线图等常规方法虽能展示趋势,却难以显式表达不同时刻之间的数值关联。GAF 通过以下三步逻辑实现信息的结构化编码:

  1. 数值归一化:将原始序列缩放至[-1, 1]区间,消除量纲与异常值影响,为极坐标变换提供基础;
  2. 极坐标转换:将时间索引映射为半径,数值大小映射为角度,建立 时间-数值 在极坐标系统中的对应关系;
  3. 格拉姆矩阵构建:基于极坐标角度,通过三角运算(如余弦和/差)构造 Gram 矩阵,将数值之间的时序关系转化为图像像素值。

二、GAF 的实现步骤(标准流程)

以任意 1 维时间序列 X=[x1,x2,...,xN]X = [x_1, x_2, ..., x_N]X=[x1​,x2​,...,xN​](N 为序列长度)为例。

步骤 1:数据归一化(Normalization)

将原始序列归一化至区间 [-1, 1] :

x~i=2(xi−min(X))max(X)−min(X)−1\Large \tilde{x}_i = \frac{2(x_i - min(X))}{max(X) - min(X)} - 1x~i​=max(X)−min(X)2(xi​−min(X))​−1

其中

  • min(X)min(X)min(X)、max(X)max(X)max(X)分别为原始序列的最小值和最大值;
  • x~i∈[−1,1]\tilde{x}_i \in [-1, 1]x~i​∈[−1,1],归一化后不仅消除了量纲影响,还确保后续角度计算时 arccos(x~i)arccos(\tilde{x}_i)arccos(x~i​) 有实数解。

步骤 2:极坐标编码(Polar Coordinate Encoding)

将归一化后的序列 X~=[x~1,x~2,...,x~N]\tilde{X} = [\tilde{x}_1, \tilde{x}_2, ..., \tilde{x}_N]X~=[x~1​,x~2​,...,x~N​]映射到极坐标系:

  • 半径(表示时间索引):

ri=iN,i=1,2,3...,N\large r_i = \frac{i}{N}, \quad i=1,2,3...,Nri​=Ni​,i=1,2,3...,N
时间越晚,半径越大,靠近单位圆边缘。
每个角度

Read more

AI绘画提示词实战指南:从基础原理到高效创作

快速体验 在开始今天关于 AI绘画提示词实战指南:从基础原理到高效创作 的探讨之前,我想先分享一个最近让我觉得很有意思的全栈技术挑战。 我们常说 AI 是未来,但作为开发者,如何将大模型(LLM)真正落地为一个低延迟、可交互的实时系统,而不仅仅是调个 API? 这里有一个非常硬核的动手实验:基于火山引擎豆包大模型,从零搭建一个实时语音通话应用。它不是简单的问答,而是需要你亲手打通 ASR(语音识别)→ LLM(大脑思考)→ TTS(语音合成)的完整 WebSocket 链路。对于想要掌握 AI 原生应用架构的同学来说,这是个绝佳的练手项目。 从0到1构建生产级别应用,脱离Demo,点击打开 从0打造个人豆包实时通话AI动手实验 AI绘画提示词实战指南:从基础原理到高效创作 新手常见痛点分析 刚开始接触AI绘画时,很多人会遇到这样的困扰:明明输入了描述词,生成的图片却和想象中相差甚远。这通常源于几个典型问题: * 语义歧义:比如输入"苹果&

ChatGLM-6B智能写作助手开发指南

ChatGLM-6B智能写作助手开发指南 1. 引言 你有没有过这样的经历?面对空白的文档,脑子里有无数想法,但就是不知道从何下笔。写工作报告时,总觉得语言干巴巴的,缺乏感染力;写营销文案时,绞尽脑汁也想不出吸引人的标题;写技术文档时,又担心表达不够专业准确。 如果你也有这些困扰,那么今天要聊的这个话题可能会让你眼前一亮。基于ChatGLM-6B开发一个智能写作助手,听起来可能有点技术含量,但实际上并没有想象中那么复杂。这个助手不仅能帮你生成各种文体的内容,还能检查语法错误、优化表达风格,甚至根据你的需求调整语气和长度。 我最近就在自己的项目中尝试了这套方案,用下来感觉确实能节省不少时间。特别是那些重复性的写作任务,比如写产品介绍、整理会议纪要、生成邮件模板等等,现在基本上交给助手就能搞定,我只需要做最后的润色和调整。 接下来,我就详细分享一下如何从零开始搭建这样一个智能写作助手,包括环境部署、功能开发、实际应用等各个环节。无论你是开发者想要集成写作功能,还是内容创作者想要提升效率,相信都能从中找到有用的信息。 2. ChatGLM-6B模型简介 在开始动手之前,我们

AIGC ---探索AI生成内容的未来市场

AIGC ---探索AI生成内容的未来市场

文章目录 * 一、AIGC的市场现状与挑战 * 1. 快速发展的生成模型 * 二、AIGC在内容生成中的应用场景 * 1. 文本生成的实际案例 * 2. 图像生成的多样化探索 * 3. 跨模态内容生成的实现 * 三、AIGC市场的技术挑战与解决方案 * 1. 数据质量问题 * 2. 模型偏差问题 * 3. 内容真实性问题 * 四、AIGC的未来趋势 * 1. 多模态生成成为主流 * 2. 垂直领域的深入 * 五、总结 AI生成内容(AIGC)正成为科技领域的热点,广泛应用于文本生成、图像生成、视频生成等多个方向。本文将通过丰富的代码示例,带您探索AIGC市场的潜力、挑战及应用技术。 一、AIGC的市场现状与挑战 1. 快速发展的生成模型 当前的主流AIGC模型包括: * 文本生成:如OpenAI的GPT系列。 * 图像生成:如Stable Diffusion、DALL·E。

从零搭建AI运维系统,MCP AI Copilot实操全流程详解

第一章:MCP AI Copilot 架构概览 MCP AI Copilot 是一个面向企业级 DevOps 场景的智能辅助系统,旨在通过大模型驱动的方式提升开发、运维与安全响应的自动化水平。其架构设计强调模块化、可扩展性与实时交互能力,核心由感知层、决策引擎、执行总线与反馈闭环四大组件构成。 核心组件构成 * 感知层:负责从 CI/CD 流水线、日志系统、监控平台等数据源采集上下文信息 * 决策引擎:集成大语言模型与规则推理模块,对输入请求进行意图识别与策略生成 * 执行总线:协调调用底层工具链(如 Kubernetes API、Ansible、Terraform)完成具体操作 * 反馈闭环:记录执行结果并用于模型微调,形成持续优化的学习机制 通信协议配置示例 // config.go - MCP AI Copilot 服务间通信配置 type ServiceConfig