【Web3安全】2025年链上黑产数据报告:非法资金流破1580亿美元,AI诈骗与新型勒索病毒技术解析

【Web3安全】2025年链上黑产数据报告:非法资金流破1580亿美元,AI诈骗与新型勒索病毒技术解析

摘要 

2026年1月30日,区块链情报公司 TRM Labs 发布重磅数据:2025年,流入加密货币钱包的非法资金达到了创纪录的 1580 亿美元。2025年非法加密货币流动资金激增145%。

这一数据彻底逆转了过去三年的下降趋势(2021年为860亿美元,2024年降至640亿美元)。

非法加密货币资金流动总量(数据来源:TRM Labs 

值得注意的是,这是一个“量增质减”的奇特现象:尽管非法资金总额暴涨了 145%,但实际上,非法活动在链上总交易量中的占比却从2024年的 1.3% 微降至 1.2%

这意味着:整个加密市场的体量在变大,但黑产的规模扩张得更加迅猛。


01  为什么数据会突然激增?

来自受制裁实体的资金流量(数据来源:TRM Labs 

TRM Labs 分析认为,非法资金流动的飙升主要由以下三大因素驱动:

  1. 制裁相关活动的激增这是最主要的驱动力。随着新制裁名单的发布以及对已制裁对象识别能力的提升,与俄罗斯相关的网络(如 A7 和 A7A5 稳定币)活动量巨大。
  2. 国家行为体的深度参与加密货币正被部分国家作为核心金融基础设施使用。报告特别点名了 俄罗斯、伊朗和委内瑞拉。此外,通过与中国相关的托管和地下银行网络进行的大规模结算活动也占据了重要份额。
  3. “抓”得更准了 数据的增加部分归功于归因技术的进步。包括 TRM 自家工具在内的情报手段,现在能更快地识别出以前未被归因的非法流动,加速了对制裁活动、重大黑客攻击和黑名单实体的确认。

02  黑客攻击:单次失窃超14亿美元

黑客攻击造成的被盗资金总额(数据来源:TRM Labs 

2025年,黑客依然猖獗。TRM Labs 记录了 150 起 黑客事件,造成的总损失达 28.7 亿美元

头部效应极其明显: 前 10 大黑客攻击造成的损失占到了被盗总价值的 81%

  • 最大案值: 2025年2月的 Bybit 交易所被黑事件
  • 幕后黑手: 该事件被归因于朝鲜黑客。
  • 损失金额: 约 14.6 亿美元(仅此一案就占据了半壁江山)。

03  诈骗泛滥:AI 成为“帮凶”

加密货币诈骗造成的损失金额(数据来源:TRM Labs 

诈骗仍是加密领域的顽疾。2025年,约有 350 亿美元 的加密货币流入了各类欺诈骗局。

  • 投资诈骗(杀猪盘等) 占据主导地位,占总流入量的 62%。这包括浪漫诱导、庞氏骗局和虚假任务诈骗。
  • AI 的介入: TRM Labs 观察到,这些骗局的组织性、专业度、质量和覆盖范围都有所提升,这被认为是犯罪分子利用 人工智能(AI)工具 的结果。

04  勒索软件:受害者开始“反抗”

勒索软件相关的资金流入在过去一年保持高位,但并未达到前几年的峰值水平。

这里有一个值得关注的趋势:虽然2025年勒索软件勒索门户网站上列出的受害者数量创下新高,但越来越多的受害者正在拒绝向网络犯罪分子支付赎金。

此外,勒索软件生态系统出现了前所未有的碎片化:仅在2025年,就新增了 161 个活跃病毒株和 93 个变种。

按窃取金额排名的十大勒索软件团伙(数据来源:TRM Labs 

💡 总结:2025年的数据为行业敲响了警钟。虽然合规工具和归因技术在进步,但地缘政治因素、AI技术的滥用以及国家级行为体的入场,正在让链上安全形势变得更加复杂。

参考资料:https://www.bleepingcomputer.com/news/security/crypto-wallets-received-a-record-158-billion-in-illicit-funds-last-year/

Read more

Llama-3.2-3B步骤详解:Ollama部署后启用GPU加速(CUDA/cuDNN)全流程

Llama-3.2-3B步骤详解:Ollama部署后启用GPU加速(CUDA/cuDNN)全流程 1. 为什么需要GPU加速?——从“能跑”到“跑得快”的关键跃迁 你可能已经用Ollama成功拉起了Llama-3.2-3B,输入几句话就能看到回复,一切看似顺利。但当你连续提问、生成稍长文本,或者尝试多轮对话时,会明显感觉到响应变慢——几秒甚至十几秒的等待,让原本流畅的交互体验打了折扣。 这不是模型能力的问题,而是默认情况下Ollama在CPU上运行。Llama-3.2-3B虽是3B参数量的轻量级模型,但其Transformer结构天然适合并行计算。一块中端消费级显卡(比如RTX 3060或更高),在GPU模式下推理速度可比CPU快3~5倍,显存占用更合理,还能释放出CPU资源去做其他事。 更重要的是,Ollama官方明确支持CUDA加速,且无需手动编译模型或修改源码。整个过程不涉及复杂配置文件编辑,也不要求你成为CUDA专家——只要你的机器有NVIDIA显卡、驱动正常、CUDA环境基础就绪,就能完成切换。本文将带你从零开始,一步步验证环境、启用加速、实测对比,并解决你最可能卡

【记录】Copilot|Github Copilot重新学生认证通过方法(2025年7月,包括2FA和认证材料、Why are you not on campus)

【记录】Copilot|Github Copilot重新学生认证通过方法(2025年7月,包括2FA和认证材料、Why are you not on campus)

文章目录 * 前言 * 步骤 * 最重要的一步 前言 事实上,Github Copilot马上就要开源了,我原本的认证过期了。但是在我体验了众多的代码补全工具实在是太难用了之后,我觉得一天也等不了了,就去再一次认证了学生认证。 这次严格了很多,要求巨无敌多,这里写一下新认证要干的事情。 一口气认证了八次的含金量谁懂,把要踩的坑全踩完了。。 步骤 (如果你是第一次认证还要额外添加一下自己的学校邮箱,这里我就略过不提了) 在所有的步骤之前,最好确保你的本人就在学校或者在学校附近。当你出现了报错You appear not to be near any campus location for the school you have selected.时,会非常难通过。 而其他的报错可以按我下文这种方式通过。 (对于部分学校,比如华科大)双重认证Two-factor authentication要打开:跳转这个网站https://github.com/settings/security,然后点下一步开启认证,

LLaMA Factory 核心原理讲解

LLaMA Factory 核心原理讲解

大家好,我是herosunly。985院校硕士毕业,现担任算法研究员一职,热衷于大模型算法的研究与应用。曾担任百度千帆大模型比赛、BPAA算法大赛评委,编写微软OpenAI考试认证指导手册。曾获得阿里云天池比赛第一名,CCF比赛第二名,科大讯飞比赛第三名。授权多项发明专利。对机器学习和深度学习拥有自己独到的见解。曾经辅导过若干个非计算机专业的学生进入到算法行业就业。希望和大家一起成长进步。 本文主要介绍了LLaMA Factory 核心原理讲解,希望能对学习大模型的同学们有所帮助。 文章目录 * 1. 前言 * 2. 核心模块讲解 * 3. SFT流程讲解 1. 前言 在之前的文章主要介绍了LLaMA Factory的操作方法,其中包括: * LLaMA Factory多卡微调的实战教程 * 基于华为昇腾910B和LLaMA Factory多卡微调的实战教程 * LLaMA Factory添加新模型template的实战解析 * LLaMA Factory在预测阶段时添加原有问题的实战代码 * 详解大模型多轮对话的数据组织形式 但也有同学提出疑问

零代码体验:Whisper-large-v3在线语音转文字Demo

零代码体验:Whisper-large-v3在线语音转文字Demo 1. 引言:多语言语音识别的平民化革命 在人工智能技术快速演进的今天,语音识别已从实验室走向大众应用。OpenAI发布的Whisper系列模型,尤其是large-v3版本,凭借其卓越的多语言支持能力(覆盖99种语言)和高精度转录性能,成为当前最强大的开源语音识别解决方案之一。 本文将带你通过一个预配置的Web服务镜像——“Whisper语音识别-多语言-large-v3语音识别模型”,实现零代码部署与使用,快速体验高质量语音到文本的转换过程。无论你是开发者、产品经理还是AI爱好者,都能在几分钟内完成本地或云端部署,并立即开始语音转写任务。 你将获得: * ✅ 免配置的一键式语音识别Web界面 * ✅ 支持多种音频格式上传与麦克风实时录音 * ✅ 自动语言检测 + 转录/翻译双模式切换 * ✅ GPU加速下的低延迟响应(<15ms) * ✅ 可扩展的API调用示例与维护指南 2. 技术架构概览 2.1 整体系统架构 该镜像基于标准的前后端分离架构构建,核心组件如下: [用户浏览器] ↓ (