用 Python 批量下载全量 A 股历史行情数据:基于 AKShare 的高效实践

关键词:AKShare, A股数据, 股票历史行情, 量化分析, Python 金融, 断点续传
适用读者:量化交易初学者、金融数据分析师、Python 爱好者、学术研究者

💡 为什么需要本地化 A 股历史数据?

在量化投资、策略回测、因子挖掘等场景中,高质量、完整、本地存储的历史行情数据是不可或缺的基础。然而:

  • 商业数据接口(如 Wind、Tushare Pro)往往收费或有调用限制;
  • 免费接口(如早期 Tushare)可能不稳定或字段不全;
  • 网页爬虫易被反爬,维护成本高。

幸运的是,开源项目 AKShare 提供了免费、稳定、覆盖全面的中国金融市场数据接口,包括:

  • A 股日线、分钟线
  • 指数、基金、期货、期权
  • 宏观经济、新闻舆情等

本文将带你用 不到 70 行代码,实现:
✅ 自动获取全部 A 股列表
✅ 批量下载 2018 年至今的日线数据(前复权)
✅ 支持断点续传,避免重复下载
✅ 合并为统一 CSV 文件,便于后续分析


🛠️ 技术栈与依赖

作用
akshare核心数据源,提供 A 股行情接口
pandas数据处理与合并
tqdm进度条,提升体验
os, time文件操作与请求节流

安装命令

pip install akshare pandas tqdm 
💡 建议使用国内镜像加速安装:

🔍 核心代码解析

1️⃣ 获取 A 股股票列表

defget_stock_list(): df = ak.stock_info_a_code_name() df.columns =["symbol","name"] df.to_csv("all_a_stocks.csv", index=False)return df 
  • ak.stock_info_a_code_name() 返回所有 A 股代码与名称(不含交易所后缀,如 600519
  • 保存为 CSV,便于后续审计或手动筛选

2️⃣ 下载单只股票日线数据

defdownload_stock(symbol): df = ak.stock_zh_a_hist( symbol=symbol, period="daily", start_date="20180101", end_date="20251231", adjust="qfq"# 前复权,消除分红送股影响)ifnot df.empty: df["symbol"]= symbol return df[["日期","symbol","开盘","最高","最低","收盘","成交量"]]returnNone
  • 前复权(qfq) 是量化回测的标准选择,确保价格连续性
  • 字段精简,仅保留 OHLCV(开盘、最高、最低、收盘、成交量)

3️⃣ 批量下载 + 断点续传

defdownload_all(stock_df): all_data =[]for _, row in tqdm(stock_df.iterrows(), total=len(stock_df)): symbol = row["symbol"] file_path =f"stock_history_ak/{symbol}.csv"# ✅ 断点续传:若已存在则跳过if os.path.exists(file_path): all_data.append(pd.read_csv(file_path))continue df_hist = download_stock(symbol)if df_hist isnotNone: df_hist.to_csv(file_path, index=False) all_data.append(df_hist) time.sleep(0.3)# 礼貌请求,避免触发限流
  • 断点续传:程序中断后可继续运行,不重复下载已完成的股票
  • 进度条tqdm 实时显示下载进度(共约 5000+ 只股票)
  • 请求节流time.sleep(0.3) 避免高频请求被临时封禁

4️⃣ 合并与标准化输出

final = pd.concat(data, ignore_index=True) final.rename(columns={"日期":"Date","开盘":"Open","最高":"High","最低":"Low","收盘":"Close","成交量":"Volume"}, inplace=True) final.to_csv("all_stock_history_ak.csv", index=False)
  • 输出为标准英文列名,兼容主流量化框架(如 backtrader, zipline
  • 单文件包含所有股票、所有日期,便于 Pandas 分组分析

📊 数据规模预估

指标数值
A 股数量~5200 只(含主板、创业板、科创板、北交所)
时间跨度2018–2025(约 7 年 × 250 交易日 ≈ 1750 行/股)
总行数≈ 5200 × 1750 ≈ 900 万行
文件大小CSV 约 800MB–1.2GB(取决于压缩与字段)
💡 建议使用 SSD 存储,并确保内存 ≥ 8GB(pd.concat 会加载全量数据)

⚠️ 注意事项与优化建议

❗ 1. AKShare 的稳定性

  • AKShare 依赖网页解析,接口可能随网站改版失效
  • 建议定期关注 AKShare 官方文档 更新
  • 如遇大规模失败,可尝试升级:pip install --upgrade akshare

⚙️ 2. 性能优化(进阶)

  • 多线程下载:使用 concurrent.futures.ThreadPoolExecutor 加速(注意 AKShare 非线程安全,需加锁)
  • 数据库存储:将 CSV 替换为 SQLite / MySQL,支持按股票/日期快速查询
  • 增量更新:仅下载最新 N 天数据,而非全量重拉

🔐 3. 合规提醒

  • AKShare 数据来源于公开网站,仅限个人学习研究使用
  • 商业用途请确认数据来源合法性,避免侵权风险

🚀 扩展应用场景

  1. 因子计算:基于 OHLCV 计算 MACD、RSI、布林带等技术指标
  2. 行业分析:按申万行业分类聚合,观察板块轮动
  3. 异常检测:识别涨停、跌停、巨量成交等事件
  4. 机器学习:构建时间序列预测模型(如 LSTM 预测股价)

✅ 总结

通过 akshare + pandas + tqdm,我们实现了:

  • 零成本获取全量 A 股历史行情
  • 自动化、可复现、可中断恢复 的下载流程
  • 标准化输出,无缝对接量化分析 pipeline

这不仅是数据采集脚本,更是量化研究基础设施的第一块基石。无论你是想回测一个简单均线策略,还是构建复杂的多因子模型,拥有一份干净、完整的本地数据集,都是成功的第一步。

Read more

Python入门:Python3 PyMySQL 驱动操作数据库全面学习教程

Python入门:Python3 PyMySQL 驱动操作数据库全面学习教程

Python入门:Python3 PyMySQL 驱动操作数据库全面学习教程 Python入门:Python3 PyMySQL 驱动操作数据库全面学习教程,本文是关于 Python3 使用 PyMySQL 驱动操作 MySQL 数据库的教程,首先介绍了 PyMySQL 的定义,它是 Python3 连接 MySQL 的库,遵循特定规范。接着讲解了多种安装方法及常见问题解决,然后说明连接数据库的准备工作,还详细演示了连接数据库、创建表、增删改查等核心操作,同时介绍了事务处理的方法和特性,以及各类错误异常的相关内容,帮助初学者快速掌握相关技能。 前言     Python作为一门简洁、易读、功能强大的编程语言,其基础语法是入门学习的核心。掌握好基础语法,能为后续的编程实践打下坚实的基础。本文将全面讲解Python3的基础语法知识,适合编程初学者系统学习。Python以其简洁优雅的语法和强大的通用性,成为当今最受欢迎的编程语言。本专栏旨在系统性地带你从零基础入门到精通Python核心。无论你是零基础小白还是希望进阶的专业开发者,都将通过清晰的讲解、丰富的实例和实战项目,逐步掌握语法基

By Ne0inhk
从海量时序数据到无人值守:数据库在新能源集控系统中的架构实践

从海量时序数据到无人值守:数据库在新能源集控系统中的架构实践

文章目录 * 引言 * 关于金仓数据库 * 金仓数据库在新能源行业的技术解读 * 1. 应对海量时序数据:分区存储与高效查询 * 2. 支撑高并发访问:读写分离与自治调优 * 3. 保障业务连续性:跨地域高可用与容灾 * 4. 实现平滑迁移:高度兼容与自动化工具 * 案例分析:金仓数据库赋能新能源智慧运维 * 案例一:中广核新能源生产运维系统——应对“整合、高并发、高可用”三大挑战 * 案例二:国家能源集团龙源电力——186个新能源场站集控系统国产化替代 * 案例三:国家电投集团甘肃新能源——“无人值守”风电场集控系统 * 结语 引言 谈到“双碳”与能源革命,风电,光伏这些新能源产业显然是当下最为炙手可热的风口,若想在该赛道跑得更远,更快,数字化和智能化转型并非可选,而是必备功课,要知道,从远程操控成千上万台风电机组,到及时分析大量的设备数据,直至把整个生产运维流程管理得井井有条,哪一步能离开稳定,高效且安全的数据“大后方”

By Ne0inhk
Flutter for OpenHarmony:postgres 直连 PostgreSQL 数据库,实现 Dart 原生的高效读写(数据库驱动) 深度解析与鸿蒙适配指南

Flutter for OpenHarmony:postgres 直连 PostgreSQL 数据库,实现 Dart 原生的高效读写(数据库驱动) 深度解析与鸿蒙适配指南

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net 前言 虽然移动应用大多使用本地数据库(如 SQLite),但在某些特定场景,比如内部企业应用、数据看板,或者 Serverless 架构中,客户端直接连接远程数据库进行即时查询是非常便捷的。 postgres 是一个纯 Dart 实现的 PostgreSQL 驱动,拥有完整的协议支持,不需要任何原生库绑定(JNI/FFI)。这意味着它不仅能在服务器端(Dart VM)运行完美,同样也能在 Flutter 移动端及 Web 端流畅运行,当然也包括 OpenHarmony。 一、核心特性 * 纯 Dart 实现:零原生依赖,全平台通用。 * SSL/TLS 安全连接:保障数据传输安全。 * 流式查询:支持大结果集的流式读取,

By Ne0inhk
Flutter 三方库 health_connector_core 的鸿蒙化适配指南 - 实现具备跨平台标准的数据采集与同步架构、支持端侧健康指标建模与设备总线协同实战

Flutter 三方库 health_connector_core 的鸿蒙化适配指南 - 实现具备跨平台标准的数据采集与同步架构、支持端侧健康指标建模与设备总线协同实战

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 health_connector_core 的鸿蒙化适配指南 - 实现具备跨平台标准的数据采集与同步架构、支持端侧健康指标建模与设备总线协同实战 前言 在进行 Flutter for OpenHarmony 的运动健身、个人健康管理或数字疗法类应用开发时,如何统一管理来自不同传感器(如心率计、血糖仪、计步器)的异构数据?health_connector_core 是一款专注于健康数据标准化处理的底层库。它提供了从指标建模到数据聚合的完整逻辑框架。本文将探讨如何在鸿蒙端构建极致、严谨的健康数据中枢。 一、原直观解析 / 概念介绍 1.1 基础原理 health_connector_core 建立在“标准指标(Standard Metrics)”系统之上。它将杂乱无章的原生生理信号抽象为统一的 Record 模型。

By Ne0inhk