8 个 Python 自动化脚本让你告别重复劳动

AI的发展越来越厉害,所以很多人也习惯把任务直接丢给AI。但 AI 在处理自动化任务时有时候还会不稳定,有些还要收费。对于需要每天定时运行、处理大量文件或监控系统状态的任务,依靠 AI 每次生成结果容易出现幻觉偏差。

AI很好,但其实有时候杀鸡没必要用牛刀。Python 一样可以完成一些简单的自动化任务。

在写 Python 之前,要确保 Python 的环境已经准备好。

推荐使用 ServBay 来管理开发环境,它支持一键安装 Python 环境,覆盖了从半只脚踏进棺材板的 Python 2.7 到Python 3.5 乃至最新的 Python 3.14 版本。而且这些版本可以同时并存,不需要手动去配置环境变量,也不用担心弄乱系统的默认配置。装好就能用,一分钟就能搞定。

有了稳定的环境,下面分享几个在实际工作中常用的自动化脚本模式。

自动重试机制:让网络请求更健壮

写爬虫或调用 API 时,网络波动是常态。与其在每个请求处都写一遍 try-except,不如把重试逻辑封装起来。专业的脚本不会因为一次超时就崩溃。

import time import requests from requests.exceptions import RequestException def fetch_with_retry(url, max_retries=3, pause=2): """ 带有自动重试机制的GET请求 """ for attempt in range(max_retries): try: # 设置超时是必须的,防止程序无限挂起 response = requests.get(url, timeout=10) response.raise_for_status() # 如果状态码不是200,抛出异常 return response except RequestException as e: print(f"请求失败 (尝试 {attempt + 1}/{max_retries}): {e}") if attempt == max_retries - 1: raise # 最后一次尝试也失败,抛出异常 time.sleep(pause) # 使用示例 try: data = fetch_with_retry("https://api.github.com") print(f"请求成功,状态码: {data.status_code}") except RequestException: print("重试多次后依然失败,请检查网络或目标服务。")

它将网络不稳定的偶发故障在代码层面消化。最大的好处是防止脚本因为一次微小的网络抖动就全盘崩溃,真正实现了“无人值守”运行,特别适合夜间批量任务。

依据文件内容重命名

有时候文件名没有及时修改,就不知道这个文件到底是什么了。

但一个个打开看又非常花时间,我们就可以写个脚本,让它读取内容并重命名。这个逻辑常用于处理发票、日志或自动生成的报告。

import os TARGET_DIR = "./reports" def clean_filename(text): # 去除文件名中的非法字符 return "".join(c if c.isalnum() else "_" for c in text)[:50] for filename in os.listdir(TARGET_DIR): full_path = os.path.join(TARGET_DIR, filename) # 确保只处理文件 if os.path.isfile(full_path): try: with open(full_path, "r", encoding='utf-8') as f: # 读取第一行作为新文件名 first_line = f.readline().strip() if first_line: new_name = clean_filename(first_line) + ".txt" new_path = os.path.join(TARGET_DIR, new_name) # 防止覆盖已存在的文件 if not os.path.exists(new_path): os.rename(full_path, new_path) print(f"重命名: {filename} -> {new_name}") except Exception as e: print(f"无法处理文件 {filename}: {e}")

解决了文件名无意义(如 scan_001.txt)的痛点。脚本直接读取文件核心内容来命名,检索文件时效率很高,不再需要逐个打开确认。

清理长期未访问的僵尸文件

磁盘空间总是莫名其妙变少,多半是因为那些下载后就再没打开过的临时文件。这个脚本能清理长期没有访问过的文件,它是依据最后访问时间来运行。

import os import time WATCH_DIR = "/path/to/cleanup" EXPIRY_DAYS = 180 # 6个月未访问则删除 current_time = time.time() for filename in os.listdir(WATCH_DIR): filepath = os.path.join(WATCH_DIR, filename) if os.path.isfile(filepath): # 获取最后访问时间 (atime) last_access_time = os.path.getatime(filepath) # 计算时间差 if current_time - last_access_time > (EXPIRY_DAYS * 86400): try: os.remove(filepath) print(f"已删除陈旧文件: {filename}") except OSError as e: print(f"删除失败: {e}")

基于“访问时间”而非“创建时间”判断,这非常关键,因为它能精准识别那些真正不再需要的文件。它就像一个隐形的清洁工,防止磁盘空间被无用的临时数据悄悄吃光。

监控并查杀高负载僵尸进程

有些 Python 脚本(尤其是涉及多进程或机器学习任务的)在意外退出后会留下孤儿进程,占用大量 CPU。手动打开活动监视器查找太慢,直接用脚本自检。

import psutil # 设定阈值:CPU占用超过80%且进程名为python CPU_THRESHOLD = 80.0 PROCESS_NAME = "python" for proc in psutil.process_iter(['pid', 'name', 'cpu_percent']): try: # psutil获取cpu_percent通常需要interval,这里取瞬时值可能需要两次调用或结合实际场景调整 # 在脚本循环监控中更为有效 if proc.info['name'] and PROCESS_NAME in proc.info['name'].lower(): if proc.info['cpu_percent'] > CPU_THRESHOLD: print(f"检测到高负载僵尸进程 PID: {proc.info['pid']} (CPU: {proc.info['cpu_percent']}%)") proc.kill() print("已终止进程。") except (psutil.NoSuchProcess, psutil.AccessDenied): pass

这是一种主动防御机制。它解决了长时间运行脚本可能导致的内存泄漏或死循环问题,避免了因单个失控进程拖慢整个系统,省去了你手动打开活动监视器排查的时间。

操作前的后悔药:自动备份

在对配置文件或关键数据进行写入操作前,备份是必须的。但往往都是忘记了备份。那就把自动化备份交给Python吧。

import shutil import time import os def safe_backup(filepath): if not os.path.exists(filepath): print(f"文件不存在: {filepath}") return # 生成带时间戳的备份文件名 timestamp = time.strftime("%Y%m%d_%H%M%S") backup_path = f"{filepath}.{timestamp}.bak" try: shutil.copy2(filepath, backup_path) print(f"备份已创建: {backup_path}") except IOError as e: print(f"备份失败: {e}") raise # 备份失败则应该中断后续操作 # 使用场景:修改配置前 config_file = "app_config.yaml" safe_backup(config_file) # 此处执行写入操作...

执执行任何破坏性操作(如覆盖、写入)前强制留底,这是生产环境中最基本的安全法则,确保错误发生时能瞬间回滚。

脚本运行结束后的系统通知

很多脚本一跑就是半小时,你不可能一直盯着控制台。让脚本跑完后弹窗通知你,是提升工作体验的小细节。

import platform import os def send_notification(title, text): system_type = platform.system() if system_type == "Darwin": # macOS # 使用 AppleScript 调用通知 cmd = f"""osascript -e 'display notification "{text}" with title "{title}"'""" os.system(cmd) elif system_type == "Linux": # Linux 通常使用 notify-send cmd = f"""notify-send "{title}" "{text}" """ os.system(cmd) else: print(f"通知: [{title}] {text}") # 模拟长时间任务 import time time.sleep(2) send_notification("任务完成", "数据处理脚本已执行完毕。")

开发者不需要盯着黑底白字的控制台发呆,可以将等待脚本结束的垃圾时间转化为可自由支配的时间,任务完成了它会主动找你。

轻量级数据采集

当你需要从网页上抓取特定字段(如价格、标题)并整理成表格时,Python 是最高效的工具。

import requests from bs4 import BeautifulSoup import csv def scrape_data(url, output_file): # 伪装 User-Agent 防止被简单的反爬拦截 headers = {'User-Agent': 'Mozilla/5.0'} try: response = requests.get(url, headers=headers) soup = BeautifulSoup(response.content, 'html.parser') # 假设我们要抓取文章列表中的标题和链接 articles = soup.find_all('article') data_rows = [] for article in articles: title_tag = article.find('h2') if title_tag and title_tag.a: title = title_tag.a.text.strip() link = title_tag.a['href'] data_rows.append([title, link]) # 写入CSV with open(output_file, 'w',, encoding='utf-8') as f: writer = csv.writer(f) writer.writerow(['标题', '链接']) writer.writerows(data_rows) print(f"成功抓取 {len(data_rows)} 条数据并保存至 {output_file}") except Exception as e: print(f"抓取过程中出错: {e}") # 示例调用 # scrape_data("http://example-blog.com", "results.csv")

将复制粘贴动作转化为结构化数据流。相比人工,它能以毫秒级的速度处理成百上千个页面,且生成的数据格式(如 CSV)统一规整,直接可用。你就说方便不方便。

自动化文件归类

我不知道你的电脑怎么样,但我的下载文件夹是最乱的地方。而这个脚本可以根据文件后缀,自动将文件移动到对应的分类文件夹中。不用自己一个个用手拖。

import os import shutil from pathlib import Path SOURCE_DIR = Path("/Users/username/Downloads/MixedData") DEST_DIR = Path("/Users/username/Documents/Sorted") def organize_files(): if not SOURCE_DIR.exists(): return for file_path in SOURCE_DIR.iterdir(): if file_path.is_file(): # 获取扩展名,例如 .pdf ext = file_path.suffix.lower() if ext: # 忽略无后缀文件 # 去掉点号,作为文件夹名,例如 pdf folder_name = ext[1:].upper() + "_Files" target_folder = DEST_DIR / folder_name # 创建目标文件夹 target_folder.mkdir(parents=True, exist_ok=True) # 移动文件 try: shutil.move(str(file_path), str(target_folder / file_path.name)) print(f"移动: {file_path.name} -> {folder_name}") except shutil.Error as e: print(f"移动文件出错: {e}") if __name__ == "__main__": organize_files()

文件也有收纳师,还是免费的。它利用文件扩展名这一最基础的元数据,瞬间将混乱的下载目录变得井井有条,极大地减少了人工整理文件的认知负担。

总结

这些脚本并不复杂,但它们构成了自动化工作流的基础。从环境搭建开始,使用 ServBay 解决版本共存的痛点,再配合这些稳健的代码逻辑,就可以把大量耗时的重复劳动交给机器。真正的程序员不是打字最快的人,而是懂得如何让代码替自己工作的人。

Read more

鸿蒙金融理财全栈项目——上线与运维、用户反馈、持续迭代

鸿蒙金融理财全栈项目——上线与运维、用户反馈、持续迭代

《鸿蒙APP开发从入门到精通》第22篇:鸿蒙金融理财全栈项目——上线与运维、用户反馈、持续迭代 🚀📱🔧 内容承接与核心价值 这是《鸿蒙APP开发从入门到精通》的第22篇——上线与运维、用户反馈、持续迭代篇,100%承接第21篇的合规审计优化、风险控制优化、产品创新优化架构,并基于金融场景的上线与运维、用户反馈、持续迭代要求,设计并实现鸿蒙金融理财全栈项目的上线与运维、用户反馈、持续迭代功能。 学习目标: * 掌握鸿蒙金融理财项目的上线与运维设计与实现; * 实现应用上线、应用运维、应用监控; * 理解用户反馈在金融场景的核心设计与实现; * 实现用户反馈收集、用户反馈分析、用户反馈处理; * 掌握持续迭代在金融场景的设计与实现; * 实现持续集成、持续部署、持续交付; * 优化金融理财项目的用户体验(上线与运维、用户反馈、持续迭代)。 学习重点: * 鸿蒙金融理财项目的上线与运维设计原则; * 用户反馈在金融场景的应用; * 持续迭代在金融场景的设计要点。 一、 上线与运维基础 🎯 1.1 上线与运维定义 上线与运维是指对金融理财项目的

By Ne0inhk
Flutter 组件 bluetooth_identifiers 的适配 鸿蒙Harmony 实战 - 驾驭蓝牙 SIG 标准标识、实现鸿蒙端智能设备精准识别与自动化交互方案

Flutter 组件 bluetooth_identifiers 的适配 鸿蒙Harmony 实战 - 驾驭蓝牙 SIG 标准标识、实现鸿蒙端智能设备精准识别与自动化交互方案

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 组件 bluetooth_identifiers 的适配 鸿蒙Harmony 实战 - 驾驭蓝牙 SIG 标准标识、实现鸿蒙端智能设备精准识别与自动化交互方案 前言 在鸿蒙(OpenHarmony)构建的“万物互联”图景中,蓝牙(Bluetooth)作为短距离无线通信的绝对主力,承载着连接耳机、手表、体脂秤乃至专业医疗传感器的重任。当你通过鸿蒙系统的蓝牙扫描 API 获取到一串冷冰冰的 0x180D 或者 0x004C 这种标识符时,如何让你的 App 瞬间明白这代表“心率服务(Heart Rate)”还是“Apple Inc. 厂商设备”? 如果仅仅靠在代码里写死成百上千个极其容易过时的 if-else 常量,不仅维护起来是场灾难,

By Ne0inhk

uniapp 判断运行设备类型(安卓、苹果、鸿蒙、微信小程序、H5)

1. uniapp 判断运行设备类型(安卓、苹果、鸿蒙、微信小程序、H5) 1.1. 方法一 uni.getDeviceInfo()  官方文档:https://uniapp.dcloud.net.cn/api/system/getDeviceInfo.html uni.getDeviceInfoSync().osName (1)‘android’:安卓系统 (2) ‘ios’:iOS 系统 (3)‘harmony’:鸿蒙系统(纯血鸿蒙返回此值) (4) 注意:卓易通等安卓模拟器环境会返回 ‘android’,非纯血鸿蒙 1.2. 方法二 uni.getSystemInfoSync() uniapp可以通过多种方法判断运行设备类型,

By Ne0inhk
Flutter for OpenHarmony: Flutter 三方库 ulid 别再用杂乱的 UUID,为鸿蒙应用换上“可排序、更简洁”的唯一标识符(全局 ID 新标准)

Flutter for OpenHarmony: Flutter 三方库 ulid 别再用杂乱的 UUID,为鸿蒙应用换上“可排序、更简洁”的唯一标识符(全局 ID 新标准)

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net 前言 在进行 OpenHarmony 的分布式数据库设计、日志系统或任务追踪系统开发时,我们需要为每一条记录生成一个“全局唯一标识符”。 1. 传统 UUID 的痛点:UUID (v4) 是完全随机的,它破坏了数据库的 B-Tree 索引顺序,导致写入性能下降;且 36 位连字符字符串在数据库中显得过于臃肿。 2. ULID 的优势:它兼具了 128 位的全局唯一性,同时它的前 48 位是时间戳。这意味着 ULID 天然可按时间排序。 ulid 软件包为鸿蒙开发者提供了这种现代化的 ID 生成方案。它采用 Base32 编码(26 个字符),没有特殊符号,既美观又极具工程性能优势。 一、

By Ne0inhk