Python 爬虫项目实战(一):爬取某云热歌榜歌曲

Python 爬虫项目实战(一):爬取某云热歌榜歌曲

前言

网络爬虫(Web Crawler),也称为网页蜘蛛(Web Spider)或网页机器人(Web Bot),是一种按照既定规则自动浏览网络并提取信息的程序。爬虫的主要用途包括数据采集、网络索引、内容抓取等。

爬虫的基本原理

  1. 种子 URL:爬虫从一个或多个种子 URL 开始,这些 URL 是起点。
  2. 发送请求:爬虫向这些种子 URL 发送 HTTP 请求,通常是 GET 请求。
  3. 获取响应:服务器返回网页的 HTML 内容作为响应。
  4. 解析内容:爬虫解析 HTML 内容,提取所需的数据(如文本、链接、图片等)。
  5. 提取链接:从网页中提取出所有链接,并将这些链接加入待访问队列。
  6. 重复过程:爬虫重复上述步骤,直到达到某个停止条件,如爬取了一定数量的页面,或所有页面都被爬取完毕。

爬虫的分类

  1. 通用爬虫
    • 设计用于抓取整个互联网的大量网页。搜索引擎(如 Google、Bing)的爬虫就是通用爬虫。
  2. 聚焦爬虫
    • 专注于特定主题或领域,抓取相关网页。比如,一个新闻爬虫只抓取新闻网站的内容。
  3. 增量爬虫
    • 仅抓取自上次爬取以来发生变化或更新的网页,适用于动态内容更新频繁的网站。

爬虫的合法性和道德

在编写和运行爬虫时,必须遵循以下原则:

  1. 遵守网站的 robots.txt
    • 大多数网站都有一个 robots.txt 文件,规定了哪些页面允许被爬取,哪些不允许。爬虫应当尊重这些规则。
  2. 避免过度抓取
    • 设置适当的抓取频率,避免对服务器造成过大负担。
  3. 尊重版权和隐私
    • 不应抓取或使用受版权保护的内容,或涉及用户隐私的数据。
  4. 获取许可
    • 在某些情况下,最好获得网站管理员的许可,特别是当你打算频繁地抓取大量数据时。

通过以上方法和原则,可以编写高效、可靠且合规的网络爬虫来满足数据采集的需求。 

侦察

打开页面

F12 检查定位关键元素

在网络中刷新页面

搜索关键字

查看在页面中的渲染情况是不是我们想要的数据,可以看到这里列出了200首歌那么就是的

在标头中确定数据来源地址及请求方法

源代码

import re import os import requests filename = 'music\\' # 如果没有则创建文件夹 if not os.path.exists(filename): os.makedirs(filename) # 请求网址(如果想要爬取其他的榜单的歌曲内容,只需要改这个 url 即可) url = 'https://music.163.com/playlist?id=3778678' # 伪造请求头 headers = { 'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/127.0.0.0 Safari/537.36' } # 发送请求 response = requests.get(url, headers=headers) # re.findall # 这个函数用于在字符串中查找所有与正则表达式模式匹配的部分,并返回一个包含所有匹配项的列表 # r 前缀表示这是一个原始字符串,其中的反斜杠不会被解释为转义字符 # (\d+): 捕获组,匹配一个或多个数字 # (.*?): 捕获组,非贪婪匹配任何字符(包括空字符),直到遇到 </a> html_data = re.findall(r'<li><a href="/song\?id=(\d+)">(.*?)</a>', response.text) # 正则表达式提取出来的一个内容返回是列表 里面每一个元素都是元组 for num_id, title in html_data: # 调用接口 music_url = f'https://music.163.com/song/media/outer/url?id={num_id}.mp3' # 发送请求获取二进制数据 music_content = requests.get(music_url, headers=headers) # 保存 with open('music\\' + title + '.mp3', 'wb') as f: f.write(music_content.content) print(num_id, title) 

项目效果

Read more

【启发式算法】Dynamic A*(D*)算法详细介绍(Python)

【启发式算法】Dynamic A*(D*)算法详细介绍(Python)

📢本篇文章是博主人工智能(AI)领域学习时,用于个人学习、研究或者欣赏使用,并基于博主对相关等领域的一些理解而记录的学习摘录和笔记,若有不当和侵权之处,指出后将会立即改正,还望谅解。文章分类在👉启发式算法专栏:        【启发式算法】(10)---《Dynamic A*(D*)算法详细介绍(Python)》 【启发式算法】Dynamic A*(D*)算法详细介绍(Python) 目录 一、D*算法的背景 二、D*算法的工作原理  A*算法基础回顾 D*算法的基本步骤 1. 初始化:目标节点的值计算 2. 更新规则:局部更新 3. 优先队列更新 4. 反向搜索 5. 增量更新 6. 计算最终路径

By Ne0inhk
313-基于Python的保险行业数据可视化分析系统

313-基于Python的保险行业数据可视化分析系统

保险行业数据可视化分析系统 — 技术文档 1. 项目概述 1.1 基本信息 项目属性值项目编号313项目名称保险行业数据可视化分析系统项目类型分析型(无预测目标列)技术栈Flask + Vue 3(前后端分离)数据规模30,000 行 × 30 列后端端口8000前端端口5173数据库MySQL 8.0(design_313_insurance)管理员账号admin / admin123 1.2 系统功能 本系统是一个面向保险行业的全维度数据可视化分析平台,提供以下核心能力: * 13 个数据分析页面:覆盖客户画像、产品分析、地域分布、渠道分析、保费保额、理赔分析、时间趋势、关联分析、统计检验、回归分析、异常检测、同比环比 * 地图下钻分析:基于 ECharts 的全国省份 → 城市级地图下钻,支持多指标切换

By Ne0inhk
AiOnly大模型服务实测:从零开始Python调用ChatGPT/Claude API,打造专属AI智能体

AiOnly大模型服务实测:从零开始Python调用ChatGPT/Claude API,打造专属AI智能体

AiOnly大模型服务实测:从零开始Python调用ChatGPT/Claude API,打造专属AI智能体 本文围绕 AiOnly 一站式 Mass 模型服务平台展开,先介绍其基础概念与服务,平台聚焦降低模型应用门槛,整合全球前沿模型,提供企业级 API 服务,降低成本且支持高并发,可调用多种顶尖大模型。接着详细说明平台注册、免费额度领取及 API 密钥获取步骤,还介绍热门模型功能。随后重点讲解 Python 调用 API 的实战,包括环境准备、基础与进阶调用,以及专属 Python 学习智能体的封装与功能扩展,提及对话和图片理解、入参参数。最后列出常见问题与解决方案,并总结平台优势及进一步开发方向,让你更方便上手。 一、关于AiOnly 1.1 AiOnly的基础概念 AiOnly是一站式Mass模型服务平台,聚焦降低模型应用门槛,加速场景智能化进程,以一键调用、敏捷开发为核心,整合全球前沿模型,通过标准化API接口与模块化组件,

By Ne0inhk

一个使用 OpenAI Python SDK 进行 API 调用的示例脚本

一、 程序文件概述与核心功能 一个典型的、结构清晰的客户端应用程序,其主要功能是与一个部署在特定基础URL上的大型语言模型(本例中为 "QwQ-32B")进行交互。程序的核心任务是向模型发送一个预设的自然语言查询("请列举近三年提出的漏洞检测技术的文献"),并完整地接收、计时并处理模型返回的文本响应。同时,它具备完善的异常处理机制,能够优雅地应对网络超时、API服务端错误以及其他未知问题。 从软件架构的角度看,该脚本扮演了客户端的角色,它通过 HTTP 协议与远端的 API 服务器 通信。其工作流程遵循典型的请求-响应模式:构建请求 -> 发送请求 -> 等待并接收响应 -> 解析响应 -> 输出结果/处理错误。 二、 代码结构与逐行解析 1. 模块导入 (import) import openai

By Ne0inhk