当前位置: 首页 > java >正文

关于 scrapy框架 详解

scrapy 是一个纯 Python 编写的异步爬虫框架,具备以下特点:

优势说明
异步高效基于 Twisted,非阻塞 IO
模块化各部分可灵活配置/替换
中间件机制支持代理、UA、cookie 控制等
强大的解析内置 XPath、CSS 提取器
自动去重Scheduler 内部维护请求 fingerprint
可扩展支持 Redis/MongoDB/Selenium 等集成

适合用于中大型项目,管理多个 Spider 和抓取流程。


一、Scrapy 架构图 & 核心原理

        ┌────────────────────────────────────┐│           Scrapy Engine 引擎       ││   (调度、分发请求与响应的控制中枢)  │└────────────────────────────────────┘▲          ▲│          │┌──────────────┘          └────────────────────┐▼                                               ▼
┌──────────────┐                             ┌─────────────────────┐
│ Scheduler    │                             │  Downloader          │
│ 调度器       │                             │ 下载器(发请求)     │
│ 维护请求队列 │                             └─────────────────────┘
└─────▲────────┘                                       ▲│                                                ││       ┌─────────────────────────────┐          │└──────►│ Downloader Middlewares 下载中间件│◄──────┘└─────────────────────────────┘▲│┌─────┴───────┐│ Request 请求│└────────────┘│▼┌─────────────┐│ Response 响应│└────┬────────┘│▼┌────────────────────────────────────┐│             Spider 爬虫类           ││    (处理响应,提取数据和生成新请求) │└────────────────┬───────────────────┘│▼┌────────────────────┐│  Item(提取数据)   │└───────┬────────────┘▼┌──────────────────────────┐│  Item Pipeline 管道       ││(保存数据到文件、数据库等)│└──────────────────────────┘

>工作流程步骤解释

  • >1. Spider 生成初始 Request 请求

    • start_urls = ['https://example.com']

    • 被送到引擎(Engine)

  • >2. Engine 把请求交给 Scheduler 调度器

    • 调度器负责排队请求,避免重复(有去重功能)

  • >3. Engine 从 Scheduler 取一个请求交给 Downloader 下载器

    • Downloader 通过 HTTP 请求抓网页(可带中间件,如代理)

  • >4. Downloader 下载完后返回 Response 给 Engine

  • >5. Engine 把 Response 给 Spider 的 parse() 方法

    • 写的 parse() 里会提取数据(Item)或继续发送新请求

  • >6. 提取的数据(Item)交给 Pipeline

    • Pipeline 可以把它存储到:文件、MongoDB、MySQL、Elasticsearch 等

  • >7. Spider 产生的新请求(Request)再次送入 Scheduler → 重复上面过程

>模拟完整流程(豆瓣爬虫举例)

假设爬豆瓣 Top250 页:

  • >1. Spider:创建第一个请求 Request("https://movie.douban.com/top250")

  • >2. Scheduler:收下请求排队

  • >3. Downloader:请求网站,返回 HTML

  • >4. Spider.parse():用 CSS/XPath 抽取电影名、评分

  • >5. 生成 Item:{'title': '肖申克的救赎', 'score': '9.7'}

  • >6. Pipeline:保存为 JSON

  • >7. 如果页面有“下一页”,parse() 再 yield 一个 Request(下一页链接),流程继续


二、Scrapy 项目结构

创建项目:

scrapy startproject myspider

结构如下:

myspider/                      ← Scrapy 项目根目录
├── scrapy.cfg                 ← Scrapy 配置文件(全局入口)
├── myspider/                 ← 项目 Python 包目录(真正的业务逻辑在这)
│   ├── __init__.py            ← 表明这是一个包
│   ├── items.py               ← 定义数据结构(Item 模型)
│   ├── middlewares.py         ← 下载中间件定义(如加代理)
│   ├── pipelines.py           ← 管道:保存数据(文件、数据库)
│   ├── settings.py            ← 项目配置文件(如 headers、限速、并发数)
│   └── spiders/               ← 存放所有 Spider 的目录
│       └── example.py         ← 一个 Spider 示例(爬虫脚本)

2.1 scrapy.cfg(项目运行配置文件)

位置:根目录
作用:告诉 Scrapy 你要运行哪个项目的设置文件。

内容示例:

[settings]
default = myspider.settings   ← 指定 settings.py 的位置[deploy]
# 用于部署到 scrapyd 时用,不影响本地运行

当运行 scrapy crawl xxx 命令时,它会先从这个文件找到项目配置。

2.2 myspider/(项目主模块目录)

这是 Scrapy 真正执行的业务模块,其中所有核心逻辑都写在这里。

1)__init__.py

让 Python 把 myspider/ 识别为模块包,没别的逻辑。

2)items.py:定义数据结构(类似数据表字段)

Scrapy 的数据提取不是直接用字典,而是专门定义一个 Item 类。

示例:

import scrapyclass MyspiderItem(scrapy.Item):title = scrapy.Field()author = scrapy.Field()date = scrapy.Field()

在 Spider 中提取数据时用:

item = MyspiderItem()
item['title'] = ...
item['author'] = ...
yield item

3)middlewares.py:下载中间件(拦截请求与响应)

Scrapy 支持在请求发出前、响应回来后做额外处理,例如:

  • 修改请求头(如 User-Agent)

  • 设置代理

  • 自动重试

  • 伪装成浏览器

示例:

class RandomUserAgentMiddleware:def process_request(self, request, spider):request.headers['User-Agent'] = 'YourUserAgent'

settings.py 中启用:

DOWNLOADER_MIDDLEWARES = {'myspider.middlewares.RandomUserAgentMiddleware': 543,
}

4)pipelines.py:数据管道(保存提取到的数据)

Scrapy 提取的数据通过 Item 传入管道中做进一步处理,比如:

  • 保存到 JSON、CSV

  • 存入数据库(MongoDB、MySQL)

  • 图片下载

示例:

class JsonWriterPipeline:def open_spider(self, spider):self.file = open('items.json', 'w', encoding='utf-8')def process_item(self, item, spider):self.file.write(str(item) + "\n")return itemdef close_spider(self, spider):self.file.close()

settings.py 启用:

ITEM_PIPELINES = {'myspider.pipelines.JsonWriterPipeline': 300,
}

5)settings.py:Scrapy 项目的配置中心

可以在这里设置:

配置项作用
ROBOTSTXT_OBEY是否遵守 robots 协议(开发建议设为 False)
DOWNLOAD_DELAY下载延迟(防止被封 IP)
CONCURRENT_REQUESTS最大并发请求数
DEFAULT_REQUEST_HEADERS请求头设置
ITEM_PIPELINES设置哪些 pipeline 被启用
DOWNLOADER_MIDDLEWARES设置中间件

示例片段:

BOT_NAME = 'myspider'ROBOTSTXT_OBEY = False
DOWNLOAD_DELAY = 1
CONCURRENT_REQUESTS = 16DEFAULT_REQUEST_HEADERS = {'User-Agent': 'Mozilla/5.0',
}ITEM_PIPELINES = {'myspider.pipelines.JsonWriterPipeline': 300,
}

6)spiders/:爬虫文件目录(每个爬虫类放一个 .py)

一个 Spider 类 = 一个网站的爬虫逻辑。

示例:

import scrapy
from myspider.items import MyspiderItemclass BookSpider(scrapy.Spider):name = "books"start_urls = ['https://books.example.com']def parse(self, response):for book in response.css('div.book'):item = MyspiderItem()item['title'] = book.css('h2::text').get()item['author'] = book.css('.author::text').get()yield item

运行爬虫:

scrapy crawl books

2.3 各模块作用表

位置作用是否需要改
scrapy.cfg项目入口配置一般不改
myspider/__init__.py标识模块不改
items.py定义数据字段必改
middlewares.py拦截请求/响应可选改
pipelines.py存储 Item可选改
settings.py设置并发、延迟等常用配置项要改
spiders/放爬虫脚本主战场,必须写

三、项目举例

实战目标

  • 抓取 某勾职位接口。

  • 提取字段:

    • 职位名、公司名、城市、薪资、学历、经验、公司规模

  • 自动翻页(1~5页)

  • 保存为 CSV 文件

第一步:创建项目

打开终端:

scrapy startproject lagou_spider
cd lagou_spider

第二步:定义字段(items.py)

编辑 lagou_spider/lagou_spider/items.py

import scrapyclass LagouSpiderItem(scrapy.Item):position = scrapy.Field()company = scrapy.Field()salary = scrapy.Field()city = scrapy.Field()exp = scrapy.Field()edu = scrapy.Field()company_size = scrapy.Field()

第三步:创建爬虫文件

cd lagou_spider/lagou_spider/spiders
touch lagou.py  # Windows 用户用编辑器创建 lagou.py 文件

编辑 lagou.py

import scrapy
import json
from lagou_spider.items import LagouSpiderItemclass LagouSpider(scrapy.Spider):name = 'lagou'allowed_domains = ['lagou.com']start_urls = ['https://www.lagou.com/jobs/list_python']def start_requests(self):for page in range(1, 6):  # 抓取前 5 页url = 'https://www.lagou.com/jobs/positionAjax.json?needAddtionalResult=false'headers = {'Referer': 'https://www.lagou.com/jobs/list_python','User-Agent': 'Mozilla/5.0','Content-Type': 'application/x-www-form-urlencoded;charset=UTF-8',}data = {'first': 'true' if page == 1 else 'false','pn': str(page),'kd': 'python'}yield scrapy.FormRequest(url=url,formdata=data,headers=headers,callback=self.parse)def parse(self, response):data = json.loads(response.text)jobs = data['content']['positionResult']['result']for job in jobs:item = LagouSpiderItem()item['position'] = job['positionName']item['company'] = job['companyFullName']item['salary'] = job['salary']item['city'] = job['city']item['exp'] = job['workYear']item['edu'] = job['education']item['company_size'] = job['companySize']yield item

第四步:配置 pipeline 保存 CSV

编辑 lagou_spider/lagou_spider/pipelines.py

import csvclass CsvPipeline:def open_spider(self, spider):self.file = open('lagou_jobs.csv', 'w', newline='', encoding='utf-8-sig')self.writer = csv.writer(self.file)self.writer.writerow(['职位', '公司', '薪资', '城市', '经验', '学历', '公司规模'])def process_item(self, item, spider):self.writer.writerow([item['position'],item['company'],item['salary'],item['city'],item['exp'],item['edu'],item['company_size']])return itemdef close_spider(self, spider):self.file.close()

第五步:修改配置 settings.py

编辑 lagou_spider/lagou_spider/settings.py,添加或修改:

ROBOTSTXT_OBEY = False
DOWNLOAD_DELAY = 1.5  # 降低请求频率,防止封 IP
DEFAULT_REQUEST_HEADERS = {'User-Agent': 'Mozilla/5.0'
}
ITEM_PIPELINES = {'lagou_spider.pipelines.CsvPipeline': 300,
}

第六步:运行爬虫

在终端中运行:

scrapy crawl lagou

第七步:查看结果(lagou_jobs.csv)

输出示例(CSV 文件):

职位公司薪资城市经验学历公司规模
Python开发工程师字节跳动15k-30k北京3-5年本科10000人以上
后端Python工程师腾讯20k-40k深圳5-10年本科5000-10000人

项目结构参考

lagou_spider/
├── scrapy.cfg
├── lagou_spider/
│   ├── __init__.py
│   ├── items.py
│   ├── pipelines.py
│   ├── settings.py
│   └── spiders/
│       └── lagou.py

注意事项

问题说明
某勾有反爬添加 DOWNLOAD_DELAY,5 页以内一般不封
接口变化抓的是 JSON 接口,稳定性比页面 HTML 好
抓太多IP 会被封,建议加代理池后使用
数据为空设置 Referer + UA + Content-Type 后就正常了

后续可拓展功能

功能方法
添加代理池中间件 process_request() 设置
分布式scrapy-redis 实现
存 MongoDB改 pipeline 用 pymongo 写入
接入前端展示输出 JSON/数据库配合前端页面展示
http://www.xdnf.cn/news/14901.html

相关文章:

  • 二分查找篇——搜索插入位置【LeetCode】三种写法,python2/python3
  • (电机03)分享FOC控制中SVPWM的输出关联硬件
  • 【AI智能体】智能音视频-硬件设备基于 WebSocket 实现语音交互
  • 【计算机组成原理】-CPU章节学习篇—笔记随笔
  • study_WebView介绍
  • JVM 基础 - 类字节码详解
  • Spring Boot 多数据源切换:AbstractRoutingDataSource
  • 精益管理与数字化转型的融合:中小制造企业降本增效的双重引擎
  • HTML+JS+CSS制作一个数独游戏
  • go go go 出发咯 - go web开发入门系列(一) helloworld
  • 【OceanBase诊断调优】—— 执行计划显示分区 PARTITIONS[P0SP9] 如何查询是哪个分区?
  • 8、保存应用数据
  • 基于Docker Compose部署Traccar容器与主机MySQL的完整指南
  • Xilinx Vivado开发环境快速导出hdf文件(bat批处理)
  • 独立开发A/B测试实用教程
  • 从问题出发看Spring的对象创建与管理
  • 人工智能-基础篇-23-智能体Agent到底是什么?怎么理解?(智能体=看+想+做)
  • 【docker】-1 docker简介
  • 10.6 ChatGLM3私有数据微调实战:24小时打造高精度模型,显存直降60%
  • 七牛云Java开发面试题及参考答案(60道面试题汇总)
  • Swift 解 LeetCode 320:一行单词有多少种缩写可能?用回溯找全解
  • 初识cdp协议(一)
  • 【Mac 从 0 到 1 保姆级配置教程 19】- 英语学习篇-我的英语工作流分享(AI 辅助学习)
  • APM与ChibiOS系统
  • Ubunt20.04搭建GitLab服务器,并借助cpolar实现公网访问
  • React-useReducer-useMemo
  • LabVIEW与FPGA超声探伤
  • 软考(软件设计师)存储管理—虚拟存储器管理,页面置换算法
  • Docker 稳定运行与存储优化全攻略(含可视化指南)
  • verilog中timescale指令的使用