当前位置: 首页 > news >正文

基于Python的携程国际机票价格抓取与分析

一、项目背景与目标

携程作为中国领先的在线旅行服务平台,提供了丰富的机票预订服务。其国际机票价格受多种因素影响,包括季节、节假日、航班时刻等。通过抓取携程国际机票价格数据,我们可以进行价格趋势分析、性价比评估以及旅行规划建议等。

本项目的目标是:

  1. 利用Python爬虫技术抓取携程国际机票价格数据。
  2. 对抓取的数据进行清洗和存储。
  3. 进行数据分析,包括价格趋势、热门航线等。
  4. 提供可视化结果,帮助用户直观了解机票价格动态。

二、 爬虫实现步骤

1 目标分析

携程国际机票页面(如 **<font style="color:rgb(64, 64, 64);background-color:rgb(236, 236, 236);">flights.ctrip.com</font>**)通常采用动态加载,数据可能通过AJAX请求返回JSON格式。我们需要:

  1. 分析网页请求:使用浏览器开发者工具(F12)查看XHR请求。
  2. 模拟请求:构造合理的请求头(Headers)和参数(Params)。
  3. 解析数据:提取航班号、出发/到达时间、航空公司、价格等信息。

2 代码实现

(1) 安装依赖
(2) 获取机票数据(静态页面方案)

如果携程的机票数据可以直接通过HTML获取(部分旧版页面适用),可以使用 **<font style="color:rgb(64, 64, 64);background-color:rgb(236, 236, 236);">requests + Beautifu</font>**

import requests
from bs4 import BeautifulSoup
import pandas as pddef scrape_ctrip_flights(departure, arrival, date):url = f"https://flights.ctrip.com/international/{departure}-{arrival}?depdate={date}"headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36"}response = requests.get(url, headers=headers)soup = BeautifulSoup(response.text, 'html.parser')flights = []for flight in soup.select('.flight-item'):airline = flight.select_one('.airline-name').text.strip()departure_time = flight.select_one('.depart-time').text.strip()arrival_time = flight.select_one('.arrival-time').text.strip()price = flight.select_one('.price').text.strip()flights.append({'Airline': airline,'DepartureTime': departure_time,'ArrivalTime': arrival_time,'Price': price})return pd.DataFrame(flights)# 示例:抓取上海到东京的2023-12-01航班
df = scrape_ctrip_flights('SHA', 'TYO', '2023-12-01')
print(df.head())
(3) 动态页面抓取(Selenium方案)

如果数据是动态加载的,需使用 **<font style="color:rgb(64, 64, 64);background-color:rgb(236, 236, 236);">Selenium</font>** 模拟浏览器操作:

from selenium import webdriver
from selenium.webdriver.common.by import By
import timedef scrape_ctrip_dynamic(departure, arrival, date):driver = webdriver.Chrome()  # 需安装ChromeDriverurl = f"https://flights.ctrip.com/international/{departure}-{arrival}?depdate={date}"driver.get(url)time.sleep(5)  # 等待页面加载flights = []for flight in driver.find_elements(By.CSS_SELECTOR, '.flight-item'):airline = flight.find_element(By.CSS_SELECTOR, '.airline-name').textdeparture_time = flight.find_element(By.CSS_SELECTOR, '.depart-time').textarrival_time = flight.find_element(By.CSS_SELECTOR, '.arrival-time').textprice = flight.find_element(By.CSS_SELECTOR, '.price').textflights.append({'Airline': airline,'DepartureTime': departure_time,'ArrivalTime': arrival_time,'Price': price})driver.quit()return pd.DataFrame(flights)# 示例:动态抓取数据
df = scrape_ctrip_dynamic('SHA', 'TYO', '2023-12-01')
print(df.head())
(4) 反爬策略

携程可能有反爬机制,需采取以下措施:

  • 随机User-Agent:避免被识别为爬虫。
  • IP代理池:防止IP被封禁。
  • 请求间隔:避免高频访问。

示例(使用 **<font style="color:rgb(64, 64, 64);background-color:rgb(236, 236, 236);">fake_useragent</font>** 和代理):

from fake_useragent import UserAgent
import requests# 初始化UserAgent对象
ua = UserAgent()# 设置请求头
headers = {"User-Agent": ua.random,"Accept-Language": "en-US,en;q=0.9"
}# 设置代理信息
proxyHost = "www.16yun.cn"
proxyPort = "5445"
proxyUser = "16QMSOML"
proxyPass = "280651"# 构造代理服务器的认证信息
proxy_auth = f"{proxyUser}:{proxyPass}"# 构造代理服务器的URL
proxies = {"http": f"http://{proxy_auth}@{proxyHost}:{proxyPort}","https": f"https://{proxy_auth}@{proxyHost}:{proxyPort}"
}# 目标URL
url = "https://example.com"  # 替换为你的目标URL# 发送请求
response = requests.get(url, headers=headers, proxies=proxies)# 打印响应内容
print(response.text)

三、 数据分析与可视化

(1) 数据清洗

# 转换价格格式(如 "¥2,500" → 2500)
df['Price'] = df['Price'].str.replace('¥', '').str.replace(',', '').astype(float)# 按价格排序
df_sorted = df.sort_values('Price')
print(df_sorted.head())

(2) 价格分布可视化

import matplotlib.pyplot as plt
import seaborn as snsplt.figure(figsize=(10, 6))
sns.histplot(df['Price'], bins=20, kde=True)
plt.title('International Flight Price Distribution (Shanghai to Tokyo)')
plt.xlabel('Price (¥)')
plt.ylabel('Frequency')
plt.show()

(3) 航空公司价格对比

plt.figure(figsize=(12, 6))
sns.boxplot(x='Airline', y='Price', data=df)
plt.xticks(rotation=45)
plt.title('Flight Price Comparison by Airline')
plt.show()

四.、结论

本文介绍了如何使用Python爬取携程国际机票数据,并进行分析与可视化。关键点包括:

  1. 网页分析:确定数据加载方式(静态/动态)。
  2. 爬虫实现:使用 **<font style="color:rgb(64, 64, 64);background-color:rgb(236, 236, 236);">Requests</font>****<font style="color:rgb(64, 64, 64);background-color:rgb(236, 236, 236);">Selenium</font>** 抓取数据。
  3. 反爬策略:合理设置请求头、代理和访问频率。
  4. 数据分析:利用 **<font style="color:rgb(64, 64, 64);background-color:rgb(236, 236, 236);">Pandas</font>****<font style="color:rgb(64, 64, 64);background-color:rgb(236, 236, 236);">Matplotlib</font>** 进行价格趋势分析。
http://www.xdnf.cn/news/192241.html

相关文章:

  • 【MCP教程系列】如何自己打包MCP服务并部署到阿里云百炼上【nodejs+TypeScript】搭建自己的MCP【Cline】
  • 排序算法详解笔记
  • Fiddler+Yakit实现手机流量抓包和小程序抓包
  • 【ESP32】st7735s + LVGL移植
  • 输出圆周率的前n位数字
  • 出口转内销如何破局?“金融+数智供应链”模式含金量还在上升
  • OpenHarmony - 小型系统内核(LiteOS-A)(十三),LMS调测
  • 文献阅读(一)植物应对干旱的生理学反应 | The physiology of plant responses to drought
  • 早投早发表!3本 Nature 新子刊已开放投稿系统!
  • 【前端】从零开始的搭建顺序指南(技术栈:Node.js + Express + MongoDB + React)book-management
  • 97AB-ASEMI机器人功率器件专用97AB
  • transformer-实现单层encoder_layer
  • JavaScript性能优化实战(6):网络请求与资源加载优化
  • 优化MySQL性能:主从复制与读写分离实践指南
  • 设计模式(行为型)解释器模式
  • 用Python做有趣的AI项目5:AI 画画机器人(图像风格迁移)
  • 蓝牙耳机开发--TWS蓝牙耳机双向通信充电盒设计
  • 0805登录_注册_token_用户信息_退出-网络ajax请求2-react-仿低代码平台项目
  • DeepSeek+Dify之三工作流引用知识库案例
  • 第十四章-PHP与HTTP协议
  • Async/Await 必须使用 try/catch 吗?
  • 大模型如何应对内容安全:原理、挑战与技术路径探讨
  • Webug4.0通关笔记02- 第2关布尔注入与第3关延时注入
  • ubantu18.04(Hadoop3.1.3)之Flink安装与编程实践(Flink1.9.1)
  • PostgreSQL与MySQL哪个适合做时空数据分析?
  • 安达发|高效智能塑料切割数控系统 - 全自动化软件解决方案
  • 信创时代技术栈选择与前景分析:国产替代背景下的战略路径与实践指南
  • 穷鬼计划:react+tailwindcss+vercel
  • Git-基本操作
  • 【MCP Node.js SDK 全栈进阶指南】高级篇(1):MCP多服务器协作架构