当前位置: 首页 > news >正文

HTTP:九.WEB机器人

概念
  • Web机器人是能够在无需人类干预的情况下自动进行一系列Web事务处理的软件程序。人们根据这些机器人探查web站点的方式,形象的给它们取了一个饱含特色的名字,比如“爬虫”、“蜘蛛”、“蠕虫”以及“机器人”等!
爬虫概述
  • 网络爬虫(英语:web crawler),也叫网络蜘蛛(spider),是一种用来自动浏览万维网的网络机器人。其目的一般为编纂网络索引。

网络搜索引擎等站点通过爬虫软件更新自身的网站内容或其对其他网站的索引。网络爬虫可以将自己所访问的页面保存下来,以便搜索引擎事后生成索引供用户搜索。

爬虫访问网站的过程会消耗目标系统资源。不少网络系统并不默许爬虫工作。因此在访问大量页面时,爬虫需要考虑到规划、负载,还需要讲“礼貌”。 不愿意被爬虫访问、被爬虫主人知晓的公开站点可以使用robots.txt文件之类的方法避免访问。这个文件可以要求机器人只对网站的一部分进行索引,或完全不作处理。

  • 网络爬虫始于一张被称作种子的统一资源地址(URL)列表。当网络爬虫访问这些统一资源定位器时,它们会甄别出页面上所有的超链接,并将它们写入一张“待访列表”,即所谓爬行疆域。此疆域上的URL将会被按照一套策略循环来访问。如果爬虫在执行的过程中复制归档和保存网站上的信息,这些档案通常储存,使他们可以较容易的被查看。阅读和浏览他们存储的网站上并即时更新的信息,这些被存储的网页又被称为“快照”。越大容量的网页意味着网络爬虫只能在给予的时间内下载越少部分的网页,所以要优先考虑其下载。高变化率意味着网页可能已经被更新或者被取代。一些服务器端软件生成的URL(统一资源定位符)也使得网络爬虫很难避免检索到重复内容。

    在这里插入图片描述

爬虫流程

**爬虫流程:**

  1. 发送 HTTP 请求到目标网站:爬虫模拟浏览器发送请求获取网页数据。
  2. 获取服务器返回的 HTML 页面:服务器响应请求并返回网页内容。
  3. 解析 HTML 内容,提取所需数据:爬虫使用解析库提取网页中的有用信息。 要避免环路的出现,因为这些环路会暂停或减缓机器人的爬行过程
  4. 保存数据以供后续使用:提取的数据被保存到文件或数据库中。

环路对爬虫有害的三个原因:

爬虫会陷入循环之中,从而兜圈子,浪费带宽,无法获取新页面!

爬虫无限的请求服务器,从而阻塞了真正的用户去

http://www.xdnf.cn/news/6049.html

相关文章:

  • 探索 HumanoidBench:类人机器人学习的新平台
  • 甘果桌面tv版下载-甘果桌面安卓电视版使用教程
  • OpenAI 34页最佳构建Agent实践
  • Python(23)Python异常处理完全指南:从防御到调试的工程实践
  • 使用 Vue 开发登录页面的完整指南
  • 解决 Spring Boot 多数据源环境下事务管理器冲突问题(非Neo4j请求标记了 @Transactional 尝试启动Neo4j的事务管理器)
  • 数据库原理及应用mysql版陈业斌实验四
  • 若依同步企业微信架构及ACTIVITI
  • docker部署springboot(eureka server)项目
  • 珈和科技遥感赋能农业保险创新 入选省级卫星应用示范标杆
  • 从零开始物理引擎(六)- 重构完成与MVP理解
  • Windows程序包管理器WinGet实战
  • 极狐GitLab 议题和史诗创建的速率限制如何设置?
  • 2025.04.18|【Map】地图绘图技巧全解
  • 【MySQL】初识数据库
  • 电脑 BIOS 操作指南(Computer BIOS Operation Guide)
  • Houdini python code:参数指定文件路径
  • 13.编码器的结构
  • 5.Rust+Axum:打造高效错误处理与响应转换机制
  • Wireshark 搜索组合速查表
  • HTML新标签与核心 API 实战
  • tomcat 的安装与启动
  • 具身智能机器人学习路线全解析
  • Muduo网络库实现 [十四] - HttpResponse模块
  • 【4.1.-4.20学习周报】
  • 信号的传输方式
  • JS实现RSA加密
  • Redis面试——日志
  • 《Java 泛型的作用与常见用法详解》
  • 【Linux】第九章 控制服务和守护进程