对网络爬虫与搜索引擎的理解

2019-07-05  本文已影响0人  乖乖果效36

一、网络爬虫

网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁、自动索引、模拟程序或者蠕虫。简单来讲,它是一种可以在无需人类干预的情况下自动进行一系列web事务处理的软件程序。web爬虫是一种机器人,它们会递归地对各种信息性的web站点进行遍历,获取第一个web页面,然后获取那个页面指向的所有的web页面,依次类推。因特网搜索引擎使用爬虫在web上游荡,并把他们碰到的文档全部拉回来。然后对这些文档进行处理,形成一个可搜索的数据库。简单来说,网络爬虫就是搜索引擎访问你的网站进而收录你的网站的一种内容采集工具。
例如:百度的网络爬虫就叫做BaiduSpider。

image

二、网络爬虫基本原理

网络 < --- > 爬虫 < --- > 网页内容库 < --- > 索引程序 < --- > 索引库 < --- > 搜索引擎 < --- > 用户

image

三、爬虫程序需要注意的地方

1、链接提取以及相对链接的标准化

2、 避免环路的出现
web爬虫在web上爬行时,要特别小心不要陷入循环之中,至少有以下三个原因,环路对爬虫来说是有害的。

3、标记为不爬取

4、避免环路与循环方案

5、规范化URL

6、广度优先的爬行

7、节流

8、限制URL的大小

9、URL黑名单

10、人工监视

四、搜索引擎优化(SEO)

1、内部优化

2、外部优化

上一篇 下一篇

猜你喜欢

热点阅读