轻松入门学网络爬虫编程实战(2):爬虫架构篇
2018-07-31 本文已影响3人
拆闲再补忙
大家如果有什么好的想法請多留言,多提意見。
語言&環境
語言:彈藥充足,Python沖鋒!
轻松入门学网络爬虫编程实战(2):爬虫架构篇 轻松入门学网络爬虫编程实战(2):爬虫架构篇 轻松入门学网络爬虫编程实战(2):爬虫架构篇 轻松入门学网络爬虫编程实战(2):爬虫架构篇 轻松入门学网络爬虫编程实战(2):爬虫架构篇一個迷你框架
下面以比較典型的通用爬蟲為例,分析其工程要點,設計并實現一個迷你框架。架構圖如下:
[图片上传失败...(image-45da43-1533022955420)]
代碼結構:
轻松入门学网络爬虫编程实战(2):爬虫架构篇config_load.py 配置文件加載
crawl_thread.py 爬取線程
mini_spider.py 主線程
spider.conf 配置文件
url_table.py url隊列、url表
urls.txt 種子url集合
webpage_parse.py 網頁分析
webpage_save.py 網頁存儲
看看配置文件里有什么內容:
spider.conf
轻松入门学网络爬虫编程实战(2):爬虫架构篇 轻松入门学网络爬虫编程实战(2):爬虫架构篇 轻松入门学网络爬虫编程实战(2):爬虫架构篇 轻松入门学网络爬虫编程实战(2):爬虫架构篇 轻松入门学网络爬虫编程实战(2):爬虫架构篇url_table.py
轻松入门学网络爬虫编程实战(2):爬虫架构篇3. 記錄哪些網頁已經下載過的小本本——URL表。
在互聯網上,一個網頁可能被多個網頁中的超鏈接所指向。這樣在遍歷互聯網這張圖的時候,這個網頁可能被多次訪問到。為了防止一個網頁被下載和解析多次,需要一個URL表記錄哪些網頁已經下載過。再遇到這個網頁的時候,我們就可以跳過它。
crawl_thread.py
轻松入门学网络爬虫编程实战(2):爬虫架构篇 轻松入门学网络爬虫编程实战(2):爬虫架构篇 轻松入门学网络爬虫编程实战(2):爬虫架构篇5. 頁面分析模塊
從網頁中解析出URLs或者其他有用的數據。這個是上期重點介紹的,可以參考之前的代碼。
6. 頁面存儲模塊
保存頁面的模塊,目前將文件保存為文件,以后可以擴展出多種存儲方式,如mysql,mongodb,hbase等等。
webpage_save.py
轻松入门学网络爬虫编程实战(2):爬虫架构篇整個框架已經清晰了奧,不要小看它呢,不管是多么復雜的框架都是在這些基本要素上擴展出來的。
、