BeautifulSoup简介与安装

2014-07-27  本文已影响822人  许安念安

Beautiful Soup简介

BeautifulSoup是python的一个库,最主要的功能是从网页抓取数据(on quick-turnaround screen scraping projects)。

官方描述的3个主要特征为:

翻译过来就是:


Beautifulsoup安装(windows)

新版本的beautifulsoup官方已经将beautifulsoup改名为bs4了。所以不能再使用这样的语句:

from beautifulsoup import beautifulsoup

而应该是:

from bs4 import beautifulsoup

【坑爹啊!】,因为这个折腾了一个多小时。


一个查询某一个 NS 服务器的所有域名的爬虫

原文

通过搜索可找到 sitedossier.com 这个网站可以提供域名服务器的信息。那么就要写个爬虫来抓查询结果了

import urllib2
import re
import argparse
from bs4 import BeautifulSoup 

class Crawler(object):

    def __init__(self, args):
        self.ns = args.ns

    def _getSoup(self, url):
        req = urllib2.Request(
            url = url,
            headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.4 (KHTML, like Gecko) Chrome/22.0.1229.94 Safari/537.4'}
        )
        content = urllib2.urlopen(req).read()
        return BeautifulSoup(content)

    def _isLastPage(self, soup):
        if not soup.find(text=re.compile("End of list.")):
            return False
        else:
            return True

    def _getItem(self, soup):
        itemList = soup.findAll('li')
        for item in itemList:
            print item.find('a').string

    def _getNextPage(self, soup):
        nextUrl = 'http://www.sitedossier.com' + soup.ol.nextSibling.nextSibling.get('href')
        self.soup = self._getSoup(nextUrl)

    def start(self):
        url = 'http://www.sitedossier.com/nameserver/' + self.ns
        self.soup = self._getSoup(url)
        self._getItem(self.soup)
        while not self._isLastPage(self.soup):
            self._getNextPage(self.soup)
            self._getItem(self.soup)

def main():
    parser = argparse.ArgumentParser(description='A crawler for sitedossier.com') 
    parser.add_argument('-ns', type=str, required=True, metavar='NAMESERVER', dest='ns', help='Specify the nameserver')
    args = parser.parse_args()

    crawler = Crawler(args)
    crawler.start()

if __name__ == '__main__':
    main()

用法:

$ python crawler_ns.py -ns dns.baidu.com

保存结果到文件:

$ python crawler_ns.py -ns dns.baidu.com >> result.txt
上一篇 下一篇

猜你喜欢

热点阅读