Python爬虫作业

Python爬虫群作业-Week3-BeautifulSoup

2017-05-07  本文已影响0人  只是不在意

经过不太努力的尝试,今天把BeautifulSoup的爬虫也做出来了。
上面是向右老师的糗事百科示例:

import requests
from bs4 import BeautifulSoup

html = requests.get('http://www.qiushibaike.com/text/').content
soup = BeautifulSoup(html,'lxml')
links = soup.select('a.contentHerf > div > span')

for link in links:
    print link.get_text()

下面是我爬的煎蛋网的段子。

import requests
from bs4 import BeautifulSoup

html = requests.get('http://jandan.net/duan/').content

soup = BeautifulSoup(html,'lxml')
links = soup.find_all('div',class_="text")

for link in links:
    print link.p.get_text()

因为这儿的段子是用< p>分隔的,所以主要在最后一行打印的p.get_text()

图片.png

小结一:感觉BS的比XPath的好用一些;
小结二:还是要熟悉网页结构,避免徒劳的排列组合尝试。要好好的把html再学习一下。
<blockquote>下周计划:1. 学习html
2.继续看书和视频
3.把向右老师的三篇文章继续好好理解,争取独立自主的爬个网页
4.如果还有余力,争取学会把数据写入excel表。</blockquote>

然后就差不多大功告成了吧~

上一篇下一篇

猜你喜欢

热点阅读