python小项目练习ScrapyPython3自学 爬虫实战

Scrapy豆瓣爬虫

2017-01-08  本文已影响233人  happyte

scrapy安装以及简单使用

明确在Item中需要爬取的数据

制作爬虫

   def start_requests(self):
          for url in self.start_urls:
                yield self.make_requests_from_url(url)  #可见是从start_urls中读取链接,使用make_requests_from_url生产Request
 可见`start_requests` 是系统默认调用的,我们可以重写这个函数,根据需求定制自己的start_urls。豆瓣电影的url是`http://movie.douban.com/subject_search?search_text=` +`电影名`。这里定制了请求头,不加请求头发现访问404错误
 ![](http:https://img.haomeiwen.com/i4300291/53a53b5cbd377c38?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)

存储内容

-o后面是导出文件名,-t后面是导出类型
- 2.当Item在Spider中被收集之后,将会被传递到Item Pipeline,一些组件会按照一定的顺序执行对Item处理。我们要编写自己的item pipeline,每个item pipeline都是个独立的python类,必须实现process_item(self, item, spider)方法。
* item(Item对象) - 被爬取的item
* spider(Spider对象) -爬取该item的spider
![](http:https://img.haomeiwen.com/i4300291/db26008b29c8f8af?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)

    将所有的item存储到items.json文件中,每行包含一个序列化为json格式的item,且参数ensure_ascii=False解决了json格式的中文编码问题。
- 3.启动一个Item Pipeline 组件,你必须将它的类添加到 ITEM_PIPELINES 配置,修改settings.py配置文件,加入如下,:
![](http:https://img.haomeiwen.com/i4300291/93b9d42ad74b9558?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)

 按照工程名.pipelines.自定义pipeline组建类名格式编写,后面的数字通常定义在0-1000之间。

- 4.至此整个豆瓣爬虫制作完成,在终端进入目录运行`scrapy crawl douban` ,items.json文件中就保持了我们抓取到的item。内容如下,想要多抓的话在电影文本里多加几个电影名:
![](http://upload-images.jianshu.io/upload_images/4300291-0caf851595f523b7?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)
上一篇下一篇

猜你喜欢

热点阅读