大数据 爬虫Python AI Sql

扣丁学堂Python3开发之实现爬取淘宝美食代码分享

2018-09-26  本文已影响4人  994d14631d16

今天扣丁学堂Python培训老师给大家介绍一下关于如何使用python3来爬取淘宝美食图片标题等信息的方法和代码详解,希望对同学们学习Python开发有所帮助,下面我们一起来看一下吧。

​环境:

ubuntu16.04python3.5python库: selenium, pyquery,pymongo, re

要求:

设置×××面浏览器访问,并将商品列表存入mongoDB数据库.

分析过程暂时略过

代码:

#!/usr/bin/env python

# -*- coding:utf-8 -*-

"""

1.爬取淘宝美食的流程

- 搜索关键字: 用selenium打开浏览器,模拟输入关键字,并搜索对应的商品列表.

- 分析页码并翻页,模拟翻页,查看到所有页面的商品列表.

- 分析并提取商品,利用Pyquery分析源码,解析得到商品列表.

- 存储到MONGODB数据库,将商品列表信息存储到mongoDB数据库.

"""

fromselenium importwebdriver

fromselenium.webdriver.common.by importBy

fromselenium.webdriver.support.ui importWebDriverWait

fromselenium.webdriver.support importexpected_conditions as EC

fromselenium.common.exceptions importTimeoutException

frompyquery importPyQuery as pq

importre

fromanli.mongoconfig import*

importpymongo

client =pymongo.MongoClient(MONGO_URL)

db =client[MONGO_DB]

#设置×××面访问

opt =webdriver.FirefoxOptions()

opt.set_headless()

browser =webdriver.Firefox(options=opt)

#等待浏览器加载页面成功.

wait =WebDriverWait(browser,10)

defsearch():

try:

# 后台打开浏览器

browser.get('https://www.taobao.com')

# 用CSS选择器复制搜索框

input=wait.until(

EC.presence_of_element_located((By.CSS_SELECTOR, '#q'))

)

# 找到搜索按钮.

submit =wait.until(

# EC.element_to_be_clickable((By.CSS_SELECTOR,'#J_TSearchForm .search-button')))

EC.element_to_be_clickable((By.CSS_SELECTOR,'#J_TSearchForm > div.search-button > button')))

# 输入关键字

input.send_keys('美食')

# 点击搜索按钮.

submit.click()

# 输出总共的页数.

total=wait.until(EC.presence_of_element_located((By.CSS_SELECTOR,'.total')))

# 调取商品列表的函数.

get_products()

returntotal.text

exceptTimeoutException: #超时错误.

returnsearch()

# 翻页

defnext_page(page_number):

try:

#注意在firefox和chrome浏览器复制出来的元素不太一样.

#要传入的页码: 到第几页

input=wait.until(

EC.presence_of_element_located((By.CSS_SELECTOR,'input.input:nth-child(2)'))

)

#复制确定按钮的元素:

submit =wait.until(EC.element_to_be_clickable((By.CSS_SELECTOR,'span.btn:nth-child(4)')))

#清除页码

input.clear()

#输入当前页码

input.send_keys(page_number)

#点击确定按钮.

submit.click()

#判断当前页码是否是当前数字: 复制高亮页码数.

wait.until(EC.text_to_be_present_in_element((By.CSS_SELECTOR,'span.num'),str(page_number)))

get_products()

exceptTimeoutException:

next_page(page_number)

#解析jquery源码

defget_products():

#商品列表:

wait.until(EC.presence_of_element_located((By.CSS_SELECTOR,'#mainsrp-itemlist .items .item')))

# 获取网页源码

html =browser.page_source

doc =pq(html)

items =doc('#mainsrp-itemlist .items .item').items()

foritem initems:

#定义商品列表详细信息的字典

product ={

'title': item.find('.title').text(),

'price': item.find('.price').text(),

'image': item.find('.pic .img').attr('src'),

'shop': item.find('.shop').text(),

'deal': item.find('.deal-cnt').text()[:-3],

'location': item.find('.location').text()

}

print(product)

#将商品列表信息保存到mongoDB数据库.

save_to_mongo(product)

defsave_to_mongo(result):

try:

ifdb[MONGO_TABLE].insert(result):

print('存储到mongodb成功',result)

exceptException:

print('存储到mongodb失败',result)

defmain():

total =search()

# 用正则表达式只匹配出数字,并打印数字.

total =int(re.compile('(\d+)').search(total).group(1))

print(total)

fori inrange(2,total +1):

next_page(i)

if__name__=='__main__':

main()

#关闭×××面浏览器.

browser.quit()

#mongoconfig.py

#!/usr/bin/env python

# -*- coding:utf-8 -*-

MONGO_URL ='localhost'

MONGO_DB ='taobao'

MONGO_TABLE ='meishi'

安装和使用mongodb参考:

//www.jb51.net/article/54758.htm

实现效果:

注意:

chrome浏览器和firefox浏览器的网页元素不太一样.

上一篇下一篇

猜你喜欢

热点阅读