python

【小白教程】Python3监控网页

2020-02-29  本文已影响0人  雨田君c

之前用RSS来监控网页更新内容,可惜刷新时间太长了,三个小时。。只能看看新闻啥的,又没有小钱钱充会员(摊手

听说Python可以做这个功能,抱着试试看的态度,本以为会很麻烦,没想到这么简单哈哈~我从来没有用过Python都做出来了,相信你也没问题!

(我真是纯小白,路过的大佬请指教(⊙o⊙)ノ)

所用模块

#监控模块
from urllib import request
from bs4 import BeautifulSoup
#正则表达
import re
import time

#发送邮件模块

#邮箱服务器
import smtplib
#构建邮件正文内容
from email.mime.text import MIMEText
# email 用于构建邮件内容
from email.header import Header

1.原理

把网页获取到本地转码,然后筛选你需要的信息,重复这一过程。(看!是不是很简单呐

2.获取网页信息

用到了python的urllib模块,先上代码

#解析url地址 返回utf-8解码信息
def analyUrl(url):
    header={'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:23.0) Gecko/20100101 Firefox/23.0'}
    #发送访问请求  此处header作用为模拟浏览器访问  部分网页反爬虫会检测访问源信息
    _tmpRes=request.Request(url=url,headers=header)
    _req=request.urlopen(_tmpRes)
    #网页utf-8解码
    html=_req.read().decode('utf-8')
    return html

这里走了不少弯路,首先是一开始我是这么填的

request.Request(url)

也就是没加headers,导致总会报错,不过我用百度试了一下却没问题。。。找了半天也不知道问题出在哪,后来才知道有的网页会检测你的访问源信息,只有访问请求没有设备信息有可能被拒绝...加上headers信息伪装成浏览器访问就好了。

害,我不会告诉你我最初Request就找了半天。。。Python是严格区分大小写的!!

3.分析网页信息 开始匹配

这部分功能用到BeautifulSoup

#分析网页信息并匹配关键字
def analyAndCompile(html,firstKey,secondKey):
    #提取Html数据
    html=BeautifulSoup(html,'html.parser')
    #二级匹配关键字
    pattern=re.compile(secondKey)
    #循环次数
    flag=0
    #当前已匹配的信息   使其不必重复提醒
    currCom = ''
    #while 循环  10s一次  重复匹配信息
    while (1):
        flag += 1
        try:
         print('第' + str(flag) + '次 ' + time.strftime("%Y-%m-%d %H:%M:%S", time.localtime()))
         #信息中包含'a'Tag和title内容与一级匹配关键字相同的提取
         for link in html.find_all('a',title=re.compile(firstKey)):
            #获取title内容  
           link_title=link.get('title')
            #获取网址
           info_link = link.get('href')
            #compilText判断是否与二级关键字匹配    关键字匹配且之前没出现过即为所需信息
           if compilText(pattern,link_title) and currCom is not link_title:
              currCom=link_title
              print('      ·出现新数据:'+link_title+'\n      地址:'+info_link)
              #发送邮件
              SendMail.sendMail('出现新数据:'+link_title+'\n地址:'+info_link)
           else:
               print('      ·无新数据'+link_title)
         time.sleep(10)
         #异常获取
        except Exception as e:
            import traceback
            print(traceback.format_exc())
            print('异常')
            time.sleep(10)

这部分需要细心,先在网页上找好所需信息的Tag,再用find_all方法筛选出来find_all方法可填多种参数,具体参考这里:http://www.jsphp.net/python/show-24-214-1.html
需要花时间慢慢找,这部分没什么好方法,耐心找吧~

4其他模块代码

上文中的匹配方法

#匹配关键字 若匹配到返回True 否则返回False
def compilText(pattern,compilStr):
    return pattern.search(compilStr) is not None

发送邮件模块,这部分网上有很多,我的仅供参考吧

# 发信方的信息:发信邮箱,QQ 邮箱授权码
from_addr = 'xx@qq.com'
password = '此处填入邮箱授权码'

# 收信方邮箱
to_addr = 'xx@163.com'

# 发信服务器
smtp_server = 'smtp.qq.com'



def sendMail(sendMsg):
    # 邮箱正文内容,第一个参数为内容,第二个参数为格式(plain 为纯文本),第三个参数为编码
    msg = MIMEText(sendMsg, 'plain', 'utf-8')
    # 邮件头信息
    msg['From'] = Header(from_addr)
    msg['To'] = Header(to_addr)
    msg['Subject'] = Header('邮件标题')
    # 开启发信服务,这里使用的是加密传输
    #server = smtplib.SMTP_SSL()
    server=smtplib.SMTP_SSL(smtp_server)
    server.connect(smtp_server, 465)
    # 登录发信邮箱
    server.login(from_addr, password)
    # 发送邮件
    server.sendmail(from_addr, to_addr, msg.as_string())
    # 关闭服务器
    server.quit()

大功告成

自己调用填上网址和筛选关键字就行啦
(同样的功能别的语言能这么几行就实现的吗~ 哼哼~Python真香555

参考:
https://www.xiaoweigod.com/code/1609.html
https://blog.csdn.net/DahlinSky/article/details/104454971
https://www.cnblogs.com/hixiaowei/p/9721513.html
http://www.jsphp.net/python/show-24-214-1.html

上一篇下一篇

猜你喜欢

热点阅读