手写笔记学习永远无止境

孤荷凌寒自学python第七十二天开始写Python的第一个爬虫

2019-01-18  本文已影响23人  f9e86c58f23c

孤荷凌寒自学python第七十二天开始写Python的第一个爬虫2

(完整学习过程屏幕记录视频地址在文末)

今天在上一天的基础上继续完成对我的第一个代码程序的书写。

直接上代码。详细过程见文末屏幕录像。


import requests

from bs4 import BeautifulSoup

import re

import _mty

import _mf

def  msgbox(info,titletext='孤荷凌寒的DB模块对话框QQ578652607',style=0,isShowErrMsg=False):

  return _mty.msgboxGhlh(info,titletext,style,isShowErrMsg)

def  myfirst(s,h):

 r=requests.get(s,headers=h)

  #print(r.text) #r.text得到的是页面源html代码

 _mf.writeAllTextToTxtFileGhlh('1.txt',r.text)

 bs=BeautifulSoup(r.text,features="lxml") #第二个参数指明了解析器,得到的是一个beautifulsoup对象

 s=bs.prettify()

 _mf.writeAllTextToTxtFileGhlh('2.txt',str(s))

 rs=bs.select('.bigsize') #选择指定style样式表的html标签元素

  for i in rs:

 ele=i.find_all('a') #每个h5标签下只有一个a标签

 strls=ele[0].get('href')

 msgbox(strls) #取出地址

 getcontentpage(strls,h)

  break

def  getcontentpage(strurl,h):

 r=requests.get(strurl,headers=h)

 _mf.writeAllTextToTxtFileGhlh('3.txt',r.text)

 bs=BeautifulSoup(r.text,features="lxml") #第二个参数指明了解析器,得到的是一个beautifulsoup对象

 s=bs.prettify()

 _mf.writeAllTextToTxtFileGhlh('4.txt',str(s))

  #---------------------------

  #eletemp=bs.find_all("#epContentLeft") #现在eletemp是一个rs集合对象

  #上一句是错误的,通过html标签对象的id值来查找应当使用的方法是:select方法

 eletemp=bs.select('#epContentLeft')

 msgbox(str(type(eletemp)))

 eletitleparent=eletemp[0]

 eletitle=eletitleparent.h1

 elesource=eletitleparent.div #elesource这种对象现在被称为:bs.element.Tag对象,可以被转换为列表,但不是列表

  #msgbox(str(elesource))

 msgbox(str(type(elesource)))

 strtitle=eletitle.string

 strsource=list(elesource)[0] + ' ' + elesource.find_all('a')[0].string

 msgbox(strtitle)

 msgbox(strsource)

  #取正文

 elecontent=bs.select('#endText') #所有的正文内容都这个div中

 msgbox(str(elecontent))

strurl='http://tech.163.com/special/techscience/'

header={

'Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8',

'Accept-Encoding':'gzip, deflate',

'Accept-Language':'zh-CN,zh;q=0.9',

'Cache-Control':'max-age=0',

'Connection':'keep-alive',

'Cookie':'_ntes_nuid=4c64ad6c80e3504f05302ac133efb277; _ntes_nnid=eb7c24e0daf48e922e31dc81e431fde2,1536978956105; Province=023; City=023; NNSSPID=acab5be191004a2b81a3a6ee60f516dc; NTES_hp_textlink1=old; UM_distinctid=1683adcaeaf2f8-0e31bcdad8532c-3c604504-144000-1683adcaeb094d; vjuids=-7a5afdb26.1683adccded.0.d9d34439a4e48; vjlast=1547175776.1547175776.30; ne_analysis_trace_id=1547175775731; s_n_f_l_n3=7476c45eb02177f91547175775852; vinfo_n_f_l_n3=7476c45eb02177f9.1.0.1547175775852.0.1547176062972',

'Host':'tech.163.com',

'If-Modified-Since':'Fri, 11 Jan 2019 03:01:05 GMT',

'Referer':'http://tech.163.com/',

'Upgrade-Insecure-Requests':'1',

'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36'

}

header2={

  'Host':'tech.163.com',

  'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36'

}

myfirst(strurl,header2)

一、今天发生的主要新手易错点如下:

beautifulsoup对象定位一个指定ID的html标签对象的方法是:

select

方法

而不是

find_all

方法。

二、其它收获

(一)今天了解了在bs中最终获取到的html标签对象真实对象类是:

bs.element.Tag

此类对象可以被转换为列表(list)

但用法上与列表不同。

此类对象不能使用[index]的方式来获取其内部对象,而转换成列表后就可以了。

(二)

在beautifulsoup模块中,html源代码组织的文档,任何一个部分都被看作是对象,被完全对象化了!

1.如下Html源代码片断:

<div class="post_time_source">

2019-01-11 11:44:49 来源:

<a href="#" id="ne_article_source" rel="nofollow" target="_blank">

知识分子

</a>

</div>

当我取得html标签对象div的时候(准确的说得到了一个指向div标签的bs.element.Tag对象。

这个时候,我尝试使用

html标签对象.string

属性取出这个div标签内含的文本内容(即【2019-01-11 11:44:49 来源:】)

时是取不出来的,因为这个时候:

2019-01-11 11:44:49 来源:

<a href="#" id="ne_article_source" rel="nofollow" target="_blank">知识分子</a>

这两个内容都被看作了这个div对象的两个子对象,在这个html标签对象中没有任何内含文本。

2.什么时候才算作一个标签的内含文本呢?

如下面的标签内容:

<a href="#" id="ne_article_source" rel="nofollow" target="_blank">

知识分子

</a>

这个a标签对象是有内含文本的,因为它的内含内容只有文本,没有其它任何别的对象,只有这种情况下,才算作html标签对象的内含文本。

这个方面理解起来显得有些凌乱,因此我准备后续自己封装一些简化的函数来进行便于理解的处理。

——————————

今天整理的学习笔记完成,最后例行说明下我的自学思路:

根据过去多年我自学各种编程语言的经历,认为只有真正体验式,解决实际问题式的学习才会有真正的效果,即让学习实际发生。在2004年的时候我开始在一个乡村小学自学电脑 并学习vb6编程语言,没有学习同伴,也没有高师在上,甚至电脑都是孤岛(乡村那时还没有网络),有的只是一本旧书,在痛苦的自学摸索中,我找到适应自己零基础的学习方法:首先是每读书的一小节就作相应的手写笔记,第二步就是上机测试每一个笔记内容是否实现,其中会发现书中讲的其实有出入或错误,第三步就是在上机测试之后,将笔记改为电子版,形成最终的修订好的正确无误的学习笔记 。

通过反复尝试错误,在那个没有分享与交流的黑暗时期我摸黑学会了VB6,尔后接触了其它语言,也曾听过付费视频课程,结果发现也许自己学历果然太低,就算是零基础的入门课程,其实也难以跟上进度,讲师的教学多数出现对初学者的实际情况并不了解的情况,况且学习者的个体也存在差异呢?当然更可怕的是收费课程的价格往往是自己难以承受的。

于是我的所有编程学习都改为了自学,继续自己的三步学习笔记法的学习之路。

当然自学的最大问题是会走那么多的弯路,没有导师直接输入式的教学来得直接,好在网络给我们带来无限搜索的机会,大家在网络上的学习日志带给我们共享交流的机会,而QQ群等交流平台、网络社区的成立,我们可以一起自学,互相批评交流,也可以获得更有效,更自主的自学成果。

于是我以人生已过半的年龄,决定继续我的编程自学之路,开始学习python,只希望与大家共同交流,一个人的独行是可怕的,只有一群人的共同前进才是有希望的。

诚挚期待您的交流分享批评指点!欢迎联系我加入从零开始的自学联盟。

这个时代互联网成为了一种基础设施的存在,于是本来在孤独学习之路上的我们变得不再孤独,因为网络就是一个新的客厅,我们时刻都可以进行沙龙活动。

非常乐意能与大家一起交流自己自学心得和发现,更希望大家能够对我学习过程中的错误给予指点——是的,这样我就能有许多免费的高师了——这也是分享时代,社区时代带来的好福利,我相信大家会的,是吧!

根据完全共享的精神,开源互助的理念,我的个人自学录制过程是全部按4K高清视频录制的,从手写笔记到验证手写笔记的上机操作过程全程录制,但因为4K高清文件太大均超过5G以上,所以无法上传至网络,如有需要可联系我QQ578652607对传,乐意分享。上传分享到百度网盘的只是压缩后的720P的视频。

我的学习过程录像百度盘地址分享如下:(清晰度:1280x720)

链接:https://pan.baidu.com/s/1YtLhe9lykfGTLucst2rjvQ

提取码:9gnw

Bilibili:

https://www.bilibili.com/video/av40497621/

喜马拉雅语音笔记:

https://www.ximalaya.com/keji/19103006/153543772

上一篇 下一篇

猜你喜欢

热点阅读