python_爬虫

python中requests使用中中文乱码的解决方案

2021-10-14  本文已影响0人  弦好想断
import requests

url = "http://www.baidu.com"
r = requests.get(url)
# 自动选择合适的编码方式
r.encoding = r.apparent_encoding
print(r.text)

中文乱码显示正常了!!

有时候,我们还会遇到通过这个操作后无法解决的情况,比如新浪首页的表现:
出现这种情况,据说是使用gzip将网页压缩了,必须先对其解码,使用r.content会自动解码:

import requests

url = "http://www.sina.com.cn/"
r = requests.get(url)
# 指定编码解码方式
html = r.content.decode('UTF-8')
# r.encoding = 'utf-8'

其实吧,处理的方式有很多,大家注意一点,那就是看请求的html数据中最前面对的charset设置的是啥!!

In [1]: s = '目前玩的挺好的,就&hellip;&hellip;<br>给四星是因为为什么不是同一个服的就不能进社团😬😬😬😬😬😬😬😬😬😬😬😬😬😬😬😬😬😬😬'
#可以看到,有个'&hellip;',这玩意是html实体表示省略号'...',因此需要进行处理!
In [2]: import html

In [3]: html.unescape(s)
Out[3]: '目前玩的挺好的,就……<br>给四星是因为为什么不是同一个服的就不能进社团😬😬😬😬😬😬😬😬😬😬😬😬😬😬😬😬😬😬😬'

https://mp.weixin.qq.com/s/Tf0SHmNMBLZGZMsrZ1XZdQ

上一篇 下一篇

猜你喜欢

热点阅读