爬取煎蛋网妹子图 - 好玩的代码
之前一直以为爬虫是一种很牛逼的东西,甚至以为是一种黑客技术。在大三下学期一次机缘下(有一位同学的Android课的期末设计是在github上找了一个爬取校园官网新闻的app,给老师看的时候老师让改改,但是代码是找的,不知道怎么改,最后让我帮忙看看。我就给研究了下代码给解决了一下,顺便知道了怎么写爬虫)。在这个过程中,自己也算会了爬虫,就想写个爬虫试试,既然写的话,就写个有意思的喽。于是就有了这个妹子图爬虫。
前言
首先,煎蛋网妹子图的链接在这http://jandan.net/ooxx 可以先观摩一下~
其次,这次爬虫使用了java的爬虫库JSoup,爬虫的主要原理是能够根据网页的有规则节点来获取想要的内容,JSoup这个库能够比较简单获取节点相关内容等。
最后,不懂爬虫的可以先去百度一下,了解下原理什么的。这里用妹子图这个很浅显的解释一下:本来我们看这个网站就一张张的看,看完一页手动点下一页接着看,用代码写的话,也是一张图片一张图片的拿,拿完一页之后,找到下一页的链接,然后接着拿图片,找下一页链接,直到全部拿完。
目标
把妹子图里面的每张图片的链接拿到,顺便也把这张图片的点赞数(oo)和踩数(xx)给获取到,储存在文件里。以便爬取完之后简单的分析一下。
思路
其实写这个程序最开始的思路并不是很清晰,后面有一些问题,是一步步解决的。
- 人工分析妹子图图片链接,xx和oo数量在网页中的节点规律,并写出来。
- 后来发现爬着爬着就报错了,煎蛋网有防爬虫策略如果过快的爬取就会把你的ip封掉,就不能访问了。这里要找一些对策。
- 爬完了之后,就要尽情享用一下啦。把oo数量最多的100张图片根据链接下载下来,把oo数量最多的gif图拿出来。如果顺便把上传者也给获取了的话,还能看看谁发的最多,谁发的妹子图综合评价最高等等。这里懒得难受就不获取上传者了。
获取内容
这一步是基础,首先要能拿到页面文本内容才能爬取,能够自动去下一页才能翻页爬取。就是根据链接拿内容和根据下一页的节点位置获取下一页的链接。不多说,看代码看注释,这里顺便把一些基础的东西贴上。
mian函数主要是调用了Crawler的action函数,剩下的是算算时间。
public class JsoupTest {
public static void main(String[] args) {
SimpleDateFormat dfs = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss");
Date start = new Date();
//开始运行
Crawler crawler = new Crawler();
crawler.action();
Date end = new Date();
System.out.println("开始时间:" + dfs.format(start));
System.out.println("结束时间:" + dfs.format(end));
long msec = end.getTime() - start.getTime();
if ((msec / (1000 * 60)) > 60) {
long hour = msec / (1000 * 60 * 60);
long min = msec % (1000 * 60 * 60) / 1000 / 60;
System.out.println("单线程运行共花费时间:" + hour + "小时" + min + "分钟");
}
else {
long min = msec / (1000 * 60);
System.out.println("单线程运行共花费时间:" + min + "分钟");
}
}
}
Crawler的属性和构造函数
//可以多放几个链接,多线程爬取
private static String[] originUrlArr = {
"http://jandan.net/ooxx"
};
//结果列表
private List<XXOOEntity> xxooList;
//要爬取的链接
private List<String> urlList;
//爬过的链接
private List<String> oldUrlList;
//当前链接
private String indexUrl;
public Crawler() {
xxooList = new ArrayList<XXOOEntity>();
urlList = new ArrayList<String>();
oldUrlList = new ArrayList<String>();
urlList.addAll(Arrays.asList(originUrlArr));
}
然后把XXOOEntity贴一下。
public class XXOOEntity {
private String imageUrl;
private int xx;
private int oo;
public XXOOEntity() {
}
public XXOOEntity(String imageUrl, int xx, int oo) {
this.imageUrl = imageUrl;
this.xx = xx;
this.oo = oo;
}
public String getImageUrl() {
return imageUrl;
}
public void setImageUrl(String imageUrl) {
this.imageUrl = imageUrl;
}
public int getXx() {
return xx;
}
public void setXx(int xx) {
this.xx = xx;
}
public int getOo() {
return oo;
}
public void setOo(int oo) {
this.oo = oo;
}
}
然后就是爬取入口action函数了。
public void action() {
if (urlList.size() > 0) {
indexUrl = urlList.get(urlList.size()-1);
urlList.remove(urlList.size()-1);
oldUrlList.add(indexUrl);
System.out.println("index!!!!" + indexUrl);
try {
Thread.sleep(1000 * 10);
} catch (InterruptedException e) {
e.printStackTrace();
}
crawl(indexUrl);
}
else {
System.out.println("结束");
System.out.println("数据:" + xxooList.size());
System.out.println("页面:" + oldUrlList.size());
save();
}
}
然后是爬取函数,这里注意一下,HtmlInputStream这个类和http://www.jianshu.com/p/5962728dd5b6 这篇文章最后的类是同一个,不过加了一些抵御反爬虫的代码。下面再细说。
private void crawl(String indexUrl) {
Document doc = null;
//这个地方用了自己写的根据链接获取本文内容的类
String contentStr = HtmlInputStream.getContent(indexUrl, "utf-8");
Document content = Jsoup.parse(contentStr);
//这里是类容爬取
contentCrawl(content);
//这里是获取下一个连接的函数
urlCrawl(content);
System.out.println("\n\n");
//这里接着爬取
action();
}
完成的时候别忘了保存一下
private void save() {
Gson gson = new Gson();
String aviString = gson.toJson(xxooList);
FileOutputStream fis;
try {
fis = new FileOutputStream("jiandanxxoo.txt");
fis.write(aviString.getBytes());
fis.close();
} catch (FileNotFoundException e) {
e.printStackTrace();
} catch (IOException e) {
// TODO Auto-generated catch block
e.printStackTrace();
}
System.out.println("保存成功");
}
分析规律
首先看一下一张妹子图条目的样式,左边有上传者、时间。主体部分有一个查看原文的链接,有一张图片,右上角还有一个id,右下角是xx和oo的数量,还有一个吐槽的按钮。我们需要的只有图片,xx数量和oo数量。
妹子图条目样式
在图片处或者[查看原图]处,右键审查元素,我用的是chrome,点击最先面的检查。就会出现html对应的代码。比如我在图片那里检查一下,就会出现下面的代码。
审查元素结果看呐,图片链接有了,再在xxoo那里一审查,xxoo的数量也都有了。剩下的就是根据这些节点的关系找规律写代码了。
经过我的分析,图片的获取可以使用[查看原图]那里的链接,直接获取class名为view_img_link节点的src属性即可。而xx和oo的数量可以用class名为vote的第二个和第四个孩子节点来获取。
ok啦,剩下就是写代码了,下面我就直接把代码贴出来了,
private void contentCrawl(Document content) {
Elements elements = content.getElementsByClass("text");
XXOOEntity xxooEntity;
for (Element element : elements) {
xxooEntity = new XXOOEntity();
//xx
String xx = element.getElementsByClass("vote").first().children().get(2).text();
//oo
String oo = element.getElementsByClass("vote").first().children().get(4).text();
//图片链接
Elements imageUrls = element.getElementsByClass("view_img_link");
for (Element imageUrlElement : imageUrls) {
String imageUrl = imageUrlElement.attr("href");
xxooEntity.setImageUrl(imageUrl);
System.out.println(imageUrl);
xxooEntity.setXx(Integer.parseInt(xx));
System.out.println(xx);
xxooEntity.setOo(Integer.parseInt(oo));
System.out.println(oo);
xxooList.add(xxooEntity);
}
}
}
下一页的链接获取,原理同上。
private void urlCrawl(Document content) {
Element element = content.getElementsByClass("cp-pagenavi").first();
if (element != null) {
List<Node> lists = element.childNodes();
System.out.println("num:::" + lists.size());
for (Node node : lists) {
String url = node.attr("href");
if (url != null && url != "") {
if (!oldUrlList.contains(url) && !urlList.contains(url)) {
urlList.add(url);
System.out.println(url);
}
}
}
}
else {
urlList.add(indexUrl);
}
}
反爬虫应对策略
反爬虫的做法就是检测一个ip是不是过于频繁的访问自己的网站,对应的我们要做的就是不让他们认为我们频繁的访问他们的网站。
这里的办法是爬的慢一点,然后多弄一些ip地址,然后设置代理,让这些代理ip循环的访问网站。还有就是访问失败的时候的报错都给捕获到,别让程序崩了。至于代理ip,百度上一搜一大堆,但是基本上都要付费,还是挺烦的。
这个的设置位置在获取网页内容的地方设置,我就写在了HtmlInputStream.getContent里面,这里不再写出来一遍了。和之前的那个唯一的区别在于找了一大堆代理ip,轮换着设置代理,这里就写一下怎么设置代理。
Proxy proxy = new Proxy(Type.HTTP, new InetSocketAddress(ipStr, port));
URLConnection conn = url.openConnection(proxy);
顺便说一下,之前我也没花钱买代理ip,只是顺便用爬虫抓取了一大堆免费的代理ip,循环着使用,遇到报错的ip就扔掉,扔到还剩1/3就不扔了,最后剩下的说明可用性还比较高。谁想写可以自己试一下。
分析
哇咔咔,享受成果的时候来了。
最后的分析没啥技术含量,就把抓取的所有妹子图图片下载了一堆oo数量比较高的来欣赏啦~
欣赏一下最后
有点虎头蛇尾的感觉,打完收工。
就写到这程度吧,有点懒得慌。如果有超过五个人要代码的话,我再把代码传上来。
欢迎关注【Funny新青年】微信公众号~