软件测试软件测试脚本细说测试

网络爬虫|接口测试|另一种技术:使用 shell 命令获取资源

2018-07-13  本文已影响28人  西边人

概述

之前接口测试的时候,经常遇到从response中截取数据的情况,处理起来可能也相对简单一点。今天换个玩法,用shell命令获取头条个人主页文章。

命令如下:

$ curl https://www.toutiao.com/u/840c2172e2e3 |grep 'title' | awk -F '>' '{print $2}' | grep -v -e '</div' -e '</title' |awk -F '<' '{print $1}' 接口测试框架优化(三)---支持简单串接口使用charles筛选、修改请求与响应linux下MySQL常用操作(学习笔记)随便写写最近的面试一些linux命令学习(二)--grep命令一些linux命令学习(一)windows下appium1.6排坑及安装基于python+appium+yaml安卓UI自动化测试分享接口测试框架优化(二)---主要代码

详述

实现这个目标,需要懂一些基础的命令

  • curl

  • grep

  • awk

  • curl命令学习

    curl命令是一个利用URL规则在命令行下工作的文件传输工具。它支持文件的上传和下载,所以是综合传输工具,但按传统,习惯称curl为下载工具。

    目前我只get到了使用curl命令发送请求,暂时没有用来上传下载文件,所以不多做介绍。

    输入 curl -h,可以看到使用帮助

    $ curl -hUsage: curl [options...] <url> --abstract-unix-socket <path> Connect via abstract Unix domain socket --anyauth Pick any authentication method-a, --append Append to target file when uploading --basic Use HTTP Basic Authentication --cacert <file> CA certificate to verify peer against --capath <dir> CA directory to verify peer against-E, --cert <certificate[:password]> Client certificate file and password --cert-status Verify the status of the server certificate --cert-type <type> Certificate file type (DER/PEM/ENG) --ciphers <list of ciphers> SSL ciphers to use --compressed Request compressed response --compressed-ssh Enable SSH compression...

    就我自己实际操作的几个介绍一下:

    1.获取页面内容

    curl https://www.toutiao.com/

    不加任何选项使用 curl 时,默认会发送 GET 请求来获取链接内容

    2.发送POST请求

    curl -H "Content-Type: application/json" -X POST-d '{"uid": "10588666", "device_code": "", "count": 8, "op": 1, "page": 1, "content_type": [1,2,3,4], "skip_freq": 0, "exclude_docs": [], "is_wifi": 0, "is_videopage": 0, "region": 111, "register_timestamp":1519642955, "tk": "ACAWILmsfP5FV7JqM6knRK66w8j9Rqr0Aqk0NzUxNDk1MDg5NTIyNQ", "client_version":20826, "group":"exp_test_member00"}' http://localhost:2051/recommend

    这边用到了3个参数

  • H 定义请求头 header

  • X 指定请求方式

  • d 指定发送的数据

  • 3.显示响应头

    curl -I https://www.toutiao.com/u/840c2172e2e3

    加了-I 参数,仅显示response header,结果如下

    $ curl -I https://www.toutiao.com/u/840c2172e2e3 % Total % Received % Xferd Average Speed Time Time Time Current Dload Upload Total Spent Left Speed 0 0 0 0 0 0 0 0 --:--:-- --:--:-- --:--:-- 0HTTP/1.1 200 OKDate: Mon, 14 May 2018 13:05:15 GMTServer: TengineContent-Type: text/html; charset=utf-8X-Frame-Options: DENYX-XSS-Protection: 1; mode=blockX-Content-Type-Options: nosniffETag: W/"600753ffd703a50bfb60aca2580cddb0"Cache-Control: max-age=0, private, must-revalidateSet-Cookie: locale=zh-CN; path=/Set-Cookie: _m7e_session=406d79c64df9441d376f82b2; path=/; expires=Mon, 14 May 2018 19:05:15 -0000; secure; HttpOnlyX-Request-Id: 9813d0cf-a68e-492f-8d04-580b8e149af6X-Runtime: 0.129613Strict-Transport-Security: max-age=31536000; includeSubDomains; preloadX-Via: 1.1 PSfjqzdx7yx12:4 (Cdn Cache Server V2.0), 1.1 xinxiazai13:1 (Cdn Cache Server V2.0)Connection: keep-aliveX-Dscp-Value: 0

    4.保存响应的内容

    curl -o D:jianshu.html https://www.toutiao.com/u/840c2172e2e3

    执行此命令,会在D盘根目录生成一个toutiao.html文件,如图:

    curl命令还有其他用法,我这边由于暂时没有用到,所以没有进一步操作,感兴趣可以参考这篇文章学习一下

    grep命令学习

    关于grep命令,我上次学习了一次,这边就不多说了,可以参照我之前的学习笔记。

    shell命令获取文章标题中用到grep的可能就是 -v -e 两个命令,相对还是比较简单的。

    awk命令学习

    awk我也是get到一点皮毛,没有很深入研究。大致工作流如下:

    -F 分隔符划分域,,$0则表示所有域,$1表示第一个域,$n表示第n个域。默认域分隔符是"空白键" 或 "[tab]键".

    举个例子:

    D盘下新建一个文件,awk.txt。

    执行命令:

    $ nl awk.txt 1 root 1 name:001 2 cha 2 naaa:002 3 dong 3 nacc:003 4 fead 4 naic:004

    如果只要显示行号

    $ nl awk.txt |awk '{print $1}'1234

    如果要显示:后面的内容

    $ nl awk.txt |awk -F':' '{print $2}'001002003004

    结束

    使用shell获取头条主页文章,写法肯定不止这一种方法

    $ curl https://www.toutiao.com/u/840c2172e2e3 |grep 'title' | awk -F '>' '{print $2}' | grep -v -e '</div' -e '</title' |awk -F '<' '{print $1}'

    但是大致上思路是固定的:

  • 将结果用grep 筛选出需要的,排除不需要的

  • 再用awk分割选择自己需要的域即可。

  • 期待后面,开发出更多关于shell的玩法。。。


    作者:西边人,西说测试

    程序爬虫抓取有用资源共享给大家

    公众号请搜索(软件测试资源站)。

    关注后,私信回复【资料包】获取如下内容,

    测试资料、工具安装、Python、效率软件、自动化测试报告、梯子、微信群、测试框架 等

    另外

    公众号在原有算法模型上接入了

    「微软小冰」机器人,欢迎调戏。

    回复「小冰」

    或其它任意关键词即可

    同时你们获取资料的方式更加智能,

    回复你想要的任意资料名称

    小冰都会给你找出来。

          另外再       

    通知一件事

    为了便于与公众号内容分开提供资源,
    我的头条号「软件测试资源站」更名为「马蚁蛋」,

    还是以之前的内容逻辑继续给大家免费分享爬虫资源,

    公众号内容注重分享软件测试及程序编程相关的技术干活

    头条号内容注重分享互联网爬虫获取的各种资源。

    END

    上一篇下一篇

    猜你喜欢

    热点阅读