移动测试基础 JB 的测试之旅-记一次百度爬虫耗时问题经历

jb · 2018年11月24日 · 最后由 haionever 回复于 2018年12月03日 · 3440 次阅读
本帖已被设为精华帖!

前言

在开始之前,想说下抱歉,如果是抱着解决问题的想法进来的话,对不起,让您失望了,本文不会讲解怎么解决这问题,因为研发说不处理了,但本文会介绍是怎么一路过来的,如果还感兴趣,请继续看~

上几篇文章有介绍到,jb在负责一个seo的项目,关于seo是什么,请点击这里查看;

自从项目上线后,一波三折,遇到不少坑,其中在上面那篇文章里提及到,这里就不说明了;

某一天,运营老大贴了这么一张图:
image_1cnbbsetq16sg19ul11iikb813t49.png-165.7kB

(把日期打码了,问题不大)

这个图是百度那边的一个爬虫耗时数据,从这个截图数据上看,爬取耗时平均值932ms,最小值106ms,怎么看都觉得合理,只是那个最大值300s的,看上去好别扭。。

心里想:虽然最大值看着别扭,但看平均值,正常范围,没啥问题啊,要不先观察?

接着,就用上面的内容回复说,平均值看上去很正常,应该没啥问题吧?

运营老大说,但是我们更加关心最大值,以前的产品都没有这种情况的,最大值都不超过1000的,基本都是500-1000ms;

所以我们的产品肯定有问题啦;
16538fe54feba194-141.5kB

因为之前的产品也没有具体量化数据,jb之前也没弄过seo,没啥概念,既然老板请的顾问也这样说,那就先断定有问题,试试跟进下;

网站介绍

在开始之前,先介绍下问题网站,http://www.51hjgt.com/, 图片就不贴了,免得有人说是广告,这个网站的是采用node+nginx+php,其他就没特别的;

百度数据

因为这个爬虫是百度的,而这个爬取耗时的数据,也是百度提供的,理所当然要看看,这个值是怎么算出来的,遗憾的是,百度的平台没有任何与爬取耗时有关的信息;

既然如此,那就Google,内容为:百度爬虫耗时很长,在搜索的结果里面有很多百度爬虫的介绍,但是并没有任何一条有直接讲解到这个百度爬虫耗时是怎么算的~

问了很多朋友,甚至是百度内容同学,都不清楚,所以,这块数据对于开发者来说,是一个全黑盒的玩意;

既然如此,我们就先假设,这个时间是指发起请求后,到获取响应且前端渲染完内容的时间
165392376ed83c8a-2.5kB

后端日志

拿到问题,第一反应就是让后端的同学去查下服务器日志,看是不是真的出现300+s的情况,
但实际查询后发现,并没有出现这种情况,后端的日志显示接口返回都很快,基本是ms级别,秒都谈不上,更何况300s?

既然后端没有问题,那就肯定是前端了;
16539227fab0b5e6-8.3kB

前端

既然怀疑是前端问题,那我们就尝试重现下吧,直接用Chrome按F12进入开发者模式,
直接刷新试试,手动重复几十次,基本都是2这个区间内,而且首页资源特别多,如果首页都没问题,其他页面就更不会有问题了;
165390ec6069fb49-54.9kB

(手动重试中) 突然会发现一次耗时比较久的,长达10s,看了下时间的占比,如下:
1653912a8e090669-13.9kB

咦,一个图片用了3s?什么鬼?
而且会发现,有些图片size会高达4M?

瞬间把苗头之前了资源这块,为了验证我们的想法,使用了webpagetest工具来验证下网页的耗时,这个工具是个网页,直接打开输入需要测试的网址即可;

先来一次结果
image_1cnbc4q7c1d9p1r3n17ba9o785v57.png-198.3kB

直接看顶部的截图,嘤嘤嘤,fully loaded time居然去到16S了,这肯定有问题,接着继续看:
image_1cnbc552v18n3cl81o7v1evfm4o5k.png-169.8kB

啧啧啧,一个图片的下载用了8S,这性能不太行啊,而且有些图片的size的确很大,所以第一反应是,图片压缩,减少size,另外,网站本身会偶尔出现404,这块本身就会影响到seo的收录已经爬取,在这种情况,不得不怀疑任何一切相关的,因此就撸起袖子开始干了:

这里补充下,除了用webpagetest,还用一些站长工具,当时怀疑可能是CDN的问题(当时网站没弄)、用了LightHouse,也是给了一些建议,但是没有明确支持问题,因此就先把直觉上觉得需要优化的地方先优化,于是乎就有了下下面的改进;

1)资源压缩,部分业务逻辑合并,减少请求数量,缓存机制
2)出现404的原因是,当初设计时,如果众多接口里某一接口异常,前端直接判定伟404,因此把这块逻辑修改下,接口异常不会导致前端跳404,最多是数据不展示;

开发、测试、上线、绝望,一泼冷水浇下来,大家都痿了;

几个臭皮匠一起讨论了半天,也没个结论,此时,部分同学觉得这是个吃力不讨好的工作,慢慢的开始淡出这个工作了,有点所谓的选择性失盲了;
image_1cnbc5qovhv3uke146b1mnh8b361.png-57kB

再次分析

即使运营老大、老板天天问,但是依然没有任何进展,这问题,就这么坑爹?

此时,某拍黄片(php)同学主动(被迫)出来跟进这个问题;

啪啪啪好几天过去了,突然某一天,钉钉群闪了,该拍黄片同学给出一个方向,这个问题有初步怀疑点了,那就是服务器带宽问题导致的,解决方案就是临时扩展带宽;
165392c4d5ee3dda-7.1kB

怎么分析的?

既然能给出这样的结论,肯定是有数据支撑他的,那我们就来看看,是什么支撑他这个结论;

依旧是先分析后台日志,过滤百度过来的请求,某一条有40几个,然后再根据接口响应超过10S的方式进行过来,发现剩下2条日志:
image_1cnbc78kv37e57bgk94kv135073.png-219.6kB

从日志上看,基本耗时都在18S,也读是百度爬虫那过来的;

既然都有日志了,那就模拟下看看是不是真要那么久,这里的模拟爬虫用的是百度熊掌号自带的工具:
image_1cnbc7iv5l50j7n1uenvvsao37g.png-202.9kB

输入出现问题的地址,结果如下:
165393d8377bc47c-6.1kB

只需要关注最下面的下载时长:0.166s,重复多几次,依然如此;

这个后台的日志不一样,那就说明,这个问题不是必现的,而且有特定场景导致的;

从后台的日志上看,刚爬了几次的日志,也的确跟百度上显示的类似,那说明百度上的时长是可信的:
image_1cnbc8msfniv2uj1o5113jd118f8i.png-130.9kB

从上图可看出,最大一次也不超过3S,与一开始反馈的300S相差甚远;

此时再去看下服务器的情况:
image_1cnbc976u17t598gu6b1eep16778v.png-136.3kB

服务器是5M的带宽,从日志上看,的确有部分时间段是超过了5M,而且出现爬取比较慢的时间刚好对的上服务器超过5M的时间;

因此该同学才敢说,怀疑是因为带宽,虽然听上去有点巧合,但是在百般无奈的情况下,只能相信是这种巧合了;

然后就调整带宽,观察几天,毕竟爬虫这种东西是靠别人的,心急不来,在等待的期间,做了3件事:

1)资料查询导致抓取时间达到几十万的情况

  • 抓取该页面的时候部分图片无法抓取到;
  • 链接超时;
  • 百度内部调整导致;

从结果看,个人倾向1、2可能性大;

2)跟前端同学沟通下,后端返回的18S,是怎样的标准?
回到文章顶部,有提及到这个网站架构是node+nginx+php,那这18S,
按照理解,应该就是Php返回到nginx的时间,那nginx到node中间传输会不会也有损耗,比如跟网速有关系、服务器性能等,都有可能有折损,然后node接收后,再渲染显示,等渲染完成,爬虫才认为整个过程完毕?(前面提及到,这里默认爬虫规则是开始请求到渲染完毕,但实际未知)

当时提到一个疑问,假如说,node或者nginx有问题了,那是不是就会出现耗时很长的情况?

但当时因为没数据支撑,大家都觉得,嗯,有这种可能,这种想法一闪而过,但是有什么原因导致node或者nginx有问题,真没想到;

事实回头看,猜对了,的确是node出问题导致

当也因为当时没想到,后面才更好的梳理了;

3)影响网络传输的原因有哪些?
找到一个答案,不知道对不对,仅参考:

线上响应速度取决于当前被访问的目的地带宽、并发数,还有,服务器机器当前使用时间,是否存在物理
存储器和各运算器控制器老化情况,以及发起爬取的机器信号发送和接收情况;

最重要的两点就是带宽,并发数,带宽验证是没影响,那这个会跟并发数有关吗?

再次梳理

回到正文,上线几天后发现,还是不行,依然有问题,说明带宽不是问题点,那怎么办?

上面提及到,既然带宽不是问题,那就可能跟并发数有关系了,而且爬虫过来肯定也是并发这么过,所以就把苗头对准并发了;

但是在实际去看并发之前,还是把逻辑梳理了一遍:
165395971a03cc6c-13kB

根据上面的信息,现在从后端nginx可以get到的是,PHP和后端处理时间非常快,基本在0.1-0.5之间;

从流程上来看,前端负责接收和返回后端的是nojs,所以有理由怀疑,异常发生的原因是在node层,结合上面的并发可能性,有可能是多并发,导致nojs进程cpu占用负载,导致处理时间加长。

这样也能很好地解释,为什么有的时候,抓取的时间只需要0.1到0.5,但是有时却需要消耗长达20万毫秒;

既然有所怀疑,那就开始干吧~

实验

本次的实验目的很简单,就是在高并发的环境下,进行百度爬取的行为,看看数据是不是正常;

工具的选择,不纠结,压测用apache ab,原因命令行,便捷,爬虫就直接用百度自带的;

分3组数据:
1)不使用并发,直接使用百度爬取
2)针对具体某一新闻页进行并发,并且爬取这条新闻页,链接
3)针对首页(www.51hjgt.com)进行并发,爬取上面的新闻页

并发命令:

ab -c 60 -n 100 http://www.51hjgt.com/
-n:执行请求的数量
-c:每个请求的并发连接数,理解成用户数也可以

结果发现,尝试多次,第三种情况下终于出现了抓起失败的情况!!撒花~
image_1cnbceh7e1qfi92u15611ene1lctb5.png-34.2kB
image_1cnbce6lm1v6q135pkod1alr159jao.png-205.6kB
image_1cnbceq9319iv1ojq84v1f50717bi.png-167.5kB

ok,虽然不是百分百能重现,但至少重现到一次了,也就说明的确有问题的;

下面是点击百度上的查看帮助里的内容:
165398aea06eefe1-100.3kB

Ok,拿着这个去跟前端反馈,结果前端负责人是这么回答的:

嗯,的确有可能存在这样的情况,原因是因为现在项目的node使用的是单进程,有可能会因并发问
题导致处理不来的情况,为什么要用单进程,是因为运维那边不会配置多进程导致的,这个下个版本
会处理;

嗯,这个问题就这样算是有个交代了;

小结

总结下这次遇到的问题吧;

收到问题->寻求数据如何统计->分析后端日志->压缩图片size及处理404问题->再次分析->怀疑跟带宽有关系->重新梳理流程,怀疑并发->验证->重现问题;

其实从上面的流程来说,貌似没太多的问题,在不了解或者不熟悉的业务上,也只能不停的去排查来验证假象;

但有个最大的问题是,像这类问题,理应第一时间想到并发跟带宽,但是在这次却是最后才想到,由此可见敏感度不够,无论是测试还是研发,对这种问题跟进能力比较欠缺,后面需要加强这类问题的敏感度;

上面提及到的压缩图片size和处理404的问题,即使没有这次的反馈,从网页本身考虑,本身就是需要去做的事情;

apache ab介绍

最后,插一个ab的介绍,会的同学自行跳过,本文终;

对于网站而言,压测是必须要做的工作,那压测的工具有很多,jmeter,loadrunner,ab,那为什么会选择ab?

个人觉得主要的原因是边界,命令行,windows\Linux\mac都支持使用;

下载安装

但是试过好几次可能是网络原因,下载很慢,而且可能会断开,因为分享一个2.3.4.3版本的zip包,需要的同学自取:

链接:https://pan.baidu.com/s/1MRCmEoiUkwKBF1R6vu3HsQ
密码:seag

下载完就解压,使用Windows下的cmd命令行,去到刚解压的目录下的bin目录;
16539a2591afb496-6.9kB

然后输入ab,如果不报错,则说明是成功了;
16539a2b90ed7aa1-60.7kB

当然,有同学觉得每次都进来这个目录很麻烦,那可以把Apache24\bin这个路径配置到环境变量,后续就可以直接ab使用了,具体Windows下环境变量怎么配置,网上搜索下,很多的~

直接压测网站

命令: ab -c 50 -n 50 http://www.baidu.com/
注意:网站地址,必须在后方加上"/",或指定相应文件。

执行后,就会有下图的结果输出:
16539a53fe6ac154-63.4kB

压测就是这么简单,但是要分析上图的内容,才有价值
这一陀看不懂?没关系,下面教你怎么看

ab命令参数说明

第一次使用ab命令时,不知道有什么参数,可以输入ab -help,然后就会弹出这么一坨东西:

16539a7a6755f270-109kB

一般常用的参数就下面几个:

-n:执行请求的数量
-c:每个请求的并发连接数
-t:等待响应时间
-V:显示版本信息

更加多详细参数自行查询;

实例

ab -n 3000 -c 3000 https://www.baidu.com/

c 100 即:每次并发3000 个
n 10000 即: 共发送3000 个请求

ab -t 60 -c 100 https://www.baidu.com/

在60秒内发请求,一次100个请求。

带参数的的请求

ab -t 60 -c 100 -T "application/x-www-form-urlencoded" p p.txt https://www.baidu.com/jb.html

p.txt 是和ab.exe在一个目录 p.txt 中可以写参数,如 p=wdp&fq=78 要注意编码问题

参数中的三种形式

application/x-www-form-urlencoded (默认值)
就是设置表单传输的编码,典型的post请求
multipart/form-data.用来指定传输数据的特殊类型的,主要就是我们上传的非文本的内容,比如图片,mp3,文件等等
text/plain . 是纯文本传输的意思

结果分析

执行完后,会有这么一坨东西:
image_1cnbcvovr132jjv1spc1j04iobge.png-545.7kB

下面就来讲解,到底是什么意思:

This is ApacheBench, Version 2.3
Copyright 1996 Adam Twiss, Zeus Technology Ltd, http://www.zeustech.net/
Licensed to The Apache Software Foundation, http://www.apache.org/

Benchmarking 192.168.80.157 (be patient)
Completed 400 requests
Completed 800 requests
Completed 1200 requests
Completed 1600 requests
Completed 2000 requests
Completed 2400 requests
Completed 2800 requests
Completed 3200 requests
Completed 3600 requests
Completed 4000 requests
Finished 4000 requests

Server Software: Apache/2.2.15
#Web服务器引擎
Server Hostname: 192.168.80.157
#服务器地址
Server Port: 80
#服务器端口

Document Path: /phpinfo.php
#请求的文件路径
Document Length: 50797 bytes
#文件大小

Concurrency Level: 1000
#测试的并发数
Time taken for tests: 11.846 seconds
#整个测试持续的时间,测试总耗时
Complete requests: 4000
#完成的请求数量,即成功收到返回的数目
Failed requests: 0
#失败的请求数量
Write errors: 0
Total transferred: 204586997 bytes
#整个过程中的网络传输量
HTML transferred: 203479961 bytes
#整个过程中的HTML内容传输量
Requests per second: 337.67 [#/sec] (mean)
#最重要的指标之一,相当于LR中的每秒事务数,后面括号中的mean表示这是一个平均值,即 每秒请求数,等于总请求数/测试总耗时,平均响应时间
Time per request: 2961.449 [ms] (mean)
#最重要的指标之二,相当于LR中的平均事务响应时间,后面括号中的mean表示这是一个平均值,可以理解为用户平均请求等待时间(响应时间)
Time per request: 2.961 [ms] (mean, across all concurrent requests)
#每个连接请求实际运行时间的平均值,可以理解为服务器平均请求等待时间(并发请求时间)
Transfer rate: 16866.07 [Kbytes/sec] received
#平均传输速率
Connection Times (ms)
min mean[+/-sd] median max
Connect: 0 483 1773.5 11 9052
Processing: 2 556 1459.1 255 11763
Waiting: 1 515 1459.8 220 11756
Total: 139 1039 2296.6 275 11843
#网络上消耗的时间的分解,响应时间小、中、大值

Percentage of the requests served within a certain time (ms)
50% 275
66% 298
75% 328
80% 373
90% 3260
95% 9075
98% 9267
99% 11713
100% 11843 (longest request)
#整个场景中所有请求的响应情况。在场景中每个请求都有一个响应时间,其中50%的用户响应时间
小于275毫秒,66%的用户响应时间小于298毫秒,最大的响应时间小于11843毫秒。对于并发请求,
cpu实际上并不是同时处理的,而是按照每个请求获得的时间片逐个轮转处理的,所以基本
上第一个Time per request时间约等于第二个Time per request时间乘以并发请求数。

使用ab常见的问题

1)ab命令在一般系统上面做测试时候,一般并发不能超过1024个,其实是因为因为系统限制每个进程打开的最大文件数为1024,可以用ulimit -a来查看;

2)-n 可以指定最大请求数,但是不能超过50000个;

3)-v n 当n>=2 时,可以显示发送的http请求头,和响应的http头及内容,压力测试时不要这么做;

4)在做压力测试的时候,一般情况下压力测试客户端接收到的数据量一定会远大于发送出去的数据量;

5)带参数的压力测试示例,ab https://www.baidu.com/?a=1&b=2&c=3

6)使用的时候,出现这个提示,The timeout specified has expired (70007),
原因是超时了,可以增加 -k (keep的意思)参数,保持连接进行测试;
1653b08fcba23a6f-29kB

解决方案:

ab -c 50 -n 100 -k http://www.51hjgt.com/

大概就这样吧,谢谢大家~

image_1cnbd3e461eplun4mbo1aec75jho.png-29.3kB

共收到 16 条回复 时间 点赞
仅楼主可见
恒温 将本帖设为了精华贴 11月25日 08:24

有理有据,有过程有结果,读起来也不乏味。话说楼主有没有seo经验哦?

文采挺好,只不过这类问题,只需要一次性能测试就能解决。
问题仅仅是因为没有做性能测试导致的,尤其是单进程这种高风险的操作,很不6

10并发访问了下,发现平均时间都要8.5s,确实慢了点。
对于这种资讯网站,完全可以做页面静态化吧,不用每次都渲染,直接从CDN返回html,响应时间会快很多,对服务器内部带宽消耗也小。

jb #6 · 2018年11月26日 作者
恒温 回复

哇晒,谢谢大佬~

jb #7 · 2018年11月26日 作者
恒温 回复

没有,过去的时间一直是负责phone的,也没负责过网站,这是第一个负责的网站项目,而且还是个seo。。😂

jb #8 · 2018年11月26日 作者
zailushang 回复

嗯嗯,其实就是因为没有做性能测试导致的,原因很多,归根到底是因为jb的专业性不太多,虽然有简单用jmeter做过压测,但是没仔细分析,后续这块会着重关注下;谢谢大佬指点~

jb #9 · 2018年11月26日 作者
吴宝林 回复

因为钱的问题,没CDN;
之所以要做动态,是因为公司请的seo顾问要求的,因为如果内容是静态的,百度爬虫来过一次后,后面就不再来了,因为做成动态,是为了提高权重,之前这块吃过几次亏,后来就决定才用动态的方式了;

jb 回复

客气客气,不过你的文字真的很好,让人很想读下去

不明觉厉

jb #12 · 2018年11月28日 作者

大佬见笑了😂

大佬ab的提取码是多少

jb #14 · 2018年11月29日 作者
初学者 回复

不好意思啊,编辑的时候不小心干掉了,密码:seag,已在原文补充,谢谢~

兄弟 知乎上的JB是不是你😂

jb #16 · 2018年12月03日 作者
haionever 回复

大佬大佬,应该不是的,知乎不给2个字母的名称~

jb 回复

噢 全名我忘了 因为你俩名字独特啊 我就问下

ivy520 [该话题已被删除] 中提及了此贴 12月16日 22:55
ivy520 定向班第一期_shell 课程实战_20181216 中提及了此贴 12月16日 23:53
需要 登录 后方可回复, 如果你还没有账号请点击这里 注册