没本事赚股市的钱
看接口文档判断吧,如果没文档就全部给前端,鬼知道他是前端传错参数,还是后端逻辑错误呢
领导已经不听劝了,反正就是要跟 AI 沾边~
之前已经跟他分析过可能会竹篮打水一场空,就放弃了一些不实际的想法了
现在是又想我们研究 AI 相关的工具,能不能集成到我们现在有测试平台里
我根本就不想做啊,分管领导逼着我们测试部老大,然后老大也头疼,就又分发给我们几个搞自动化的测试。。
让我们写写自动化代码还行,搞 AI 完全就是扯淡了。
我们普通员工也不想搞提效啊,提效就是给自己找不痛快~
现在是每个星期都要问一下进度,好烦恼~
欸,领导拿这个来刷 KPI 呢。分管领导是我们测试部的直属领导,使唤不动开发,就使唤我们测试。。
我看了一下 LLM,比如 CHATGPT 这些,都只是生成一些比较通用的用例,实际帮助不是很大的。
看了 MTSC2023 深圳站的哪些大厂的成果,基本也都是自研或者自己训练大模型的,我们公司没能力也没钱搞~
其实至少在我们公司的行业,AI 感觉帮助不大。。行业比较小众的,一些业务知识也没有相关 AI 会训练
有这能力,真的都不用做测试了。。自己当老板
现在新版本的 pycharm 都已经默认安装了这种插件
你参考一下这个,修改一下 linux 的配置
====linux 负载机配置==== 重启生效,或者不重启输入命令行生效: sysctl -p
=====vi /etc/sysctl.conf=========
添加以下:
fs.file-max = 100000
fs.nr_open = 100000
net.ipv4.tcp_tw_reuse = 1
net.ipv4.tcp_tw_recycle = 1
net.core.optmem_max = 8192
net.ipv4.tcp_max_orphans = 10240
net.ipv4.tcp_max_tw_buckets = 10240
net.ipv4.ip_local_port_range = 1024 65535
===========vi /etc/security/limits.conf=============
添加以下:
你有没有保持心跳?
我用 locust 测 websocket 的。。弄过保持 20W 个长连接。。
用四台 LINUX 服务器,每台连接 5W 的。。
1、框架自己的时间
2、都是在同一个局域网内
3、分析工具我研究一下。
(在 locust 压测的同时,我另外直接用 request 请求这批被测的接口,返回的响应时间都是正常的,但是 locust 查看到的响应时间是会比比较高)
没什么关系,都是内网的,而且加密签名和解密的方法,每个接口都要调用的,没有贴出来
都一样的意思,这也没什么好办法
还有,查看压力机以及测试对象服务器的资源并没有占满的
多动手练习练习
unittest 的执行顺序就是按照 asiii 0-9 A-Z a-z 排序的呃,直接就这样修改函数名还比较方便一些
或者用 TestSuite().addTest,不过这个感觉更麻烦
改用 pytest 有排序的插件
创建订单号用(用户 ID+ 时间戳(毫秒 or 微秒)+ 随机数),或者再转(16 进制,62 进制)生成的订单号就算是并发跑,都很难会重复
pytest_ordering,这个插件对多个文件有效的啊。。
比如我现在的项目,是有 6 个 test.py 的。。装饰器@pytest.mark.run(order=4),这个是写在不同文件的,不同测试类或者测试用例,都起作用的
关于 LOCUST 压测时,发现响应时间跟实际好像不一致,,比如一个接口的请求,日志上查看大约是 100 毫秒就已经返回了,但是 LOCUST 的响应时间已经超过了 1 秒。。请问你知道是什么原因吗?