就吐槽一句,都 2023 年了,居然还有软件测试行业从业者,不会编写代码来实现基本的自动化测试,这个行业到底是怎么了?
大部分公司都在开发一些所谓的低代码自动化测试平台,目的是要为不会代码的测试同学服务,这普通的测试同学还能有啥代码能力呢(学了也用不上)。
既然认为这些低代码自动化测试平台能有接近代码水平的自动化测试开发效率,那还要学啥写代码呢。
现象就是这么个现象,说多了感觉也没用,学会写代码了,就会又开始开发起一些低代码测试平台了,感觉也没什么实际意义。(轻轻吐槽一下吧...)
元素在变大变小。。 怎么感觉像是和编程猫源码编辑器类似的产品呢。
对于问题一,我觉得可以建立一个兼容性测试模型,这个模型可以包括但不仅限于浏览器内核和版本
、浏览器市场占比
、本产品浏览器使用占比
、操作系统平台
、操作系统分辨率
等要素。
然后在每个要素下罗列出收集到的相关数据,根据要素的权重和数据的排名进行浏览器和系统平台的组合,得出测试需要覆盖的情况,并再次进行分类,根据项目和测试资源情况得出优先级别由高到低的兼容性测试列表,这样便于根据不同的版本挑选出对应级别的兼容性测试列表,可以有效并且科学地节约兼容性测试成本。
个人浅见,要想科学地保证好一个模块的质量,或者是说测试好一个功能,方向上还是要通过质量模型去入手。
在我理解,功能测试和接口测试这两大类都是属于对质量模型的功能性进行的测试,只是功能的表现形式有所不同,分为和性能测试同级的两大类不太严谨,或是说这样分类没有科学的来源。
另外之所以要进行性能测试,是因为性能效率也是质量模型的一个方面。但当团队或业务需要时,考虑的不仅要有性能测试还应该要考虑到对质量模型的其它方面进行的测试。
加油
submit()
的具体用法我忘记了,但我猜测是应该和搜索框类型有关
从上面两张图大致可以看出:
百度首页的搜索框是个 form 表单,使用 submit()
方法应该没问题
百度新闻的搜索框是个 table 表格,应该是不支持使用 submit()
方法的
听说去了也没喜茶喝
2001 年(美)Ron Pattern 著的《软件测试》一书中对软件缺陷进行了定义,即一般情况下,只要软件出现的问题符合下列 5 种情况中的任意一种,就可认为是软件缺陷:
sed -i '' '1 a\
a new line' 1.txt
a\
后面按下回车键换行
额 回想两年前还在这里做过外包
看下大佬的帖子呗:https://testerhome.com/topics/1034
给大佬递冰阔落
额,我找到原因了,我使用 chrome --remote-debugging-port=9222
启动 chrome 前打开有其它的页面,必须把其它开启的 chrome 进程都关了才行。
打扰了,打扰了....
在我机器上使用 chrome --remote-debugging-port=9222
启动的话,连接时会报错
requests.exceptions.ConnectionError: HTTPConnectionPool(host='localhost', port=9222): Max retries exceeded with url: /json (Caused by NewConnectionError('<urllib3.connection.HTTPConnection object at 0x00000238FC78ED68>: Failed to establish a new connection: [WinError 10061] 由于目标计算机积极拒绝,无法连接。',))
但使用无头模式 chrome --remote-debugging-port=9222 --headless
启动的话则可以连接成功。[捂脸哭]
新版的 chrome 是不是在启动时必须要加上 --headless 参数,不然无法进行远程调试。
学习了~