MTSC 2017 第三届中国移动互联网测试大会—会后感

三羊 for 第三届中国移动互联网测试大会 · 2017年07月16日 · 最后由 恒温 回复于 2017年07月17日 · 2429 次阅读

本次大会干货很多,围观了 google 的测试思路,了解了人工智能,学习了腾讯发布游戏的流程,还有美团的性能数据上报机制,重点是拓展了耗电的测试方法。

Google

  1. 产品由简到繁需不同的测试体系来支持
    1. 刚开始时,临上线还在做单元测试,目标无 BUG
    2. 各个产品有各自的自动化测试体系,定义了发布标准
    3. 产品线整合,产品线兼容,发布标准自动化执行
    4. 从设备到底层支持到 API 完成兼容
  2. 代码发布了流程很糟,一些问题只能在上线前发现
    1. 自动化一切,问题发现尽可能的早
    2. 尽可能接入外部架构节省开发成本
    3. 用浏览器来模拟不同屏幕尺寸,来验证广告显示
    4. 测试从模拟器->浏览器->真实设备,多重验证

人工智能

  1. 人工智能=大数据 + 机器学习
  2. 使用历史数据构建模型,输入新数据预测未来,把新数据插入老数据,人工智能学习
  3. 数据需要异常报警机制(服务器也需要)
  4. 服务器的性能要求,高可用、负载均衡、弹性伸缩
  5. 服务器的性能测试难度:分布式、计算量大、执行时间长
  6. 测试环境使用容器解决多样性和多变性

阿里 UC

  1. 碎片化、版本多、渠道多
  2. 增量部署,工程之间不影响
  3. 自动化编译、动态发布、规范化版本
  4. 监控评论数据
  5. 崩溃自动回滚版本

腾讯互娱

  1. 一个游戏的上线流程
  2. 对于服务器弹性动态扩展能力和高可用容灾能力要求很高

美团

  1. 监控线上版本性能数据
  2. 性能数据的处理和分析
  3. 崩溃数据上报
  4. runloop 监控 iOS 卡顿

电量测试

  1. Battery Historian 2.0
  2. 重写 PowerStat 和 CPU Monitor,用来做想要的东西
共收到 1 条回复 时间 点赞
需要 登录 后方可回复, 如果你还没有账号请点击这里 注册