• 以己度人,构建理解链 at 2023年10月07日

    优先级排序先后是通过投票表决出来的还是其他方法呀?

  • 风雨中前行的 2022 at 2023年02月13日

    👍

  • 真行业天花板 - 已招到 at 2023年02月13日

    😂

  • 让 ChatGPT 写测试用例 at 2023年02月13日

    厉害了

  • 5 年,以单个产品的质量保障作为切入点,逐渐了解行业痛点及相应的解决方案,现在更多的关注产品体系以及相应的质量保障方案

  • 学习了

  • 性能和自动化,看简历的项目中是否用到。很多候选人简历上虽然写了一些技术名词,但在项目中根本没有体现。
    问题,个人觉得没什么大的问题,一般都是这样问的。不过我建议可以在提问的时候,结合项目来让候选人 get 到你的点。性能测试知识点挺大的、也挺多的,有的候选人可能真的只是在搬砖,不会造教堂.... 主要看你招的人进来负责什么,小兵的话能做事即可,将领除技术能力外,还需要有一定的领导能力,统帅的话当然更强。
    说说我如何问性能这方面的:
    1、先让面试者说明 why 为什么做压测,压测的目标是什么?eg:客户遇到了性能问题 或者 新项目上线要求容量测试
    2、说明 How 面试者负责的是什么? 整个压测方案,还是协助做局部的模块 再是具体怎么做的?是否有计划,需求分析与测试设计、测试策略是什么、业务模型是否有整理、测试数据准备与构造...
    3、测试过程遇到了哪些问题,如何解决的,关注了哪些指标,记录了哪些数据,是否达到预期
    4、结果分析与测试报告 最终是否上线,是否与客户有上线前的沟通,上线后问题是否解决,或者优化是否达到预期,确认满足了需求
    ...
    以上,吐槽一下:大部分的人是理论派或实战派,少之又少的是融会贯通的(稀缺人才);但有一说一,每个公司不需要太多融会贯通的人,只要招进去的人能做事,能解决问题,那么就足够了,所以看公司想要哪方面的人了

  • 啪啪打脸的爽文剧情,用例设计方法了解的更全了😂

  • def funcb(*anything,**anything):
    运行结果:
    ...
    args= ([0, 1, 'test'], 1, 22, None)
    

    👆应为:

    def funcb(*args,**anything):
    

    没有 22 吧 args= ([0, 1, 'test'], 1, None)

  • 💎

  • 🆙

  • 欢迎探讨~
    1、根据业务需求,了解此次大数据平台的数据功能和非功能要求。例如:存储的数据,具体数据的大小、特点等占比
    2、假设大数据平台需要满足全量 1PB 数据的存储要求,根据数据的特点,大概 30% 为结构化数据,70% 为非结构化数据,并以此进行估算。
    其中:
    结构化数据的数据量为: 1PB*30%=0.3PB=307TB(结构化数据全部进入数据仓库)
    对于结构化数据存储容量要求为: 307TB*(3+1+0.5)/3*1.3=599TB 
    注:对结构化数据,采用 3 倍副本冗余存储,1 倍中间结果余留,0.5 倍索引存储空间,3 倍数据压缩,0.3 倍空间余留。 
    非结构化数据的数据量为: 1PB*70%=0.7PB=717TB 
    对于非结构化数据存储要求为: 717TB*3=2151TB 
    非结构化数据采用 3 倍副本冗余存储。
    全量数据存储容量要求为: 
    599TB(结构化数据)+2151TB(非结构化数据)=2750TB 
    DataNode 单节点存储容量推荐配置为:4TB*12=48TB 
    基础 Hadoop 平台 DataNode 节点数为:2750TB/48TB=58 节点 
    因此,DataNode 服务器推荐配置为
    CPU 两路 8 核处理器 E5-2650 v3 或以上 
    内存 64GB 及以上
    硬盘 SAS 盘 2 个 600G 做 RAID1,SATA 盘 12 个 4TB 不做 RAID1
    网络 最好是双口万兆网卡
    此外:对于大规模的 Hadoop 集群,需单独规划
    Zookeeper 3 个节点,NameNode 1 个节点,Resource Manager 个节点,HMaster 3 个节点,总共 3+1+1+3=8 个节点
    针对 NameNode,Zookeeper,Resource Manager,HMaster 等角色的功能和性能要求,服务器建议采用如下配置
    CPU 两路 8 核处理器 E5-2650 v3 或以上 
    内存 128GB 及以上
    硬盘 SAS 盘 2 个 300G 做 RAID1,SAS 盘 7 个 300G 不做 RAID1
    网络 最好是双口万兆网卡
    综上,基础 Hadoop 平台节点规模为 58+8=66 节点
    ...
    此外还有数仓集群配置,存储结构化数据,并提供高复杂度、高负载的计算、分析任务,提供数据仓库、数据集市等功能 
    预计 31 台
    总共 66+31=97 台

    计算节点有条件的可选 SSD ,此外还有需万兆交换机若干,机柜若干

    3、横向纵向扩展都支持的,若后续随着集群规模的扩展可增设核心数据层交换机,向下负责汇聚多个集群节点...

    大数据很烧钱的,如果数据量没那么大,搭建大数据平台的成本收益不成正比... 量力而行!!!

  • 有条件的话,硬件资源方面,尽可能将测试环境的配置与客户的环境是一致的

  • 先回复占 1 楼,再看看

  • 我如何面对 “双减裁员” at 2021年10月21日

    最终选择了哪一份适合的自己工作?