AI测试 史上最全,细数 AIGC 在测试领域落地的困难点

X4VIERLI · 2023年07月10日 · 最后由 请叫我叼毛 回复于 2024年02月27日 · 52560 次阅读
本帖已被设为精华帖!

一、引言 & 背景

自 2022 年由横空出世的 ChatGPT 引发的各类 AIGC(Generative AI)爆发以来,人们对其在各个领域的应用潜力产生了极大的兴趣。在研发领域,各种研究已经证明了 Github Copilot 在研发效能提高上的积极作用。
在测试领域,AIGC 的爆发引发了对其在软件测试中的应用可能性的广泛研究和探讨。传统的软件测试方法往往需要大量的人力和时间投入,而 AIGC 技术的引入可能为测试领域带来革命性的变化。AIGC 在测试中的优势在于其高效的自动化能力、快速的学习能力以及对大规模数据的处理能力。本论文旨在探讨 AIGC 在测试领域的应用,并深入研究投入 AIGC 的困难点。通过对 AIGC 在测试中的潜在应用进行分析和讨论,我们将探讨 AIGC 技术对测试流程和质量的影响,以及它在提高测试效率、减少测试成本和改善软件质量方面的潜力。

二、AIGC 在测试领域的潜在应用

AIGC 技术在测试领域中有着广泛的潜在应用,可以为测试流程和质量带来许多好处。下面将重点介绍 AIGC 技术在测试领域的几个关键应用场景,并与传统测试行业进行比较,以突出 AIGC 技术的改进和提升之处。

2.1 AIGC 在测试领域的应用方向

2.1.1 自动化测试用例的生成和执行

传统的测试方法中,测试人员需要手动编写和执行测试用例,这需要大量的时间和资源。而 AIGC 技术可以通过学习和分析软件系统的特征和行为,自动生成测试用例,并自动执行这些用例。AIGC 可以通过大规模数据的学习和推理,发现潜在的测试场景和异常情况,从而提高测试的全面性和覆盖率。与传统测试方法相比,AIGC 在测试用例生成和执行方面具有高效性和自动化的优势,可以大大减少测试时间和成本。

2.1.2 智能缺陷检测和自动化回归测试

AIGC 技术在缺陷检测和自动化回归测试方面也具有巨大的潜力。传统的缺陷检测方法通常需要依赖人工的经验和规则,但这种方式存在局限性和主观性。而 AIGC 可以通过学习软件系统的正常行为和常见缺陷模式,自动识别和检测潜在的缺陷。它可以分析测试数据、日志和报告,快速定位和报告问题,并支持自动化回归测试,确保修复缺陷后系统的稳定性。AIGC 在智能缺陷检测和自动化回归测试方面的能力可以提高测试的效率和质量,减少人工的工作量和错误率。

2.1.3 智能协作和知识库

AIGC 技术还可以改善测试人员与开发人员、测试人员与用户之间的协作和交互。在测试过程中,测试人员通常需要与其他团队成员进行沟通、讨论和解决问题。AIGC 可以作为一个智能的对话系统,与测试人员进行实时交互,并提供即时的反馈和解决方案。测试人员可以与 AIGC 进行对话,提出问题、寻求建议,并从中获得支持和指导。与传统的协作方式相比,AIGC 的智能协作和用户交互能力可以提供更高效、快速和准确的信息交流,促进测试团队的合作和决策过程。

2.2 AIGC 在测试领域的优势和潜力

1. 高效的自动化能力:

AIGC 具有强大的自动化能力,可以自动生成测试用例、执行测试任务和分析测试结果。相比传统的手动测试方法,AIGC 可以大幅度减少人工的工作量和时间成本,提高测试的效率和生产力。

2. 快速的学习能力:

AIGC 可以通过机器学习和深度学习的技术,快速学习软件系统的特征和行为。它可以从大规模数据中提取模式和规律,并应用这些知识来生成测试用例、检测缺陷和改进测试策略。这种快速的学习能力使得 AIGC 能够在短时间内适应不断变化的软件系统,并持续提高测试的质量和准确性。

3. 处理大规模数据的能力:

随着软件系统规模的增大和复杂性的提高,测试数据的规模也呈指数级增长。AIGC 具备处理大规模数据的能力,可以有效地分析和挖掘测试数据中的潜在问题和模式。它可以从海量的数据中提取有用的信息,辅助测试人员做出更准确的决策,并帮助发现潜在的缺陷和性能问题。

4. 全面性和覆盖率的提升:

传统的测试方法往往受限于测试人员的时间和资源,无法对软件系统进行全面和完整的测试。而 AIGC 技术可以实现全面性和覆盖率的提升,通过智能生成测试用例和自动执行测试任务,发现更多的潜在问题和异常情况。它可以检测到传统测试方法可能会错过的缺陷和漏洞,提高测试的全面性和质量。

5. 智能协作与人类测试人员的协同工作:

AIGC 可以作为智能的对话系统,与人类测试人员进行实时交互和协作。它可以提供即时的反馈和解决方案,帮助测试人员理解需求、验证功能,并共同解决测试中的问题。这种智能协作能力提高了测试团队的协同效率和沟通质量,推动测试过程的优化和改进。
综上所述,AIGC 技术在测试领域的应用具有许多优势和潜力。它可以自动生成和执行测试用例,提供智能的缺陷检测和自动化回归测试,改善测试人员与团队成员之间的协作和交互。与传统测试方法相比,AIGC 技术可以提高测试的效率、准确性和全面性,从而提高软件质量并满足不断增长的测试需求。然而,为了实现这些潜在的应用,我们需要克服一系列的困难点,这将在下一章节进行讨论。

三、AIGC 测试领域应用的困难点

尽管 AIGC 在测试领域具有广泛的潜力,但其投入实际应用也面临一些困难和挑战。在本章中,我们将重点讨论 AIGC 投入测试领域各个阶段所面临的主要困难点。

3.1 数据需求和数据质量

AIGC 无论是基础的底座模型还是微调、蒸馏后的小模型,均需要大量的数据来微调和训练模型。然而,测试领域的测试数据、文档通常是零散的、不成体系的。此外,这些测试数据、文档的质量和准确性也可能存在问题。众所周知,训练数据的质量直接关系到底座模型的能力,同时也会影响到依托于大模型 embedding 而构建的知识库能力,缺乏足够的高质量数据可能会限制 AIGC 在测试领域的应用。

3.1.1 数据质量

在当今中国互联网的研发模式下,包括需求分析、系统设计、测试分析、测试执行和发布上线等阶段,不同的阶段产生不同的文档,文档的结构、撰写者水平的高地都据定了这些文档的质量。同时,需求、设计、开发和测试之间错综复杂的文档、需求关系也给数据准备带来了一些困难。

3.1.1.1 文档质量

各家公司针对研发模式下涉及的各个阶段的文档均有一些标准化的模版要求,这些模板化的要求从一定程度上帮助提高了文档的结构化程度。但是在这个过程中,每个文档撰写者针对所描述的内容的理解、清晰程度直接决定了这些文档所产出的训练语料质量。
各种文档的质量直接影响训练数据、语料的质量。以下是一些常见文档的高质量要求:

  • 需求文档:准确、清晰、可验证和完整,以便开发和测试团队理解和实施相应的需求。
  • 系统设计文档:详细描述系统的设计逻辑、接口规范和数据结构等,以确保开发和测试团队能够准确地理解和实施设计方案。
  • 测试分析文档:需要清晰、全面地描述测试范围、测试目标和测试方法,以确保测试覆盖全面、有效性高。
  • 测试执行文档:需要准确记录测试过程中的问题和结果,以便开发团队能够追踪和修复缺陷。
  • 发布上线文档:需要清晰、详细地描述上线计划、版本变更和用户指南等,以确保发布过程顺利和用户能够正确使用系统。 而高质量的文档在 embedding 数据准备和训练语料准备中发挥着重要的帮助作用。它们提供了丰富、准确和有代表性的语料库,帮助模型学习和捕捉语义信息、建模上下文和语境,并提高模型的性能和泛化能力。中国互联网在过去的快速迭代中对公司的文档、知识库质量产生了不可磨灭的负面影响。各类文档的准确性、完整性、时效性、一致性和可访问性等方面存在问题。而这些问题,会真是且持续的影响 AIGC 训练、微调、embedding 相关数据的质量,进而影响最终模型的整体能力表现。

3.1.1.2 文档内容关联性

整理并高效地识别需求、设计、开发和测试文档之间的上下文以及扩散关系是关键,它带来了以下困难和挑战,特别是在 AI 模型训练、微调和 embedding 数据准备方面:

  1. 上下文信息的获取和整合:不同文档之间的上下文信息分散在各个文档中,获取和整合这些信息可能会面临困难。需求文档可能包含了业务需求和功能描述,设计文档提供了系统结构和组件信息,而开发和测试文档包含了具体的实现细节和测试用例。在进行 AI 模型训练、微调和数据准备时,需要整合这些文档中的信息,并理解其相互关系,以确保数据的正确性和一致性。
  2. 文档间的信息不一致性:由于需求、设计、开发和测试文档之间的扩散关系,可能会导致信息的不一致性。例如,需求文档中规定的功能要求在设计文档中可能有所调整,或者开发过程中的变更未及时更新相关文档。这种信息不一致性会对 AI 模型训练、微调和数据准备过程造成困扰,可能导致模型理解的偏差和错误的数据准备。
  3. 跨团队协作和沟通的挑战:需求、设计、开发和测试文档涉及到多个团队和角色之间的协作。不同团队的成员可能对文档的编写和更新有不同的理解和偏好,导致文档之间存在风格和格式的差异
  4. 变更管理和版本控制:在需求、设计、开发和测试的过程中,可能会发生变更和调整。这些变更可能涉及文档内容的修改和更新,对 AI 模型训练、微调和数据准备产生影响。
  5. 文档中各类图内容:需求、设计、开发和测试文档中的各类关系图、时序图、流程图等提供了对系统功能、组件和流程的图形化表示,而在 AI 模型训练、微调和数据准备过程中,需要将这些图形转换为可处理的文本或结构化数据。

3.1.1.3 中文大模型落后 & 多模态数据能力不足

日常工作中无论是需求、设计、系统分析、测试分析文档中,都不可避免的会引入各类图表、图像、音频视频等多模态数据进行信息展示。往往这些多模态数据中的信息含量的巨大的,处理这类多模态数据有如下困难点:

  1. 中文语言处理的挑战:相比于英文,中文具有更为复杂的语言结构和特点,例如字词的复杂性、语法的灵活性和歧义性等。这给中文文档的处理带来了挑战。对于测试领域 AIGC 模型而言,需要具备对中文的良好理解和处理能力,包括中文分词、命名实体识别、语义解析等任务。
  2. 中文数据集的稀缺性:相比于英文数据集,中文数据集在规模和质量上相对较少。这可能是由于中文的语言复杂性和数据获取的困难性所导致的。缺乏大规模且高质量的中文数据集限制了测试领域 AIGC 模型在中文文档处理方面的能力提升。
  3. 中文大模型的发展滞后性:相比较现今市面上诸多英文大模型,现在的各种开源、闭源中文大模型无论在语言理解力、模型综合能力、各种扩展泛化能力等方面均存在较大的差距。而这种差距会影响到在测试领域 AIGC 模型的建设,并深刻影响模型的各种能力评分。
  4. 多模态数据处理的挑战:测试领域的文档内容通常不仅包括文本,还可能包含图片、音频、视频等多模态数据。多模态数据的处理需要模型具备对多种数据类型的理解和处理能力,例如图像识别、语音识别、视频分析等。然而,测试领域 AIGC 模型在多模态数据处理方面的能力还不够成熟,缺乏对多模态数据的综合理解和处理能力。
  5. 数据标注和质量控制:中文和多模态数据的处理需要大量的标注工作,以构建训练和评估所需的数据集。然而,中文和多模态数据的标注工作比较困难,需要专业的标注人员和相应的标注工具。同时,保证标注数据的质量也是一个挑战,需要进行严格的质量控制和评估。

3.1.1.4 测试代码质量

测试人员编写的各类 UI 和接口测试代码可能存在一些质量问题,而这类代码所带来的质量问题也会影响到后续的质量领域 AIGC 模型的整体能力水平。以下是其中的一些常见问题:

  1. 缺乏可维护性:测试代码的可维护性是一个重要的质量指标。如果测试代码难以理解、修改或扩展,将会增加维护成本并降低测试效率。缺乏良好的代码结构、模块化和注释等因素可能导致代码的可维护性问题。
  2. 重复代码和冗余逻辑:重复的代码和冗余的逻辑会增加测试代码的复杂性,使其难以维护和理解。测试人员应该避免复制粘贴相似的代码,而是采用函数、类或其他复用机制来减少代码的冗余性。
  3. 弱错误处理和异常处理:测试代码应该具备良好的错误处理和异常处理机制。如果测试代码无法正确处理错误和异常情况,可能导致测试失败的原因难以定位,测试结果的准确性受到影响。
  4. 不充分的边界测试和覆盖率:测试人员需要编写具有充分边界测试和覆盖率的测试代码。如果测试代码只针对典型场景进行测试,而未考虑边界情况和异常情况,可能无法发现潜在的问题和错误。
  5. 缺乏灵活性和可配置性:测试代码应该具备灵活性和可配置性,以适应不同环境和需求的变化。如果测试代码过于死板,无法适应系统变化或不同配置的测试场景,将限制测试的覆盖范围和可扩展性。
  6. 缺乏清晰的注释和文档:良好的注释和文档可以提高测试代码的可读性和可理解性。测试人员应该编写清晰的注释,解释代码的意图、测试目的和关键逻辑,以帮助他人理解和维护代码。
  7. 不足的性能和效率:测试代码应该具备良好的性能和效率,以便在合理的时间内执行测试。如果测试代码运行缓慢或资源占用过高,将影响整体的测试速度和效率。

3.1.1.5 持续性数据需求

使用强化学习(RL)和高强度人类反馈(RLHF)来改善模型能力是一个有挑战性的任务,它涉及到数据获取、训练和微调等方面的困难。以下是其中的一些困难:

  1. 数据获取的成本和复杂性:RLHF 需要大量的高质量人类反馈数据来训练和微调模型。但是,获取高质量的人类反馈数据通常需要耗费大量的时间、人力和资源。人类评估者需要对模型的输出进行评估、提供反馈或进行标注,这可能需要培训和沟通,增加了数据获取的成本和复杂性。
  2. 人类反馈的主观性和不一致性:人类反馈的主观性和不一致性是 RLHF 中的一个重要挑战。不同的评估者可能有不同的意见和标准,导致反馈的差异。这可能会导致训练和微调过程中的困惑和不稳定性。为了应对这个问题,需要设计合适的反馈机制和评估准则,以减少主观性的影响。
  3. 探索与利用的平衡:在 RLHF 中,需要平衡探索和利用的权衡。模型需要在探索新的行为和利用已知的好的行为之间进行平衡,以提高模型的性能。确定合适的探索策略和探索空间是一个具有挑战性的问题,需要在训练和微调过程中进行精细调整。
  4. 高度复杂的状态空间和动作空间:在某些领域和任务中,状态空间和动作空间可能非常大和复杂。例如,在游戏或机器人控制领域,状态和动作可能有很多选择。这增加了训练和微调过程中的搜索空间和计算复杂性。需要使用有效的算法和技术来处理高维和复杂的状态空间和动作空间。
  5. 收敛性和训练的稳定性:RLHF 的训练过程可能面临收敛性和训练的稳定性问题。由于复杂的任务和大规模的模型空间,训练过程可能需要很长时间才能达到收敛,并且可能面临不稳定性。需要使用适当的训练算法和技术来提高训练的效率和稳定性,以获得可靠的结果。

3.1.2 业务语义理解

理解被测业务的语义是一个关键的难点。这是因为被测业务通常涉及复杂的业务逻辑、行业规范和特定领域的知识,要准确地理解和表达这些语义对于生成有效的测试数据至关重要。以下是一些涉及被测业务语义理解的难点:

  1. 领域知识的获取和应用:生成有效的测试数据需要对被测业务的领域知识有深入的理解。这涉及到对业务流程、规则和约束的熟悉,以及对业务术语和行业规范的掌握。获取和应用领域知识对于准确地理解被测业务的语义至关重要。
  2. 多样性和复杂性的处理:被测业务通常涉及到多种场景、多样的输入和复杂的逻辑。要生成具有广泛覆盖和多样性的测试数据,需要考虑到不同的业务情况和可能的组合。处理多样性和复杂性可能涉及到处理不同的业务规则和条件,并确保生成的测试数据能够涵盖各种业务情况。
  3. 语义的精确性和约束:被测业务中的语义通常需要精确地表达和理解。测试数据的生成需要考虑业务规则、约束条件和预期结果,以确保生成的数据符合业务要求。这包括对业务逻辑和语义的严格约束,以生成准确和有效的测试数据。
  4. 上下文和关联关系的处理:在生成测试数据时,需要考虑上下文和相关的业务关联关系。业务逻辑可能会依赖于前后步骤、数据的关联和业务流程的连贯性。要生成具有上下文和关联关系的测试数据,需要准确地理解业务的语义,并考虑业务数据的一致性和合理性。
  5. 业务变更和演进的适应:被测业务往往是动态的,会随着时间的推移而发生变化和演进。生成测试数据时,需要及时适应业务的变更,并理解变更对于测试数据生成的影响。这可能涉及到对业务规则和逻辑的更新和调整,以确保生成的测试数据与业务的最新要求保持一致。

3.1.3 数据处理

为了将各领域的文档数据处理成可用于测试领域 AIGC 模型的微调、训练和 embedding 所使用的数据时,还需要面临以下的数据处理困难和挑战:

  1. 数据格式和结构的不一致性:各领域的文档通常具有不同的格式和结构,包括需求文档、设计文档、测试用例等。这些文档可能来自不同的团队、部门或项目,采用不同的格式和约定。因此,将这些数据进行统一和规范化,使其适用于 AIGC 模型的微调、训练和 embedding,需要解决数据格式和结构的不一致性。
  2. 大规模数据的收集和清理:各领域涉及大量的文档和各种不同类型的数据。收集和清理这些大规模的数据是一个具有挑战性的任务。数据收集可能涉及从不同来源和系统中提取数据,而数据清理可能需要处理缺失值、噪音和重复数据等问题。这些过程可能耗费大量的时间和资源。
  3. 数据标注和注释的复杂性:测试领域的文档可能需要进行标注和注释,以便用于模型的微调和训练。例如,测试用例可能需要标注关键字、功能、预期结果等信息。标注和注释的复杂性取决于文档的类型和领域的特点,可能需要领域专业知识和人工操作,增加了数据处理的难度。
  4. 多样性和异质性的数据来源:测试领域的数据可能来自不同的系统、平台和工具,具有多样性和异质性。将这些异构数据整合和处理成为可用于 AIGC 模型的统一数据表示,需要解决数据的兼容性和一致性问题。这可能涉及数据转换、映射和集成等复杂的数据处理任务。
  5. 数据质量和准确性的保障:测试领域的数据质量和准确性对于 AIGC 模型的微调、训练和 embedding 至关重要。确保数据的质量和准确性可能需要进行数据验证、去噪、纠错和标注质量控制等步骤。这些步骤需要投入人力和资源,并需要领域专业知识来进行数据验证和校准。
  6. 非结构化数据的处理:测试领域的文档数据通常是非结构化的,包含自然语言文本、图形、表格等形式。对于 AIGC 模型的微调、训练和 embedding,需要将这些非结构化数据转换为结构化的、可供模型处理的形式。这可能涉及到自然语言处理、图像处理和数据解析等技术,增加了数据处理的复杂性。
  7. 多轮对话数据的处理:处理 AI 模型的多轮数据需要考虑上下文的理解和建模、对话的连贯性和一致性、数据标注和注释的复杂性、数据稀疏性和数据量的要求、对话历史的管理和建模以及评估和度量的困难性。

3.2 训练、微调、embedding 所面临的问题

本轮 AI 浪潮带来的不仅是对于 AI 在各领域能力的展现,同时也是各类开源 AI 模型底座的百花齐放时刻。而领域模型对于模型底座的能力依赖,底座模型的选型是在推进训练、微调前至关重要的步骤。目前,有许多开源模型可供选择,例如 ChatGLM、Vicuna、BELLE 等。而大模型的能力扩展离不开各类的配套设施,最典型的例子就是 LangChain。以下将对这些模型以及相关配套设施之间的差距和面临的各类困难的阐述。

3.2.1 开源模型之间的差距

不同的开源模型在自然语言处理任务上具有不同的性能和能力。对于测试领域 AIGC 模型,需要依托于底座模型的自然语言理解能力,结合识图、读图等能力,配合代码理解、生成的能力才能够完整的组合出测试领域模型。下图是各类模型在各项能力上的对比。

以上所示的这些开源模型在各项能力中各有优劣,而摆在大家面前的问题即是如何从这些模型中挑选出能够作为底座模型进而开展训练、微调等后续工作。

3.2.2 配套设施之间的差距

除了底座模型的能力差距之外,还有一些相关配套设施和工具可以提供更全面和高效的支持。而这类配套设施、工具的之间的差异,也决定了最终的测试领域 AIGC 模型的落地效果。

  • LangChain:LangChain 是一个用于开发由大语言模型(Large Language Model)驱动的应用程序的框架。 在各项试用、调研中可以发现,对于 LangChain 模板化的 Prompt 要求,适配能力最好的是 ChatGPT,而各类开源模型对于 Prompt 的理解、生成能力均无法赶上 ChatGPT。如果需要进行适配则又增加了另一层的开发、训练成本,而这个差别将决定了最终模型的应用效果。

  • 各类插件:ChatGPT 插件的推出带来了各类多模态信息的理解能力,以及对于实时信息的获取能力。而各类插件的差距又将制约最终测试领域 AIGC 模型的落地效果。

3.2.3 训练、微调面临的困难

当我们跨过了重重门槛,将数据收集、清洗完成后。在使用这些数据进行质量领域 AIGC 模型训练、微调、embedding 时,接下来会面临如下困难:

  1. 计算资源需求:大模型的训练和微调通常需要大量的计算资源,包括高性能的硬件设备和大规模的数据集。众所周知现在 A100 一卡难求,各大公司均在疯狂采购。而各类大模型底座训练所面临的显存墙又真实的拦在大家的面前。
  2. 模型调优和参数设置:对于大模型的训练和微调,调优和参数设置变得更加困难。由于模型规模和复杂性的增加,需要更多的实验和调试来找到最佳的参数配置和调优策略。这需要专业的知识和经验来确保模型的性能和鲁棒性。
  3. 迁移学习和领域适应:在使用大模型进行微调时,迁移学习和领域适应是一个重要的问题。大模型在不同领域或任务上的表现可能有所不同,需要进行适当的微调和调整,以提高模型在特定领域或任务中的性能和效果。

3.3 模型能力的评估

目前市面上针对模型底座的各项能力均有较为完善的评估方案,诸如: MMLU (英文)、C-Eval(中文)、GSM8K(数学)、BBH(英文)等。目前市面上还未出现针对测试领域 AIGC 模型能力评估的通用方案,而完成模型训练后,准确的评估模型的能力,进而判断是否能够真实的投入使用是一项新的挑战。构建模型能力评估体系将面临一系列的困难和挑战:

  1. 多样性的测试场景:测试领域涵盖了各种各样的测试场景,包括功能测试、性能测试、安全测试等。评估模型的整体能力需要考虑到这些不同场景的需求和特点。确保评估覆盖多样性的测试场景是一个挑战,需要选择适当的测试用例和评估指标,并设计合理的评估流程。
  2. 大规模数据的处理:评估测试领域 AIGC 模型的整体能力通常需要使用大规模的测试数据集。收集、处理和标注大规模的测试数据集是一项耗时且资源密集的任务。同时,数据的质量和准确性对评估结果的可靠性至关重要。因此,处理大规模数据和保证数据质量是评估的困难之一。
  3. 评估指标的选择:选择适当的评估指标对于评估模型的整体能力至关重要。测试领域的特殊需求可能需要特定的评估指标,如覆盖率、准确率、召回率、误报率等。确定合适的评估指标需要综合考虑测试领域的特点和模型的应用场景,确保评估结果对模型性能有意义。
  4. 人工评估的主观性:评估测试领域 AIGC 模型的整体能力通常需要进行人工评估。然而,人工评估往往存在主观性和主观偏差的问题。不同的评估者可能有不同的判断和标准,导致评估结果的不一致性。因此,为了减少主观性的影响,需要建立评估的标准化流程和明确的评估准则。
  5. 模型的可解释性和信任度:测试领域的 AIGC 模型通常需要具备可解释性和可信任度。评估模型的整体能力需要理解和解释模型的决策过程,并确定其是否与测试领域的规则和标准一致。评估过程中需要开发相应的方法和工具,以增强模型的可解释性和信任度。
  6. 模型的泛化能力:评估测试领域 AIGC 模型的整体能力还需要考虑模型的泛化能力。模型在训练数据之外的数据上的性能是评估的重要指标。确保模型能够在新领域、新测试场景或未知数据上具备良好的性能,需要进行额外的评估和验证。 评估训练和微调出来的测试领域 AIGC 模型的整体能力面临多样性的测试场景、大规模数据的处理、评估指标的选择、人工评估的主观性、模型的可解释性和信任度,以及模型的泛化能力等困难。解决这些困难需要综合运用数据处理技术、合适的评估指标和方法,并保证评估过程的客观性和可靠性。

3.4 Model2Test 所面临的困难

AIGC 在测试领域的一个关键应用是自动生成和执行测试用例。然而,自动生成测试用例是一个复杂的任务,需要考虑到不同的测试需求、系统约束和功能覆盖等因素。此外,自动执行测试用例时还需要解决自动化环境配置和管理的问题。确保 AIGC 能够生成合理、有效且具有高覆盖率的测试用例,以及能够自动执行这些用例,是一个具有挑战性的任务。在测试领域,测试用例生成是一个重要的任务,而目前比较现实的两个用例生成方向是 Code2Test 和 Text2Test。以下是对这两个方向所面临的困难进一步阐述:

3.4.1 Code2Test

Code2Test 是一种测试用例生成的方法,它通过分析源代码来自动生成相应的测试用例。该方法主要针对软件系统的源代码进行分析,以识别潜在的测试需求和覆盖范围。通过深入分析代码的结构、逻辑和约束,Code2Test 可以生成符合特定测试目标的测试用例。
Code2Test 的核心思想是将源代码中的代码块、函数和方法等转化为测试用例。它可以自动抽取代码中的关键路径、边界条件、异常情况等,以生成具有高覆盖率和有效性的测试用例。该方法可以大大减少测试人员手动编写测试用例的工作量,并提高测试的全面性和准确性。
尽管 Code2Test 作为一种测试用例生成方法具有很大的潜力,但在实际应用中仍然存在一些潜在的困难点。以下是对 Code2Test 中可能遇到的困难的阐述:

  1. 代码复杂性和多样性:软件系统中的源代码通常是复杂的,涉及到不同的编程语言、框架和库。这种复杂性和多样性增加了分析和理解代码的难度,从而影响了 Code2Test 的性能和准确性。不同编程语言和框架的语法和语义差异可能需要特殊处理和定制化的分析技术。
  2. 动态代码和运行时行为:某些软件系统可能包含动态生成的代码、反射、插件等机制,这增加了对代码分析的复杂性。在这种情况下,静态代码分析可能无法完全捕获代码的行为和路径。Code2Test 可能需要结合动态分析和运行时监测等技术来处理这些情况。
  3. 隐式逻辑和难以捕获的约束:代码中存在一些隐式的逻辑和难以捕获的约束,这可能会导致 Code2Test 无法完全捕捉到测试需求和覆盖范围。例如,一些约束可能在运行时才能被触发,或者依赖于外部环境和数据。对于这些情况,Code2Test 需要引入更复杂的分析技术来检测和处理这些隐含的约束。
  4. 错误处理和异常情况:代码中的错误处理和异常情况是测试中重要的覆盖范围,但这些情况往往比较复杂且多变。Code2Test 需要能够有效地捕获和处理代码中的错误路径和异常情况,以生成具有高覆盖率和有效性的测试用例。这需要对代码中的错误处理机制和异常情况进行深入的分析和建模。
  5. 数据依赖和环境依赖:测试用例的生成可能受到数据依赖和环境依赖的影响。某些测试用例可能需要特定的数据输入或特定的运行环境才能被执行。Code2Test 需要解决数据和环境的相关性,确保生成的测试用例能够在正确的环境中运行并产生期望的结果。

3.4.2 Text2Test

Text2Test 是另一种测试用例生成的方法,它通过分析文本文档(如需求文档、规范文档、用户故事等)来生成相应的测试用例。该方法主要关注文本中的语义、关键词和业务逻辑,以从中提取测试需求并生成相应的测试用例。
Text2Test 的关键在于将自然语言文本转化为可执行的测试用例。它使用自然语言处理和文本分析技术,识别和提取文本中的关键信息,然后将其转化为测试用例的输入、操作和预期输出。这种方法使测试人员能够以自然语言的形式描述测试需求,而不需要编写繁琐的代码。
虽然 Text2Test 作为一种测试用例生成方法具有很大的潜力,但在实际应用中仍然存在一些潜在的困难点。以下是对 Text2Test 可能遇到的困难的阐述:

  1. 自然语言的歧义性:自然语言文本中存在歧义性,同样的描述可能有不同的解释和理解。这使得将自然语言文本准确转化为可执行的测试用例具有挑战性。测试用例生成过程中需要解决文本中的歧义性问题,并确保生成的测试用例符合预期和准确反映文本的含义。
  2. 信息缺失和不完整性:自然语言文本可能存在信息缺失或不完整的情况,特别是在需求文档或用户故事中。这会影响测试用例的生成过程,因为缺失的信息可能导致生成的测试用例不完备或不准确。因此,需要考虑如何处理缺失的信息,填补信息的空白,并确保生成的测试用例具有完整性和可靠性。
  3. 大规模文本处理的复杂性:处理大规模的自然语言文本是一项复杂的任务。大规模文本可能包含大量的需求或故事,需要高效的文本分析和处理技术。为了进行高效的测试用例生成,需要采用有效的文本处理算法和技术,以处理大规模文本并提取其中的测试需求。
  4. 领域特定语言和行业术语:不同的领域和行业可能有其特定的语言和术语,测试用例的生成需要理解和适应这些特定的语言和术语。对于领域特定语言和行业术语的识别和理解是一项挑战,需要建立专业知识和语料库,以便正确地转化为测试用例。
  5. 文本噪声和冗余信息:自然语言文本中常常包含噪声和冗余的信息,如修饰词、重复词、不必要的细节等。这些噪声和冗余信息可能会干扰测试用例生成过程,导致生成的测试用例不准确或冗长。在生成测试用例之前,需要进行文本清洗和预处理,以消除噪声和冗余信息,提高测试用例的质量和可读性。

3.5 与人类测试人员的协作和交互

在 AIGC 生成测试数据的过程中,与人类测试人员的协作和交互是至关重要的。然而,这种协作和交互可能面临一些困难点。以下是与人类测试人员的协作和交互中可能遇到的困难点:

  1. 语言和沟通障碍:人类测试人员和 AIGC 之间存在语言和沟通的差异。AIGC 可能是基于自然语言的模型,但它仍然受限于语义理解和表达的能力。这可能导致测试人员与 AIGC 之间的沟通困难,理解测试需求、提出问题或解释决策时存在歧义或误解。
  2. 误导性和误解的风险:AIGC 生成的测试数据可能会引导人类测试人员朝错误的方向进行测试,或者产生误导性的结果。这可能是因为 AIGC 的训练数据、模型偏差或不完备的测试需求造成的。人类测试人员需要对 AIGC 生成的测试数据进行验证和评估,并及时纠正可能的误导或误解。
  3. 对模型信任的挑战:人类测试人员可能对 AIGC 的可靠性和准确性存在怀疑和不确定性。这是因为 AIGC 是一个自动化的系统,其决策和预测过程对测试人员来说可能是不可解释的黑盒子。测试人员需要逐渐建立对 AIGC 的信任,并在需要时进行验证和审查。
  4. 人机交互的复杂性:人类测试人员与 AIGC 进行实时的人机交互和对话时,可能会面临复杂的交互过程和反馈机制。测试人员可能需要提供明确的指导、询问和解释,以确保 AIGC 能够生成满足测试需求的测试数据。这需要测试人员具备良好的沟通和解释能力,并理解 AIGC 的工作原理和限制。
  5. 人类测试经验的重要性:虽然 AIGC 具有强大的自动化和智能化能力,但人类测试人员的经验和专业知识仍然是宝贵的资源。测试人员的专业判断、领域知识和质量意识对于测试过程的有效性和准确性至关重要。测试人员需要能够正确地评估 AIGC 生成的测试数据,并结合自身的经验进行补充和调整。

3.6 产品形态的困扰

上述所有的困难均集中在了模型这个关键能力点上,而假设我们拥有了能力突出的模型后,所需要面临的下一个困难将是依托于模型,如何构建产品形态来改变当前的业务质量保障工作流、满足各类型的质量、效能、风险平台需求。
依托 Embedding 所带来的知识库、对话能力构建产品形态是一件显然意见的事情,目前测试领域 AIGC 模型的最快落地 MVP 即为对话机器人/知识库应用。这一类应用产品形态所带来的困扰并不会成为整个投产过程中的重点。
而基于测试领域 AIGC 模型构建各类测试产品时,可能会面临产品形态选择困难。这是因为测试领域的需求多样,涵盖了各种不同的测试类型和场景。以下是一些可能的困难:

  1. 广泛的测试需求:测试领域涉及到功能测试、性能测试、安全测试、自动化测试等各种测试类型和子领域。不同类型的测试可能需要不同的功能和特性。
  2. 定制化和灵活性:不同的业务有着不同的测试需求、工作流程以及质量重点。测试产品需要具备一定的定制化和灵活性,以适应不同用户的特定需求。
  3. 数据和模型集成:测试领域的 AIGC 模型通常需要与各种测试数据和模型进行集成。这可能涉及到数据预处理、特征工程、模型选择等方面的问题。产品形态的选择需要考虑如何与现有的测试数据和模型集成,并提供高效的数据处理和模型集成能力。
  4. 用户接口和交互设计:测试产品需要提供易于使用的用户接口和良好的用户体验。用户接口的设计应该符合测试人员的工作习惯和需求,并提供直观、简洁的操作界面。
  5. 效果验证和可信度:测试领域的 AIGC 模型的效果验证和可信度是关键问题。用户对于测试产品的效果和可靠性有较高的期望。因此,在产品形态的选择中,需要考虑如何验证模型的性能、如何提供可解释性和可靠性,并保证测试结果的准确性和可信度。 产品形态选择与基于测试领域 AIGC 模型的商业化密切相关。正确选择产品形态可以为商业化打下基础,影响商业化策略、推广活动和盈利模式。产品形态需要与商业化策略相匹配,与推广活动一体化,以提高产品的市场认知度和盈利能力。正确的产品形态选择是实现模型商业化成功的关键。

3.7 测试工具 SaaS 化的数据可用不可见问题

当测试领域 AIGC 模型构建为 SaaS 服务后,为保护用户的数据隐私和安全,常常会采用隐私计算技术。这种技术允许用户在不暴露原始数据的情况下,利用大模型的能力进行处理和分析。而因隐私计算带来的数据可用不可见问题,以下是对该问题的阐述:

  1. 数据不可见导致模型理解障碍:对于大模型来说,无法直接访问和观察原始数据可能导致模型理解障碍。大型模型通常通过学习和分析数据中的模式和特征来进行训练和调优。如果数据对模型不可见,模型将无法直接观察和理解数据的特征和分布,从而限制了模型的学习和优化能力。
  2. 数据不可见限制模型优化和调优:在测试领域 AIGC 模型构建成 SaaS 服务的情况下,用户上传的数据经过隐私计算技术的保护,使得原始数据对于大模型不可见。这可能导致模型在进一步优化和调优过程中受限。模型无法直接观察和分析数据的细节,从而限制了模型对数据特征的挖掘和优化。
  3. 缺乏针对性和个性化的调优:大模型的调优通常需要根据数据的特点和分布进行针对性的调整。然而,当数据对于大模型不可见时,模型可能无法针对性地调整和优化。无法直接观察和理解数据的特征,可能导致模型在调优过程中缺乏个性化和精细化的调整,从而影响模型的性能和适应性。
  4. 数据采样和噪声问题:为了保护数据隐私,经过隐私计算技术处理后的数据可能会被采样或添加噪声。这可能导致数据分布的改变和信息的丢失,进而影响模型的训练和调优结果。模型可能受到数据采样和噪声引入的影响,无法准确地建模和优化数据的真实分布。

四、写在最后

本文旨在探讨在测试领域投入 AIGC 技术的困难点,并通过对不同方面的讨论引发进一步的讨论和推动,以推动测试领域 AIGC 模型的广泛应用和建设。
尽管在测试领域投入 AIGC 技术面临一些困难和挑战,但我们坚信 AIGC 大模型在未来将主导测试领域。通过不断探索和创新,解决数据质量、模型可解释性、数据处理和模型训练、评估等等问题,我们可以进一步推动 AIGC 技术在测试领域的广泛讨论和应用。
本文的目的是抛砖引玉,鼓励更多的讨论和研究,促进测试领域 AIGC 技术的发展和应用。我们希望通过共享知识和经验,推动 AIGC 技术在测试领域的建设,为测试工作提供更高效、准确和创新的解决方案。

共收到 23 条回复 时间 点赞
恒温 将本帖设为了精华贴 07月10日 23:15

把 AI 想的太好了。

沫沫sir 回复

深有同感~

功能测试人要失业了?

同感,像是 AI 写的,内容有点虚

这内容有点虚,精华贴也改为 AI 设置了?

虚在哪里?莫不是你们自己都趟过一遍了?

kuroky 回复

我加精的,这是我们实践遇到困难,结合当下的调研,梳理出来的。如果没有自己做过这块,建议先自己完整的做一遍。

说虚的,本篇文章的标题就强调了,不是成果展示文章,而是分享困难

kuroky 回复

如果抱着看成果的心态点进来,觉得虚倒也正常。这也就是为什么标题强调了 “困难点”,文章中所有的点都是我们在实践的过程中实际遇到的问题点。结尾也明确表达了本文的目的是把问题定义并抛出来,期望大家能够集思广益想一些攻克的办法,我们也会在接下来实践取得一定成果以后分享我们的实践思路和效果。

AIGC 现在能做的是对人能力的扩展,增加效率;如果要替代人,从效果上看,还没有那时候。

X4VIERLI 回复

欢迎分享

15楼 已删除
陈恒捷 基于人工智能的测试流程 中提及了此贴 07月28日 10:41
陈恒捷 基于人工智能的测试流程 中提及了此贴 07月28日 10:41

想问下 LZ 有没有评估过 在当下投入哪个方向才会比较有价值呢,看来看去感觉除了搭知识库,短期内大语言模型对测试的帮助很有限

AIGC 的到来,是否能打破软件必然存在 bug 的魔咒?

不测功能,那就测 AI 的结果了。测试是需要确定的结果。

现在的 AI,比较多的帮助就是文案和作图吧?

文案是 AI 写的无疑

核心就是需要大量的测试数据去喂它,不断的训练它,待训练完成,合格毕业后方可上岗。

TesterHome小助手 你们的 AI 赋能测试,成功没? 中提及了此贴 11月15日 10:33
TesterHome小助手 你们的 AI 赋能测试,成功没? 中提及了此贴 11月15日 10:33

AIGC 代替测试的道路应该很漫长,但是在那种接口自动化层面,我觉得有一定的作用,毕竟接口代码是比较好处理的,而且测试的手段比较小,只要告诉 AI 具体要关注哪些测试点,那么快速生成并自动执行,同时返回测试结果,这个应该是比较好操作的

用 aigc 直接生成功能测试用例确实很麻烦,很多异常场景 gpt 都不能给出,它给出的更像是文档的翻译,app 常用的测试点,切后台,返回手势,等都没有涉及。我在想 如果大量输入我们公司之前的数据 可能好一点,但是又怕数据泄漏

半年后看这篇文章,很多问题在逐步得到改善和解决,这种精华帖不知道为啥还有人在喷,我觉得挺有启发意义的。目前 AGI 每天一个新闻,多模态加持下的大模型在逐步演进,Germini1.5 已经发布,GPT5 也不远。未来将是我们测试人员努力学习 AGI 并且结合实际落地了。想想给大家剩下的时间已经不多了。

我就想知道工具呢?

Baoding 大模型应用提升效率 中提及了此贴 05月14日 14:28
需要 登录 后方可回复, 如果你还没有账号请点击这里 注册