这个问题可能是由于 StaleElementReferenceException 异常引起的,这意味着当 Selenium 尝试操作一个元素时,该元素在 DOM 中已发生改变或不再存在。在微前端框架(如 single-spa、qiankun 等)中,由于其动态加载和渲染机制,可能会导致这种问题。
针对这种情况,你可以尝试以下策略:
ExpectedConditions 配合 WebDriverWait 来等待元素可交互状态:from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
wait = WebDriverWait(driver, 10) # 设置最长等待时间
element = wait.until(EC.element_to_be_clickable((By.XPATH, "//div[@id='app-alarm-search']/div/div[1]/div/button[1]")))
element.click()
def is_element_present(xpath):
try:
driver.find_element(By.XPATH, xpath)
return True
except NoSuchElementException:
return False
while is_element_present("//div[@id='app-alarm-search']/div/div[1]/div/button[1]"):
element = driver.find_element(By.XPATH, "//div[@id='app-alarm-search']/div/div[1]/div/button[1]")
if element.is_displayed():
element.click()
break
身体保护好,赚钱的机会有的是。
在使用测试框架(如 PyTest、unittest 等)编写自动化测试用例时,推荐采用多个独立的测试方法(如 test_case1(), test_case2(), test_case3()),分别对应不同的测试点。原因如下:
可读性与维护性:每个测试方法只关注一个特定的测试点,使得测试逻辑清晰明了,方便阅读和理解。当某个测试点需要修改或排查问题时,不会影响到其他测试点。
原子性:每个测试方法应当是独立且完整的,即每个测试用例的成功或失败不应依赖于其他测试用例的结果。如果将多个测试点放在一个测试方法中,一旦其中一个测试点失败,可能导致整个测试用例失败,无法准确判断其他测试点是否正常。
报告粒度:在生成测试报告时,每个测试方法的结果都会单独体现,有利于快速定位问题所在。
并行执行:很多测试框架支持测试用例的并行执行,如果每个测试点都是独立的方法,那么可以同时进行测试,提高测试效率。
综上所述,建议按照第一个示例的方式组织测试用例代码。
然而,如果你有一些测试点是紧密相关的,或者需要在相同的测试环境下进行多个测试,你可以考虑将这些测试点放在同一个测试用例中。但即使在这种情况下,也建议尽可能将每个测试点分开成独立的测试用例,因为这样可以更好地组织代码,使其更易于阅读和维护。
总的来说,建议每个测试用例只关注一个特定的测试点或功能点。这样可以使你的测试代码更加清晰、可维护和可扩展。
二宝,恭喜
点赞,祝越来越好
@debugtalk 找框架的开发者问问
可以考,虽然在 IT 行业没有什么用,多学点总不是坏事情
针对你的滚动查询和删除问题,以下是一些优化建议:
scroll 时间设置:2m 的滚动时间可能较长,这会占用更多的资源。你可以尝试将滚动时间减少到 1m 或者更短,看看是否会影响数据处理的稳定性。理想情况下,滚动时间应该足够长以处理一批数据,但又不能过长以免占用过多资源。size 设置:你目前设置为 10000,这个值可以根据你的系统性能和数据处理速度进行调整。如果处理速度较慢,可以尝试减小 size,比如设置为 5000 或 2000,这样每次处理的数据量会减少,可能会提高处理效率。但是请注意,减小 size 会增加网络通信的次数,需要找到一个平衡点。另外,你可以在处理数据的过程中记录下处理时间和数据量,根据这些信息来动态调整 scroll 时间和 size。
_delete_by_query 时,添加 conflicts=proceed 参数可以避免因冲突而导致的删除失败,这是一个好的做法。scroll_size=10000 参数用于控制每次批量删除的数量,这个值可以根据你的系统性能进行调整。如果你的系统能够承受更大的批量删除操作,可以适当增大这个值,但要注意不要过大导致系统压力过大。wait_for_completion=false 参数表示异步删除,这是正确的做法,可以避免长时间阻塞等待删除操作完成。如果你发现数据量太大导致删除失败,可以考虑分批删除或者在数据生成后立即进行删除,以减少数据积累。
哈哈哈,笑死我了
以下是一些可能的解决方案和建议:
滚动查询优化:
大批量数据删除:
数据保留策略:
对于 CPU 高和 load 高的问题,除了上述的优化措施外,还需要检查服务器的硬件资源是否足够,以及 Elasticsearch 集群的配置是否合理。可能需要增加硬件资源,或者调整 Elasticsearch 的 JVM 参数、索引分片数等配置以优化性能。
理论上,本地是可以搭建一个类似 Copilot 的编辑工具的,但这需要考虑以下几个关键因素:
训练数据:Copilot 的强大之处在于它基于大量的公开代码(如 GitHub 上的代码)进行训练。如果你的项目代码没有上传到 Git,那么你无法利用类似的海量数据进行训练。但是,你可以尝试使用你的本地项目代码和相关文档作为训练数据,尽管这可能会限制 AI 模型的能力和准确性。
模型选择和训练:你需要选择一个适合代码生成的 AI 模型,如 GPT-3、GPT-4 或其他开源变体。然后,使用你的本地项目数据对模型进行训练或微调。这可能需要相当大的计算资源和专业知识。
集成到编辑器:将训练好的模型集成到你的代码编辑器中,如 VSCode、IntelliJ IDEA 等,以提供代码补全和建议功能。这可能需要开发插件或者使用已有的框架和库。
自然语言交互:如果你想实现类似 Chat 的自然语言交互来查找和调用函数,你可能需要在模型之上构建一个对话系统。这可能涉及到自然语言理解(NLU)、对话管理(DM)和自然语言生成(NLG)等技术。
以下是一种可能的实现方案:
需要注意的是,这种方法的复杂性和效果取决于你的项目规模、代码质量、可用的计算资源以及团队的技术能力。与 Copilot 相比,本地搭建的工具可能在代码建议的质量和广度上存在差距,但针对你的特定项目,它仍有可能提供一定的辅助作用。
你的测试逻辑已经相当详细和全面,以下是一些可能的优化和补充建议:
自动化测试:你可以考虑使用游戏测试自动化工具或者编程语言(如 Python、Java 等)编写脚本进行自动化测试。例如,可以编写脚本自动执行布阵、战斗、检查 BUFF 和 DEBUFF 等操作,并自动比较预期结果和实际结果。
数据驱动测试:你可以创建一个包含各种卡牌组合、技能参数、战斗环境等因素的数据集,然后使用数据驱动的测试方法来遍历所有可能的情况。
性能测试:除了功能测试外,你还需要考虑性能测试。例如,测试在大规模战斗中,技能的触发和效果是否仍然正常,游戏的帧率和延迟是否在可接受范围内。
异常测试:测试在各种异常情况下,技能的效果是否仍然正常。例如,网络中断、游戏崩溃、卡牌被移除等情况下,BUFF 和 DEBUFF 是否正确清除。
回归测试:每次修改或添加新的卡牌、技能、羁绊等元素后,都需要进行回归测试,确保现有的功能没有被破坏。
使用专门的游戏测试工具:市面上有一些专门的游戏测试工具,如 Unity Test Tools、Unreal Engine's Automation Tool 等,可以帮助你更方便地进行游戏测试。
与开发团队紧密合作:测试人员需要与开发团队紧密合作,了解游戏的设计和实现细节,以便更准确地定位和解决问题。
以下是一些更具体和有价值的建议:
卷到公司倒闭,笑死我了
在你的代码中,你已经找到了匹配的文件名,但是没有返回文件的绝对路径。要获取文件的绝对路径,你可以简单地将找到的文件名与当前目录(root)合并使用 os.path.join() 方法:
import os
import fnmatch
def find_file_by_key(path: str, key: str):
"""
遍历目录模糊匹配文件并返回其绝对路径
:param path: 公盘路径
:param key: 搜索关键字
:return: 文件的绝对路径或者 None 如果没有找到匹配的文件
"""
for root, dirs, files in os.walk(path):
for f in files:
if fnmatch.fnmatch(f, '*' + key + '.pdf'):
return os.path.join(root, f) # 返回找到的文件的绝对路径
return None # 如果没有找到匹配的文件,返回 None
这个修改后的函数会返回第一个匹配到的文件的绝对路径。如果你想要返回所有匹配的文件的绝对路径,你可以将它们存储在一个列表中并返回该列表:
import os
import fnmatch
def find_file_by_key(path: str, key: str):
"""
遍历目录模糊匹配文件并返回其绝对路径列表
:param path: 公盘路径
:param key: 搜索关键字
:return: 包含匹配文件绝对路径的列表 或者 空列表 如果没有找到匹配的文件
"""
matching_files = []
for root, dirs, files in os.walk(path):
for f in files:
if fnmatch.fnmatch(f, '*' + key + '.pdf'):
matching_files.append(os.path.join(root, f)) # 添加找到的文件的绝对路径到列表中
return matching_files # 返回包含所有匹配文件绝对路径的列表
错误日期已更新
现身说法,外企制造业,确实整体上是 WLB,内卷不是很严重。
你可以尝试使用 Allure 的标签功能来区分不同的环境。在执行测试时,为每个环境打上相应的标签,例如 @test 和 @pre-release 等。然后在 Allure 报告中,你可以选择按标签进行筛选,从而分别查看各个环境的测试结果。
此外,你也可以考虑使用 Jenkins 的参数化构建功能,在每次构建时指定要使用的环境。这样,你就可以在一个 Job 中为多个环境生成 Allure 报告了。
具体步骤如下:
年终总结走一波

这个问题看起来像是 Grafana 无法连接到 InfluxDB 的问题。这可能有几个原因:
首先,你可以尝试确认 InfluxDB 服务是否正在运行。你可以通过在你的终端中运行以下命令来检查:
sudo service influxdb status
如果 InfluxDB 服务没有运行,你可以通过运行以下命令来启动它:
sudo systemctl start influxdb
如果你确认 InfluxDB 服务正在运行,但是仍然无法连接,那么你可能需要检查你的 JMeter 和 Grafana 容器的网络配置。你可以在你的 Docker 容器中运行以下命令来查看他们的网络端口:
sudo docker ps -a | grep -i influxdb
sudo docker ps -a | grep -i grafana
这些命令将显示你的 InfluxDB 和 Grafana 容器的网络端口。然后,你可以将这些端口转发到你的主机的端口,以便你的 JMeter 容器可以访问它们。你可以通过运行以下命令来转发 InfluxDB 的 8086 端口:
sudo docker port influxdb 8086
sudo docker port influxdb 8086 -p 8086:8086
然后,你可以将 Grafana 的 80 端口转发到你的主机的 80 端口:
sudo docker port grafana 80
sudo docker port grafana 80 -p 80:80
最后,你可以通过运行以下命令来确认这些端口转发是否成功:
sudo docker port influxdb
sudo docker port grafana
如果这些端口转发成功,你应该能够在你的主机上通过http://localhost:8086和http://localhost:80访问 InfluxDB 和 Grafana,然后你应该能够在 Grafana 中使用这些 URL 来显示你的 JMeter 测量。
你就正常上下班,耗着,不要主动离职,保留一切对自己的有力证据,如果裁你,直接去举报,要赔偿金。
这边没有什么工作能给我安排,并且认为我不配合工作,你们公司就靠着一个产品生存?另外产品都交付了,为啥要去客户那边,做技术支持?
非我直属领导的领导,有什么权利指挥你?你应该找直属领导寻求帮助。
传统制造业,直接无视这个节日。
赞,厉害
恭喜恭喜