职业经验 社区这类事儿如何在测试环节避免?

Ouroboros · 2022年01月04日 · 最后由 jinglebell 回复于 2022年01月06日 · 1152 次阅读

感觉内容类的产品,都可能出现这种问题。
基于风险的测试的话,现有的通用风险识别框架好像没有特意提这一块,容易忽略。

共收到 9 条回复 时间 点赞

逆向思考啊,你要是坏人搞破坏会怎么搞

社区其实最怕的就是违禁词

恒温 回复

现在的审核时是人工审核吗?

是啊,抽空看看。

很想知道上次到底是因为什么言论导致的社区被封

这个其实已经超出测试环节的范畴了。

毕竟准确识别违规内容,这玩意相比普通的测试,更接近于机器学习里面的分类问题了,而且进一步说,因为有商业利益在(SEO 权重高,就会被利用作为推广手段),对方很可能使用到安全攻防相关手段(比如直接木马注入,跳过所有的程序写逻辑防护),这已经不是单单测试可以搞定的了。测试用例防范的是普通用户的不规范操作或者程序可能出现的异常,但很难防范别有用心用户的精心操作。比如 Log4j 这个漏洞,估计 99% 用 log4j 的人都想不到这个使用姿势。

PS:最近学习了一个冷知识 零宽字符 ,有兴趣可以去看看,很可能公司自家的敏感词屏蔽没防护到这个。

咸鱼菜鸡 回复

就是一眼就能看出来的垃圾信息,比如可以帮开发票这些。

陈恒捷 回复

作为 CV 程序员的我,早就注意到有些 CV 下来里面就用了这玩意儿打了个水印。。。哈哈

不是测试环节如何避免,而是流程机制上如何避免,涉及算法和人工审核流程的分类粒度。比如,国内主流的新闻类应用,在发布或转发很严肃的内容时,至少是算法一遍,人工两遍,但社区这类开源技术类论坛明显不可能投那么大成本。所以,只能维护的大佬们在实践中求一个相对平衡点。哎,我知道我说了一大堆废话,但个人觉得现实就是这么回事。

需要 登录 后方可回复, 如果你还没有账号请点击这里 注册