感觉内容类的产品,都可能出现这种问题。 基于风险的测试的话,现有的通用风险识别框架好像没有特意提这一块,容易忽略。
逆向思考啊,你要是坏人搞破坏会怎么搞
社区其实最怕的就是违禁词
现在的审核时是人工审核吗?
是啊,抽空看看。
很想知道上次到底是因为什么言论导致的社区被封
这个其实已经超出测试环节的范畴了。
毕竟准确识别违规内容,这玩意相比普通的测试,更接近于机器学习里面的分类问题了,而且进一步说,因为有商业利益在(SEO 权重高,就会被利用作为推广手段),对方很可能使用到安全攻防相关手段(比如直接木马注入,跳过所有的程序写逻辑防护),这已经不是单单测试可以搞定的了。测试用例防范的是普通用户的不规范操作或者程序可能出现的异常,但很难防范别有用心用户的精心操作。比如 Log4j 这个漏洞,估计 99% 用 log4j 的人都想不到这个使用姿势。
PS:最近学习了一个冷知识 零宽字符 ,有兴趣可以去看看,很可能公司自家的敏感词屏蔽没防护到这个。
就是一眼就能看出来的垃圾信息,比如可以帮开发票这些。
作为 CV 程序员的我,早就注意到有些 CV 下来里面就用了这玩意儿打了个水印。。。哈哈
不是测试环节如何避免,而是流程机制上如何避免,涉及算法和人工审核流程的分类粒度。比如,国内主流的新闻类应用,在发布或转发很严肃的内容时,至少是算法一遍,人工两遍,但社区这类开源技术类论坛明显不可能投那么大成本。所以,只能维护的大佬们在实践中求一个相对平衡点。哎,我知道我说了一大堆废话,但个人觉得现实就是这么回事。