感谢分享,我最近去了新公司,也准备做大数据造数的平台~
很简单,http 接口接收到参数,启动 mqtt 的生产者,发送就行
一旦提离职了,就没有回头路。
看到社区的公众号推送了,并且也有我的答案。
那我还是补一下坑~
import random
from collections import Counter
def get_str() -> str:
random_str = [str(random.randint(0, 1)) for _ in range(40)]
return "".join(random_str)
def get_hash(s) -> int:
return abs(hash(s))
def get_random() -> int:
s: str = get_str()
h: int = get_hash(s)
return h % 1001
def main():
res = []
for _ in range(10000):
r = get_random()
res.append(r)
c = Counter(res)
# 所有结果,最多只有1000个
count_all = c.most_common(1000)
# 出现次数最多的前10个
print(count_all[:10])
# 出现结果最少的10个
print(count_all[-10:])
d = dict(c)
# 1000出现的次数
print(d.get(1000))
# 500出现的次数
print(d.get(500))
# 0出现的次数
print(d.get(0))
if __name__ == '__main__':
main()
[(109, 23), (387, 21), (696, 20), (867, 20), (900, 19), (354, 19), (625, 19), (444, 19), (563, 18), (70, 18)]
[(738, 3), (77, 3), (603, 3), (800, 3), (106, 3), (780, 2), (228, 2), (22, 2), (778, 2), (107, 2)]
13
16
6
不同的实现方式。
BugDestroyer
哈希值是由前面生成的随机字符串决定的呀。这样才会更加均匀
abs(hash(str(f))) % 1000
超过 25
嘿嘿,这个不太方便
offer 合适就离开~
深圳二线厂
学习算法可以锻炼几种能力:
tps 的时间统计,在代码中有体现,是单个请求维度的。
locust 没有 tps 的概念,是 rps。
另外本次压测最关注的点是消息是否有丢失,和最大并发量。至于响应时间,并不是最重要的。
每天都有这个弹窗,我明明已经取消了自动更新。
有 Mac 阻止升级提示吗?
现在是 10.15.7,不想升级 bigsur,但又天天提醒,挺烦的。
不支持。
但我想,YAPI 的用例集已经一个成熟的用例,它应该学会自动跑过来才行。
说说我做的吧
自动化产生的数据是要清理,但立刻清理的做法我认为不妥。定期清理可能会更好。
新数据我觉得不算偏门,我们也是这么做。
teardown 删除我觉得并不是很好,不利于排查问题。
好东西,还差一个 Flink
可以讲一下 postman 的 mock
懂大数据常用的组件 hbase hive kafka es redis 这些就差不多啦,再高级的就是理解 Flink Spark 这些程序原理,遇到问题能够看代码定位,再再高级可能就是对 Flink 算子进行分析,提出优化建议等等
大数据可以分为两种,实时计算和离线计算,你用到这两个组件是大数据很常用的。
具体算不算,我也不知道怎么定义比较好。