AI测试 机器狗装上 ChatGPT 大脑当导游;AI 正在学习「超人的说服力」丨 RTE 开发者日报 Vol.73

RTE开发者社区 · 2023年10月30日 · 2193 次阅读

开发者朋友们大家好:

这里是 「RTE 开发者日报」 ,每天和大家一起看新闻、聊八卦。我们的社区编辑团队会整理分享 RTE(Real Time Engagement)领域内「有话题的 新闻 」、「有态度的 观点 」、「有意思的 数据 」、「有思考的 文章 」、「有看点的 会议 」,但内容仅代表编辑的个人观点,欢迎大家留言、跟帖、讨论。

本期编辑:@Asui@CY

01 有话题的新闻

1、波士顿动力机器狗装上 ChatGPT 大脑当导游

近日,全球顶级机器人开发商波士顿动力在官网展示了将机器狗与 LLM 集成的成果——会说话的导游机器狗:「Spot 先生」戴着高礼帽,留着小胡子,有着大眼睛和英国口音,正带人参观公司的设施。

为了让 Spot 能够「开口」,波士顿动力公司使用 OpenAI 的 ChatGPT API 以及一些开源 LLM 来训练,然后为机器人配备了扬声器,添加了文本到语音转换的功能。(@ 机器之心)

2、智谱 AI 推出第三代基座大模型

27 日,智谱 AI 推出了全自研的第三代基座大模型 ChatGLM3 及相关系列产品。评测显示,与 ChatGLM 二代模型相比,在 44 个中英文公开数据集测试中,ChatGLM3 在国内同尺寸模型中排名首位。其中,MMLU 提升 36%、CEval 提升 33%、GSM8K 提升 179%、BBH 提升 126%。(@ 开源中国)

3、一文读懂量子计算:现已进入 “实用阶段”,“量子时代” 即将到来

量子计算,这一新兴科学领域的潜力被许多国家和公司重视。IBM 和谷歌均已推出量子计算系统,被视为 “实用” 阶段。虽然全球量子计算行业的增长率仅为 1%,但初创企业在 2022 年获得的投资总额达到 23.5 亿美元。预计在未来十年内,带有主动纠错功能的大型量子计算机将诞生,21 世纪也将因此进入 “量子时代”。(@ 腾讯科技)

4、破局利刃!英伟达合成数据新成果:为机器人造出 “训练数据永动机”

日前,英伟达与得克萨斯大学奥斯汀分校合作,研发出一款名为 “MimicGen” 的系统,通过少量人类示范即可自动生成大规模机器人训练数据集。此系统的研发将大大降低数据收集的成本和时间,对机器人学习提供了强大且经济的有效途径。(@ 科创板日报)

5、NYU 重磅发现登 Nature:神经网络具有类人泛化能力,举一反三超 GPT-4

近日,Nature 刊登了纽约大学等机构的研究人员在人工智能领域最新突破,证明神经网络具有类似人类语言的泛化性能,再一次印证了 AI 发展的无限潜力!研究人员提出了一种新的神经网络训练方法——MLC(Meta-Learning for Compositionality),在变化的任务环境中训练模型,使模型逐步获得组合词汇含义的系统性推理能力。

结果表明,MLC 模型不仅可以做出符合逻辑的响应,还能捕捉人类偏差性错误的规律,在人机对比中展现出惊人的人类化思维。甚至,通过 MLC 训练出来的模型,系统泛化能力已经碾压了 GPT-4。(@ 新智元)

02 有态度的观点

1、姚期智 Hinton Bengio 联名发文:18 个月内 AI 规模将扩大 100 倍

10 月 29 日消息,三位图灵奖得主 Hinton、Bengio、姚期智,联名发文《在快速发展的时代管理 AI 风险》。这是一篇共识论文(consensus paper),除 AI 研究者外,还有公共治理方面的学者,如清华大学人工智能国际治理研究院薛澜,以及诺贝尔经济学奖得主丹尼尔卡尼曼等。

Hinton 认为,公司们正计划在 18 个月内把 AI 模型计算规模扩大 100 倍,没人知道这些模型会有多强大,也没有关于他们如何使用这些模型的规定。(18 个月 100 倍的计划来自 InflectionAI)「考虑到 AI 研发的持续投入和自我进化的趋势,通用 AI 在未来十到二十年内超越人类的可能性不容忽视。若被正确和公正地应用,先进的 AI 可以为人类解决长久以来的问题,如疾病、贫困和环境问题。但与此同时,强大的 AI 也带来了巨大的风险,这些风险我们还远未准备好应对。」论文写道。(@ 量子位)

2、前开发部负责人:微软放弃 Windows Phone 重要原因是运营商缺乏兴趣

微软前高管布兰登・沃森从另一个视角揭示了 Windows Phone 失败的原因。他认为主要原因是运营商缺乏兴趣,美国和欧洲的手机销售模式依赖于运营商推广,但微软手机在这场营销活动中注定了失败。此外,另一原因是应用生态的误解。(@IT之家)

3、Sam Altman 警告:AI 正在学习「超人的说服力」

人类距离构建通用人工智能(AGI)或与人类认知功能相匹配的人工智能可能还有很长的路要走 —— 当然,如果我们真的能够做到的话。但无论这样的未来是否会成为现实,OpenAI 首席执行官萨姆·奥尔特曼(Sam Altman)都发出警告:人工智能不一定要达到 AGI 级别的智能才能控制我们脆弱的人类思维。
奥尔特曼周二在推特上表示:“我预计人工智能在具备超人的一般智力之前就能够实现超人的说服力,这可能会导致一些非常奇怪的结果。”

虽然奥特曼没有详细说明这些结果可能是什么,但这并不是一个牵强的预测。像 OpenAI 的 ChatGPT 这样的面向用户的人工智能聊天机器人被设计为优秀的对话者,并且已经变得非常有能力听起来令人信服 —— 即使它们在某些方面完全错误。与此同时,人类也确实已经开始与各种聊天机器人建立情感联系,这使得它们听起来更有说服力。(@0x 资讯)

写在最后:

我们欢迎更多的小伙伴参与 「RTE 开发者日报」 内容的共创,感兴趣的朋友请通过开发者社区或公众号留言联系,记得报暗号「共创」。

对于任何反馈(包括但不限于内容上、形式上)我们不胜感激、并有小惊喜回馈,例如你希望从日报中看到哪些内容;自己推荐的信源、话题、活动等;或者列举几个你喜欢看、平时常看的内容渠道;内容排版或呈现形式上有哪些可以改进的地方等。

素材来源官方媒体/网络新闻

暂无回复。
需要 登录 后方可回复, 如果你还没有账号请点击这里 注册