大模型“深吸一口气”后会更聪明

DeepMind 的研究人员开发了一种技术,可以通过使用人工智能模型来改进提示词,以提高其它人工智能语言模型的数学能力。利用这种被称作“通过提示进行优化(OPRO)”的技术,他们发现,使用“深吸一口气,一步步解决问题”的提示词,能大幅提升数学测试得分。对 PaLM 2 使用该提示,它在小学数学应用题数据集 GSM8K 中的正确率达到了 80.2%,而不使用该提示正确率只有 34%。为什么这能奏效呢?大模型显然不会呼吸,也不像人类那样思考和推理。它所做的“推理”都源自从书籍和互联网上抓取的短语数据集。这些内容中往往在“深呼吸”,“一步步思考”等短语后跟着更合理的推理方案。这些短语可能有助于大模型产生更好的答案。

消息来源:Ars Technica
老王点评:要想让人工智能像人类一样思考,就得把它当成人类一样对待。

亚马逊将为 Alexa 添加人工智能

亚马逊展示了由其全新的 Alexa 大语言模型驱动的全新 Alexa 语音助手。这款全新的 Alexa 可以理解对话短语并做出适当的回应,更有效地解释上下文,并通过一个命令完成多个请求。他们表示,Alexa LLM “是一个真正可通用的大型语言模型,针对 Alexa 的用例进行了优化;它与 Bard 或 ChatGPT 或任何这些东西都不同”。想参加测试的美国用户,可以对 Echo 设备 说“Alexa,我们聊聊吧”,就有可能被加到预览测试名单中。

消息来源:The Verge
老王点评:语音助手是最应该有人工智能的设备,而之前它们只是简单的问答机和搜索引擎而已。

统一加速基金会成立,英伟达缺席

Linux 基金会本周宣布成立统一加速(UXL)基金会。该组织的使命是提供 “一个开放标准的加速器编程模型,简化高性能、跨平台应用程序的开发”。该基金会的创始成员包括 Arm、富士通、谷歌云、英特尔、高通、三星等公司。但英伟达公司缺席,英伟达提供了自己的 CUDA 编程模型,用于使用其 GPU。这个新的基金会的核心是 oneAPI 计划的演进,其目的也是创建一个新的编程模型,使开发人员更容易支持各种加速器,无论它们是 GPU、FPGA 还是其他专用加速器。

消息来源:Tech Crunch
老王点评:那就看看自己玩还是大家玩,那个更好玩。

回音

  • 之前,由于不满 HashiCorp 修改 Terraform 的许可证,社区创建了 OpenTF 分支。在 HashiCorp 大为不满,向许多支持的公司发送了“停止侵权”的通告后,为了避免商标侵权,OpenTF 改名为 OpenTofu —— 开源豆腐。他们有意选择了一个幽默的名字。

仅有一条评论

  1. Nvidia缺席不奇怪,因为它和Linux的关系不好,但是没有AMD就很奇怪了。 —— 来自广东广州的 Chrome Mobile 116.0|Android 10 用户 发表。

添加新评论