硬核观察 #579 AI 学会了“谷歌一下”
AI 学会了“谷歌一下”
DeepMind 创建了一个新的 AI 语言模型 GopherCite,它可以像人类一样,学会“Google 一下”,回答问题同时还能给出论据。当你问它:“GopherCite 是如何找到论据来源的?”它会回答:“通过 Google 搜索检索相关文档。”在遇到实在不懂的问题,它会说不懂而不会强行给一个错误答案。训练结果显示,该模型在自然问题数据集、ELI5 数据集上的正确率分别可以达到 90%、80%,接近人类水平。
老王点评:这 AI 越来越“聪明”了。
AI 六小时内就提出了 4 万种新的潜在化学武器
研究人员将通常用于搜索有用药物的 AI 放入一种 “坏人” 模式,只用了不到六个小时就提出了 4 万个潜在的致命分子结构。研究人员调整他们的方法,以寻找而不是剔除毒性,AI 想出了数以万计的新物质,其中一些与有史以来开发的最强的神经毒剂 VX 相似。
老王点评:AI 如果用于不好的方面,也许就是放出来的潘多拉魔鬼。
Canonical 为 Snap 包提速,但仍不够快
Canonical 在 Snap 包中改用 LZO 压缩取代 xz 压缩,以加快启动时间。通过使用 LZO 重新生成 Snap,可以减少冷启动时间,如果用 LZO 对 KDE 框架 Snap 进行压缩,则收益更大。而一旦 Snap 包已经加载,其热启动时间就相当低了,大约为 1.1 秒。
老王点评:Snap 有好处也有坏处,就看怎么权衡了。
Snap 比 Flatpak的亮点在哪?优势在哪?Snap 的思考和沉淀是什么?这个问题换成 RedHat 来实现是否会不一样?
在这之前,有自己的思考和沉淀吗?这些问题的颗粒度是怎样拆分的,能作为爆点,实现了用户对速度巨量提升的愿景吗?" —— 来自四川南充的 Chrome 85.0|Windows 10 用户 于 发表。