标签 AI 下的文章

特斯拉的软件付费功能被破解

电动汽车行业愈来愈多的采用锁定软件功能的商业策略,这些功能需要车主额外付费或需要每年支付订阅费用。特斯拉的加热座椅和完全自动驾驶等功能都需要额外付费。柏林工业大学的一组安全研究人员对车载计算机的 AMD 安全处理器进行了电压故障注入攻击,解锁了这些锁定的软件功能。

消息来源:Electrek
老王点评:只要是软件实现的功能,都能通过安全漏洞来破坏。

阿里巴巴采用特别许可证“开源”其大语言模型通义千问

阿里巴巴在今年四月宣布了它的大语言模型通义千问。现在它宣布开源有 70 亿参数的 Qwen-7B 系列模型,源代码托管在 GitHub 上,采用了专门制定的许可证。该许可证限制月活用户数超过 1 亿的商业使用,需要从阿里巴巴获得授权。这一条件与 Meta 对其 Llama 2 大模型的限制类似,Llama 2 的限制是超过 7 亿月活用户。

消息来源:阿里云
老王点评:Meta 真是开了一个坏头,搞了一些不伦不类的所谓“开源”许可证。对于这种“开源”,我建议称之为“受限开源”。

高通成立 RISC-V 合资公司

高通公司、恩智浦、北欧半导体、博世和英飞凌等将联手组建一家新公司,“通过支持下一代硬件开发,推动 RISC-V 在全球的应用”。这家还没有名字的公司最初将专注于汽车领域,最终将扩展到物联网和移动领域,这些是高通公司最大的市场。高通是 Arm 最大的客户之一。在软银把 Arm 卖给英伟达的想法被监管机构否决后,Arm 计划进行 IPO。Arm 已告知客户,其商业模式将发生 “彻底变革”,计划对芯片许可证收取 “数倍于此” 的费用。

消息来源:Ars Technica
老王点评:Arm 现在的好日子可能不多了。

ChromeOS 将分离浏览器和操作系统

现在的 ChromeOS 的系统用户界面和浏览器是同一个二进制程序,谷歌的一个已经进行了两年的项目将把它们分开,并很快将向大众推出。该项目名为 “Lacros”,这将把 ChromeOS 的 Linux 操作系统从 Chrome 浏览器中分离出来,让谷歌可以独立更新每个部分。此举的一个意图是加入更多对 Wayland 的支持。ChromeOS 此前使用的是谷歌自己开发的图形栈 Freon,而 Wayland 已经在包括安卓在内的 Linux 系统和应用中得到了广泛使用,它将作为 ChromeOS 的原生图形栈使用。分开后,谷歌也将无需为 ChromeOS 定制 Chrome,可以直接使用 Chrome 的 Linux 版本。

消息来源:Ars Technica
老王点评:那为什么当年要合在一起,用自己的一个图形栈?秀技术吗?

40% 基于 Arm 的服务器部署在中国

虽然绝大多数服务器仍在使用 AMD 和英特尔的 x86 芯片,但这些芯片都是美国公司生产的,由于美国的贸易限制,中国公司越来越难获得先进的芯片。相比之下,Arm 架构可以获得全球芯片制造商的许可。最新数据显示,全球近 10% 的服务器采用了 Arm 处理器,其中 40% 位于中国。此外,Canalys CEO 去年指出,99% 的智能手机、97% 的平板电脑和 9% 的个人电脑都使用了 Arm 芯片,并声称 16% 的公共云已经基于 Arm。他预测,到 2026 年,50% 出售给公共云的 CPU 将基于 ARM,而不是 x86。

消息来源:The Register
老王点评:Arm 真是异军突起,但是我还是更看好 RISC-V。

Meta 开源从文本中创建音乐的人工智能工具

Meta 公司周三开源了名为 AudioCraft 的人工智能工具,它将帮助用户根据文本提示创建音乐和音频。该人工智能工具可用于音乐、声音、压缩和生成。Meta 说,它使用了该公司拥有的和特别授权的音乐进行了训练。不像通过文本创建图像的人工智能工具,生成音乐的工具进展相对滞后。Meta 说,“有一些工作已经完成,但非常复杂,而且不是很开放,所以人们不能轻松使用。”AudioCraft 以 MIT 许可证发布,Meta 希望“为更广泛的社区做出贡献,为音频和音乐实验提供可访问的工具。”

消息来源:Ars Technica
老王点评:所以,以后音乐也不需要专业人员制作了么?

仅 100KB 大小,只需 4 分钟训练的人工智能图像生成器

英伟达最新发表的论文披露了一种名为 Perfusion 的全新文本到图像的个性化创新方法。它并不像竞争对手那样是一款价值百万美元的超重量级模型。Perfusion 的大小仅为 100KB,训练时间为 4 分钟,在保持个性化概念身份的同时,还能在描绘个性化概念方面实现极大的创造灵活性。尽管它的体积很小,在某些方面,它却能超越领先的人工智能艺术生成器,如 Stable Diffusion 和 MidJourney。Perfusion 的主要新创意称为 “关键锁定”,这有助于避免过度拟合。英伟达目前只提交了研究论文,并承诺将很快发布代码。

消息来源:Decrypt
老王点评:真是令人吃惊的 AI 技术进展!似乎一夜之间,原本我们认为不可能做到的事情,都纷纷突破了限制出现了。

最高产的 Alpine Linux 打包者离开该项目

Alpine Linux 在容器和嵌入式领域得到了广泛应用,但令人遗憾的是,该 Linux 发行版软件包的最高产的维护者已决定离开。psykose 是过去一年中每个作者提交次数最多的人,她决定不再维护自己的软件包。她在过去一年中提交了 13,894 次,相比之下,第二多产的软件包维护者只有 2,053 次提交,而去年全年总提交次数是 26.8k。两天前,她最近提交的所有 alpinelinux/aports 都是在删除她负责的软件包。

消息来源:Phoronix
老王点评:她可能太累了。

Linus Torvalds 让大家禁用愚蠢的 AMD CPU 功能

Linus Torvalds 对最近困扰内核的 AMD fTPM 硬件随机数生成器问题感到沮丧,并表示希望禁用它。由 AMD fTPM 硬件随机数生成器引起的卡顿问题最初影响了 Windows 用户,但后来发现也影响了 Linux。修复程序已经上传到上游,并被移植到早期内核中,但一些与其相关的问题仍然令人头疼,一些用户仍在报告卡顿问题。Torvalds 在邮件列表上发表了自己的看法:“让我们禁用愚蠢的 fTPM 硬件随机数生成器吧”。

消息来源:Phoronix
老王点评:最初 AMD CPU 让 Torvalds 非常满意,但是现在一系列的不作为,让他终于忍不住发飙了。希望 AMD 能感受到 Torvalds 的怒火,尽快解决吧。

谁在为 NSO 间谍工具买单?FBI 发现是它自己

今年早些时候的一项调查发现,美国政府使用了以色列黑客公司 NSO 生产的间谍软件。现在,在联邦调查局(FBI)对谁在使用这项技术进行调查后,该部门发现了一个令人困惑的答案:它自己。FBI 在 4 月底发现 Riva 网络公司代表它使用间谍工具后,与 Riva 终止了合同。FBI 称它是在不知情的情况下使用了该工具。几天前,美国政府将 NSO 列入商务部黑名单,禁止美国公司与该公司开展业务。

消息来源:纽约时报
老王点评:查来查去,原来是自己。?

安卓的已知安全漏洞和 0day 一样危险

0day 漏洞是指没有被公开的漏洞。2022 年发现了 41 个正被利用的 0day,低于 2021 年的 69 个,但高于 2015 年以来的其它年份。谷歌称,安卓生态系统的一大问题是补丁更新不及时,OEM 厂商不能及时向用户推送安全更新,导致的结果是已知安全漏洞和 0day 漏洞的严重性相差无几,不需要 0day,攻击者使用已知漏洞漏洞就能实现成功入侵。

消息来源:谷歌
老王点评:并不是未知的漏洞最可怕,反而是已知漏洞更容易被利用。

YouTube 现在用人工智能生成的声音为视频配音

在 6 月底举行的 VidCon 大会上,YouTube 宣布了 Aloud 试点项目。该工具首先会生成视频音频的转录,创作者可以对其进行编辑,然后再选择自己喜欢的语言和合成语音风格。配音只需几分钟即可生成。Aloud 目前可以将视频配音成英语、西班牙语和葡萄牙语,并还将推出更多语言。

消息来源:Rest Of World
老王点评:就像人脸识别一样,以后 AI 会参与到越来越多的地方。

甲骨文的新 Java 许可条款将增加 2-5 倍费用

据 Gartner 公司估计,大多数企业在接受甲骨文公司新的 Java 许可条款时,预计按员工订阅模式的成本将是传统模式的两到五倍。新模式以每个员工的消耗量为基础,而不是以前的每个处理器或每个用户的消耗量。这同时意味着到 2026 年,80% 以上的 Java 应用程序将部署在第三方 Java 运行时上,而 2023 年这一比例仅为 65%。Gartner 还警告说,甲骨文公司已经准备好测试用户是否遵守它所认为的 Java 许可条款,预计 1/5 的 Java 用户会在未来三年内接受甲骨文的审计。

消息来源:The Register
老王点评:Java 真是一只下金蛋的鸡,但是现在它一天要下一只是不行的了。

FCC 建议新的宽带标准

美国联邦通信委员会(FCC)主席提出了一项新的宽带标准,即下载速度为 100Mbps,上传速度为 20Mbps,以取代 2015 年的 25Mbps/3Mbps 标准。根据她的计划,FCC 将评估宽带的可用性、速度和价格,以决定是否采取监管措施来促进网络部署和竞争。FCC 还将为未来设定一个 1Gbps/500Mbps 的目标。

消息来源:Ars Technica
老王点评:新的带宽目标,将带来新的基础设施,而新的基础设施是更多应用的基础,比如 AR/VR/XR 等,以及 AI。

OpenAI 悄然关闭其人工智能检测工具

今年 1 月,人工智能巨头 OpenAI 发布了一款工具,它可以通过检测内容是否使用了生成式人工智能工具(比如它自己的 ChatGPT)来创建。半年后,这个工具死了,原因是 “它的准确率很低”,但这一解释并没有出现在新的公告中,而是添加到了首次发布该工具的博客文章的注释中。

消息来源:Decrypt
老王点评:AI 工具无法识别 AI 输出的内容。还有什么能束缚 AI 的发展?

了解 Llama 2 和 GPT-4 之间的主要区别,它们是自然语言处理的领先巨头。揭示它们的优势、劣势以及它们如何塑造语言技术的未来。

在撰写内容时,有两个关键因素至关重要,“ 困惑度 perplexity ”和“ 爆发性 burstiness ”。困惑度衡量文本的复杂程度。而爆发性则比较句子的变化程度。人类倾向于以较大的爆发性写作,例如长句或复杂句与短句并存。人工智能生成的句子往往更加均一。

在自然语言处理领域,Llama 2 和 GPT-4 是两个杰出的参与者,吸引了研究人员和爱好者的关注。这些大型语言模型展示出独特的功能和特点。

虽然 GPT-4 由 OpenAI 已经发布一段时间,但 Meta 与微软合作推出了 Llama 2,这是 LLaMa 扩展语言模型的改进版本。

让我们深入探讨这两个模型之间的关键区别,以了解它们的特点之所在。

Llama 2:简单易用

Llama 2 是其前身 LLaMa 的升级版本,以其简洁高效的特点震撼了科技界。尽管它支持的语言范围较窄,仅包括 20 种语言,但其性能令人印象深刻,可以与 GPT-4、Claude 或 Bard 等重量级模型相媲美。令人惊讶的是,尽管参数比 GPT-3 模型少,但 Llama 2 可以在单个 GPU 上高效运行,使其成为各种应用的更便捷选择。

Llama 2 真正的特点是它专门训练于公开可获得的数据集,使其对研究人员和开发人员更加可用。更为引人注目的是,尽管仅在 1,000 个精确提示的相对较小数据集上进行训练,它依然实现了有竞争力的结果。

GPT-4

在 2023 年 3 月,OpenAI 自豪地推出了其最新的创作——GPT-4,这一力作轰动了语言模型领域。GPT-4 在许多任务中表现卓越,包括专业医学和法律考试,展示了其多功能和高水平的能力。

GPT-4 的一个显著特点是相对于之前的版本,它能够扩展最大输入长度。这个增强功能使其能够处理更加广泛和复杂的语言数据,为自然语言理解和生成开辟了新的可能性。

此外,GPT-4 拥有广泛的语言支持,支持 26 种语言。这种多样的语言能力扩大了其在全球范围内的覆盖和适用性,使其成为多语言项目和应用的首选。

区别:Llama 2 与 GPT-4

在比较 Llama 2 和 GPT-4 时,我们可以看到两个模型都有各自独特的优缺点。Llama 2 以其简洁高效的特点脱颖而出,尽管其数据集较小且语言支持有限,但其表现卓越。其易用性和有竞争力的结果使其成为某些应用的有力选择。

另一方面,GPT-4 在各种任务上的出色表现和广泛的语言支持使其成为更复杂和多样化项目的强大选择。然而,关于其模型架构和训练数据集的详细信息缺乏,还有一些问题尚待回答。

下表显示了两个模型的一些基准分数(以及其他热门模型):

基准测试 样本数 Shot GPT-3.5GPT-4PaLMPaLM-2-LLlama 2
MMLU (5 样本)7078.386.186.4
TriviaQA (1 样本)69.33337.581.4
Natural Questions (1 样本)68.937.552.385
GSM8K (8 样本)8556.556.887
HumanEval (0 样本)48.19256.751.2
BIG-Bench Hard (3 样本)29.356.826.229.9

常见问题解答

1、Llama 2 和 GPT-4 的主要区别是什么?

主要区别在于设计和性能。Llama 2 注重简洁高效,而 GPT-4 具有扩展的输入长度和广泛的语言支持。

2、哪个模型更适合多语言模型?

GPT-4 适用于多语言项目,因为它支持 26 种语言,为全球应用提供了更广泛的范围。

3、Llama 2 可以运行在单个 GPU 上吗?

是的,Llama 2 可以在单个 GPU 上有效运行,使其成为各种应用的实用选择。

4、Llama 2 支持多少种语言?

Llama 2 支持 20 种语言,虽然比 GPT-4 稍少,但仍覆盖了相当广泛的语言范围。

5、GPT-4 是否有可用的基准测试?

不幸的是,没有提及 GPT-4 的具体基准测试,因此对其性能还有一些问题没有答案。

结论

Llama 2 和 GPT-4 代表了自然语言处理领域的前沿进展。尽管数据集较小,Llama 2 以其简洁性、易用性和有竞争力的性能令人印象深刻。另一方面,GPT-4 的多功能性、高水平和广泛的语言支持使其成为处理复杂项目的杰出选择。这两个模型对自然语言处理的发展做出了重要贡献,为语言技术在我们生活中发挥更加重要的作用铺平了道路。

基准测试参考:

(题图:MJ/60e112f7-3399-49fd-9157-c6b03de5efea)


via: https://www.debugpoint.com/llama-2-vs-gpt-4/

作者:Arindam 选题:lkxed 译者:ChatGPT 校对:wxy

本文由 LCTT 原创编译,Linux中国 荣誉推出