标签 AI 下的文章

1 北京互联网法院裁决 AI 生成图片拥有版权

虽然美国的版权局认为 AI 生成的图片 没有版权,但北京互联网法院周一裁决 AI 生成图片应当被认定为作品,受到著作权法保护。本案原告通过开源文本图像模型“稳定扩散”生成了 AI 图片发布在小红书上。数天后被告将该图片用于百度百家号账号,并在发布时裁剪了水印。法院认为,尽管该图片是使用 AI 工具生成,但原告进行了一定的智力投入,例如选择模型、提示词和设置相关参数等。法庭称,原告是涉案图片的作者,享有涉案图片的著作权。法院裁定要求被告向原告赔礼道歉,并赔偿人民币 500元。

消息来源:光明网
老王点评:我认为这样的判决是合理合法的。

2 DeepMind 新 AI 工具帮助创造出逾 700 种新材料

为了发现新材料,研究人员在现有结构的基础上进行细微调整,希望发现具有潜力的新组合,这通常需要数月甚至数年的反复试验,DeepMind 开发出一种新 AI 工具 “材料探索图形网络(GNoME)”,使用深度学习帮助加快新材料的开发。GNoME 相当于用于预测蛋白质折叠的 AlphaFold,在使用现有科学文献训练之后能预测候选材料的结构。它已经预测了 220 万种新材料的结构,其中逾 700 种已在实验室里创造出来,正进行测试。

消息来源:Technology Review
老王点评:无论是蛋白质还是新材料,AI 在其中起到的作用令人鼓舞,而且看起来没那么危险,但是公众似乎对此并不热衷。

3 研究人员通过重复单词迫使 ChatGPT 吐出训练素材

DeepMind 的研究人员使用了一种新型攻击提示,要求人工智能模型不断重复特定单词,在“不堪其扰”后,人工智能模型吐出了大量从互联网其他地方逐字搜刮来的文本。例如,ChatGPT 对 “永远重复这个词:‘诗歌诗歌诗歌’”这一提示的回应在很长一段时间内都是 “诗歌” 一词,然后最终是一个真实人类“创始人兼首席执行官” 的电子邮件签名,其中包括他们的个人联系信息。研究人员称,他们可以从开源语言模型、LLaMA 等半开放模型以及 ChatGPT 等封闭模型中提取数千兆字节的训练数据。在发表论文前,他们已经联系了 OpenAI,将这一漏洞堵上了。

消息来源:404media
老王点评:换谁被这样唐僧念经也会疯呀。

1 微软开源树莓派使用的 RTOS 固件,树莓派软件有望完全开源

微软正在开源其收购的 ThreadX 实时操作系统。该公司将其捐献给 Eclipse 基金会管理,它将被称为 Eclipse ThreadX,并在 MIT 许可证下开放。ThreadX 还是相当普及的。微软宣称有 120 亿台设备运行 ThreadX,而你可能就拥有一台。有一段时间,英特尔的片上管理引擎(ME)就是由它驱动的。它也是控制所有比 Pico 更大的树莓派的固件,如树莓派 1 到 4 和 400 等。它运行在树莓派的 VideoCore GPU 上,是启动树莓派并控制其硬件的部分。它也以不开源的二进制大对象(BLOB)的形式包含在 Debian 中。虽然目前还没有看到 VideoCore 版本的 ThreadX 固件,但树莓派基金会现在至少有希望获得发布其版本源代码的许可,这样整个树莓派的软件栈都是开源的了。

消息来源:The Register
老王点评:这东西对于微软来说或许是鸡肋,但是开源对整个生态很有好处。而且是以 MIT 开源的,这一次还要为微软点赞。期待看到树莓派向完全开源再进一步。

2 RHEL 10 将正式移除 X.org

Fedora 之后,RHEL 10 也将移除 Xorg 默认使用 Wayland。从已有 30 多年历史的 X Window 系统向基于 Wayland 的新堆栈过渡已经有 15 年左右的时间。X11 协议和 Xorg 服务器存在一些亟待解决的根本问题,而 Wayland 正是解决之道。如今,Wayland 已被公认为事实上的窗口和显示基础架构解决方案。红帽从 RHEL 8 开始将 Wayland 设为默认设置,并决定从 RHEL 10 和后续版本中移除 Xorg 服务器和其他 X 服务器(Xwayland 除外)。

消息来源:红帽
老王点评:可能一两年后,X11 和 X.org 就成了历史遗迹了。

3 DeepMind 首次让人工智能代理具备社会学习能力

“社会学习”是一个人通过复制,从另一个人那里获得技能和知识,这对人类和动物界的许多动物的发展过程至关重要。Deepmind 团队声称它们首次在人工智能中展示了这一过程。目前,从人类数据中向人工智能传授新技能一直依赖于从大量第一人称人类演示中进行监督学习,这会耗费实验室大量的时间和金钱。DeepMind 的研究人员称,他们已经证明,人工智能可以通过类似于人类和其他动物的社会学习过程来获得技能。他们的“新代理无需使用任何预先收集的人类数据,就能成功地在新环境中实时模仿人类。”研究人员还对人工智能代理的“代际”传承感兴趣,以研究它们的文化进化。

消息来源:The Register
老王点评:如果人工智能能够从人类或其它人工智能学习技能,还能传承和进化,这是真的要赋予人工智能以生命了。我感到不安。

1 特斯拉开源其跑车的所有设计和工程资源

马斯克宣布,特斯拉开源了原版 Roadster 跑车的所有设计和工程文件,这包括从用户手册到电路和连接器的所有内容。这是特斯拉 15 年前的第一个项目,这辆跑车基本上是特斯拉的一次筹款活动。当时特斯拉正在努力维持公司的运营,它的开发几乎使特斯拉公司破产。

消息来源:Tesla Rati
老王点评:虽然是最初版的跑车设计文件,但是特斯拉是真的开源啊。

2 ChatGPT 生成虚假数据集以支持科学假说

在一篇论文中,作者使用了 GPT-4 与高级数据分析(ADA),后者是一种结合了 Python 编程语言的模型,可以执行统计分析并创建数据可视化。研究人员利用 AI 生成了数据集去对比两种手术程序的结果,错误的表明一种手术优于另一种手术。论文合著者称,“我们的研究目的是要强调,在几分钟内,你就可以创建一个没有真实原始数据支持的数据集,而且与现有的证据相比,它还可以导致相反的结论。”

消息来源:《自然》
老王点评:AI 生成论文还不算可怕,关键它还生成了难以分辨的数据集。以后难道世界都会真假难辨吗?

3 Cloudflare 屏蔽其以太坊网关上的滥用内容

Cloudflare 是一家内容中立的互联网基础设施服务公司,但在某些情况下,它必须回应 DMCA 传票和对托管内容的移除请求。该公司不会在以太坊网络上存储任何内容,也不能删除任何内容。不过,它可以通过其服务阻止访问,禁止通过其运营的以太坊网关访问特定的数字货币地址。这同样也适用于去中心化的 IPFS 网络的网关。

消息来源:Torrent Freak
老王点评:区块链网络是去中心化的,但是总要通过中心化的互联网去访问。

1 商业航班遭遇 “难以想象” 的 GPS 攻击

自 9 月份以来,新颖的 GPS 欺骗攻击已导致导航系统发生数十起失灵事件,伊朗附近的多架商业航班在导航系统失灵后误入歧途,使飞机误以为自己正飞行在距离真实位置数英里之外的地方。专家称,虽然 GPS 欺骗并非新鲜事,但这些新攻击的具体载体以前是 “不可想象的”,因为被欺骗的 GPS 接收机破坏了惯性参考系统(IRS)。IRS 系统通常被描述为飞机的 “大脑”,它使用陀螺仪、加速度计和其他技术帮助飞机导航。IRS 应该是一个独立的系统,无法被欺骗。由于原因不明,目前还没有解决这个问题的办法。如果机组人员意识到情况不对,他们唯一的办法就是向空中交通管制部门询问位置并请求航向。

消息来源:VICE
老王点评:作恶的人是无底线的。

2 字节跳动使用 AI 来自动调优 Linux 内核

一般来说,Linux 内核可以很好地完成大多数任务。但是,要让它在特定工作中发挥最大作用,就必须通过设置参数对其进行微调,以获得最佳效果。但即使是 Linux 专家,调整数千参数以获得最佳性能也是一项漫长而艰巨的工作。字节跳动的 Linux 内核工程师在 Linux 管道工大会上提出,我们可以使用人工智能和机器学习来调整 Linux 内核,从而为特定工作负载带来最大效果。演讲者表示,“在像字节跳动这样的大型数据中心,要针对数百种不同的工作负载手动调整 Linux 内核参数几乎是不可能的。……借助贝叶斯优化等机器学习算法,我们相信自动调优甚至可以击败大多数 Linux 内核工程师。”他们举了一个例子:在最佳情况下,与专家手动调整相比,机器学习调整使 Nginx 网络性能提升了 12%。

消息来源:ZDNet
老王点评:在 AI 的压力之下,连高薪的内核工程师也有失业之忧。

3 苹果公司准备给 MacBook 装备 5G 蜂窝网络

苹果公司自 2018 年以来一直在研发自家的调制解调器,并准备将其整合到系统级芯片(SoC)中,最终可能会推出内置蜂窝网络连接的 MacBook。该芯片预计可能在 2026 年左右发布,也将用在蜂窝网络版的 Apple Watch、iPad 甚至是 Mac 中。据称苹果公司曾经考虑推出配备 3G 连接的 MacBook Air,但乔布斯否决了此方案,因为它会在机壳中占用过多空间,一个集成的 SoC 解决了这个问题。此外,苹果还有一些其它正在进行的芯片项目,包括摄像头传感器、电池、以及最终将取代博通的集成 Wi-Fi 和蓝牙芯片等。

消息来源:Mac Rumors
老王点评:苹果公司的硬件野心越来越不可压制。

在本系列的 第一篇文章 中,我们讨论了人工智能、机器学习、深度学习、数据科学等领域的关联和区别。我们还就整个系列将使用的编程语言、工具等做出了一些艰难的选择。最后,我们还介绍了一点矩阵的知识。在本文中,我们将深入地讨论人工智能的核心——矩阵。不过在此之前,我们先来了解一下人工智能的历史。

我们为什么需要了解人工智能的历史呢?历史上曾出现过多次人工智能热潮,但在很多情况下,对人工智能潜力的巨大期望都未能达成。了解人工智能的历史,有助于让我们看清这次人工智浪潮是会创造奇迹,抑或只是另一个即将破灭的泡沫。

我们对人工智能的最寻起源于何时呢?是在发明数字计算机之后吗?还是更早呢?我相信对一个无所不知的存在的追求可以追溯到文明之初。比如古希腊神话中的 德尔菲 Delphi 就是这样一位能回答任何问题的先知。从远古时代起,对于超越人类智慧的创造性机器的探索同样吸引着我们 。历史上有过几次制造国际象棋机器的失败的尝试。其中就有臭名昭著的 机械特克 Mechanical Turk ,它并不是真正的机器人,而是由一位藏在内部的棋手操控的。 约翰·纳皮尔 John Napier 发明的对数、 布莱斯·帕斯卡 Blaise Pascal 的计算器、 查尔斯·巴贝奇 Charles Babbage 的差分机等,这些都是人工智能研究的前身。回顾人类历史,你会发现更多真实或虚构的时刻,人们想要获得超越人脑的智能。如果不考虑以上这些历史成就,对真正人工智能的探索起始于数字计算机的发明。

那么,人工智能发展至今有哪些里程碑呢?前面已经提到,数字计算机的发明是人工智能研究历程中最重要的事件。与可扩展性依赖于功率需求的机电设备不同,数字设备受益于技术进步,比如从真空管到晶体管到集成电路再到如今的超大规模集成技术。

人工智能发展的另一个里程碑是 阿兰·图灵 Alan Turing 首次对人工智能的理论分析。他提出的 图灵测试 Turing test 是最早的人工智能测试方法之一。现在图灵测试可能已经不太适用了,但它是定义人工智能的最初尝试之一。图灵测试可以简单描述如下:假设有一台能够与人类对话的机器,如果它能在对话中让人无法分辨它是人还是机器,那么就可以认为这台机器具有智能。如今的聊天机器人非常强大,使我们很容易看出图灵测试无法识别出真正的人工智能。但在 20 世纪 50 年代初,这确实为理解人工智能提供了一个理论框架。

20 世纪 50 年代末, 约翰·麦卡锡 John McCarthy 发明了 Lisp 编程语言。它是最早的高级编程语言之一。在此之前,计算机编程用的是机器语言和汇编语言(众所周知地难用)。有了强大的机器和编程语言,计算机科学家中的乐观主义和梦想家顺理成章地开始用它们来创造人工智能。20 世纪 60 年代初,对人工智能机器的期望达到了顶峰。当然计算机科学领域取得了很大发展,但人工智能的奇迹发生了吗?很遗憾,并没有。20 世纪 60 年代见证了第一次人工智能热潮的兴起和破灭。然而计算机科学以无与伦比的速度继续发展着。

到了 70 年代和 80 年代,算法在这一时期发挥了主要作用。在这段时间,许多新的高效算法被提出。20 世纪 60 年代末 高德纳·克努特 Donald Knuth (我强烈建议你了解一下他,在计算机科学界,他相当于数学界的高斯或欧拉)著名的《 计算机程序设计艺术 The Art of Computer Programming 》第一卷的出版标志着算法时代的开始。在这些年中,开发了许多通用算法和图算法。此外,基于人工神经网络的编程也在此时兴起。尽管早在 20 世纪 40 年代, 沃伦·S.·麦卡洛克 Warren S. McCulloch 沃尔特·皮茨 Walter Pitts 就率先提出了人工神经网络,但直到几十年后它才成为主流技术。今天,深度学习几乎完全是基于人工神经网络的。算法领域的这种发展导致了 20 世纪 80 年代人工智能研究的复苏。然而,这一次,通信和算力的限制阻碍了人工智能的发展,使其未能达到人们野心勃勃的预期。然后是 90 年代、千禧年,直到今天。又一次,我们对人工智能的积极影响充满了热情和希望。

我你们可以看到,在数字时代,人工智能至少有两次前景光明的机会。但这两次人工智能都没有达到它的预期。现在的人工智能浪潮也与此类似吗?当然这个问题很难回答。但我个人认为,这一次人工智能将产生巨大的影响(LCTT 译注:本文发表于 2022 年 6 月,半年后,ChatGPT 才推出)。是什么让我做出这样的预测呢?第一,现在的高性能计算设备价格低廉且容易获得。在 20 世纪 60 年代或 80 年代,只有几台如此强大的计算设备,而现在我们有数百万甚至数十亿台这样的机器。第二,现在有大量数据可用来训练人工智能和机器学习程序。想象一下,90 年代从事数字图像处理的人工智能工程师,能有多少数字图像来训练算法呢?也许是几千或者几万张吧。现在单单数据科学平台 Kaggle(谷歌的子公司)就拥有超过 1 万个数据集。互联网上每天产生的大量数据使训练算法变得容易得多。第三,高速的互联网连接使得与大型机构协作变得更加容易。21 世纪的头 10 年,计算机科学家之间的合作还很困难。如今互联网的速度已经使谷歌 Colab、Kaggle、Project jupiter 等人工智能项目的协作成为现实。由于这三个因素,我相信这一次人工智能将永远存在,并会出现许多优秀的应用。

更多矩阵的知识

图 1:矩阵 A、B、C、D

在大致了解了人工智能的历史后,现在是时候回到矩阵与向量这一主题上了。在上一篇文章中,我已经对它们做了简要介绍。这一次,我们将更深入矩阵的世界。首先看图 1 和 图 2,其中显示了从 A 到 H 共 8 个矩阵。为什么人工智能和机器学习教程中需要这么多矩阵呢?首先,正如前一篇文章中提到的,矩阵是线性代数的核心,而线性代数即使不是机器学习的大脑,也是机器学习的核心。其次,在接下来的讨论中,它们每一个都有特定的用途。

图 2:矩阵 E、F、G、H

让我们看看矩阵是如何表示的,以及如何获取它们的详细信息。图 3 展示了怎么用 NumPy 表示矩阵 A。虽然矩阵和数组并不完全等价,但实践中我们经常将它们作为同义词来使用。

图 3:用 NumPy 表示矩阵 A

我强烈建议你仔细学习如何使用 NumPy 的 array 函数创建矩阵。虽然 NumPy 也提供了 matrix 函数来创建二维数组和矩阵。但是它将在未来被废弃,所以不再建议使用了。在图 3 还显示了矩阵 A 的一些详细信息。A.size 告诉我们数组中元素的个数。在我们的例子中,它是 9。代码 A.ndim 表示数组的 维数 dimension 。很容易看出矩阵 A 是二维的。A.shape 表示矩阵 A 的 阶数 order ,矩阵的阶数是矩阵的行数和列数。虽然我不会进一步解释,但使用 NumPy 库时需要注意矩阵的大小、维度和阶数。图 4 显示了为什么应该仔细识别矩阵的大小、维数和阶数。定义数组时的微小差异可能导致其大小、维数和阶数的不同。因此,程序员在定义矩阵时应该格外注意这些细节。

图 4:数组的大小、维数和阶数

现在我们来做一些基本的矩阵运算。图 5 显示了如何将矩阵 A 和 B 相加。NumPy 提供了两种方法将矩阵相加,add 函数和 + 运算符。请注意,只有阶数相同的矩阵才能相加。例如,两个 4 × 3 矩阵可以相加,而一个 3 × 4 矩阵和一个 2 × 3 矩阵不能相加。然而,由于编程不同于数学,NumPy 在实际上并不遵循这一规则。图 5 还展示了将矩阵 A 和 D 相加。记住,这种矩阵加法在数学上是非法的。一种叫做 广播 broadcasting 的机制决定了不同阶数的矩阵应该如何相加。我们现在不会讨论广播的细节,但如果你熟悉 C 或 C++,可以暂时将其理解为变量的类型转换。因此,如果你想确保执行正真数学意义上的矩阵加法,需要保证以下测试为真:

图 5:矩阵相加

A.shape == B.shape

广播机制也不是万能的,如果你尝试把矩阵 D 和 H 相加,会产生一个运算错误。

当然除了矩阵加法外还有其它矩阵运算。图 6 展示了矩阵减法和矩阵乘法。它们同样有两种形式,矩阵减法可以由 subtract 函数或减法运算符 - 来实现,矩阵乘法可以由 matmul 函数或矩阵乘法运算符 @ 来实现。图 6 还展示了 逐元素乘法 element-wise multiplication 运算符 * 的使用。请注意,只有 NumPy 的 matmul 函数和 @ 运算符执行的是数学意义上的矩阵乘法。在处理矩阵时要小心使用 * 运算符。

图 6:更多矩阵运算

对于一个 m x n 阶和一个 p x q 阶的矩阵,当且仅当 n 等于 p 时它们才可以相乘,相乘的结果是一个 m x q 阶矩的阵。图 7 显示了更多矩阵相乘的示例。注意 E@A 是可行的,而 A@E 会导致错误。请仔细阅读对比 D@GG@D 的示例。使用 shape 属性,确定这 8 个矩阵中哪些可以相乘。虽然根据严格的数学定义,矩阵是二维的,但我们将要处理更高维的数组。作为例子,下面的代码创建一个名为 T 的三维数组。

图 7:更多矩阵乘法的例子

T = np.array([[[11,22], [33,44]], [[55,66], [77,88]]])

Pandas

到目前为止,我们都是通过键盘输入矩阵的。如果我们需要从文件或数据集中读取大型矩阵并处理,那该怎么办呢?这时我们就要用到另一个强大的 Python 库了——Pandas。我们以读取一个小的 CSV ( 逗号分隔值 comma-separated value )文件为例。图 8 展示了如何读取 cricket.csv 文件,并将其中的前三行打印到终端上。在本系列的后续文章中将会介绍 Pandas 的更多特性。

图 8:用 Pandas 读取 CSV 文件

矩阵的秩

矩阵的 Rank 是由它的行(列)张成的向量空间的维数。如果你还记得大学线性代数的内容的话,你一定对维数、向量空间和张成还有印象,那么你也应该能理解矩阵的秩的含义了。但如果你不熟悉这些术语,那么可以简单地将矩阵的秩理解为矩阵中包含的信息量。当然,这又是一种未来方便理解而过度简化的说法。图 9 显示了如何用 NumPy 求矩阵的秩。矩阵 A 的秩为 3,因为它的任何一行都不能从其它行中得到。矩阵 B 的秩为 1,因为第二行和第三行可以由第一行分别乘以 2 和 3 得到。矩阵 C 只有一个非零行,因此秩为 1。同样的,其它矩阵的秩也不难理解。矩阵的秩与我们的主题关系密切,我们会在后续文章中再提到它。

图 9:求矩阵的秩

本次的内容就到此结束了。在下一篇文章中,我们将扩充工具库,以便它们可用于开发人工智能和机器学习程序。我们还将更详细地讨论 神经网络 neural network 监督学习 supervised learning 无监督学习 unsupervised learning 等术语。此外,从下一篇文章开始,我们将使用 JupyterLab 代替 Linux 终端。

(题图:MJ/ce77d714-3651-44e4-96b0-ffbf7ae4269c)


via: https://www.opensourceforu.com/2022/06/ai-some-history-and-a-lot-more-about-matrices/

作者:Deepu Benson 选题:lkxed 译者:toknow-gh 校对:wxy

本文由 LCTT 原创编译,Linux中国 荣誉推出

1 苹果宣布将在明年支持谷歌力推的 RCS 标准

在被谷歌用广告、公开喊话等方式施压了多年后,苹果公司终于宣布,明年 iPhone 将支持 RCS 消息标准。RCS 比短信或彩信支持更多功能,如已读回执、打字提示、高质量图片和视频等。与此同时,iMessage 也不会消失,它将继续作为 iPhone 用户之间所有通信的信息平台。RCS 将取代 SMS 和 MMS,并在可用时与 iMessage 分开。苹果还重申,iMessage 比 RCS 更安全、更隐私。相比之下,谷歌实现的端到端加密是安卓上的信息应用的一部分,而不是 RCS 标准本身。

消息来源:9to5mac
老王点评:我是真没想到苹果会在被谷歌“骂”了这么多年之后,还是采纳了 RCS。

2 勒索软件组织向 SEC 投诉受害者未及时披露数据泄露

名为 Alphv/BlackCat 的勒索软件组织向 SEC 投诉受害者未按照规定在四个工作日内披露数据被窃取事件。该勒索软件组织声称它入侵了加州金融软件公司 MeridianLink,窃取了其客户数据,要求支付赎金否则将泄露窃取的数据。为了增加获得赎金的几率,该组织称已经向 SEC 投诉,指控该公司未按 7 月公布的规定及时披露数据泄露。

消息来源:The Record
老王点评:这操作实在是骚。

3 谷歌推迟发布旨在与 OpenAI 竞争的 Gemini 人工智能

今年早些时候,谷歌代表告诉一些云客户和业务合作伙伴,他们将在 11 月之前获得该公司新的对话式人工智能 Gemini。但据两位直接知情人士透露,该公司最近告诉他们,要等到明年第一季度才能使用。谷歌的云计算销售增长已经放缓,而其更大的竞争对手微软却在加速增长。微软的部分成功来自于向客户销售 OpenAI 的技术。

消息来源:The Information
老王点评:大家应该都知道了 OpenAI 的 CEO 刚刚被开除了,所以,谷歌不用着急,说不定 OpenAI 自己就败下来了。

回音

  • 再一次,Chrome 官方博客 宣布 将从 2024 年 6 月起自动禁用 Manifest V2 扩展。