标签 谷歌 下的文章

谷歌赢得十年之久的甲骨文版权战

在甲骨文以 72 亿美元收购了 Sun 微系统公司之后,就对谷歌发起了高达 60 亿美元的诉讼,这一数字后来增加到 90 亿美元。甲骨文认为,谷歌将 37 个 Java API 的“结构、顺序和组织”复制到 Android 中,侵犯了甲骨文的版权。这大约涉及到 11500 行代码。

这场打了十年之久的版权诉讼,已经在巡回法庭和基层法庭之间来回拉锯多次。周一,美国最高法院最终裁定,谷歌在 Android 操作系统中使用甲骨文的编程代码时,并没有侵犯版权。法院表示,“谷歌复制 API 来重新实现用户界面,只取其所需,让用户将其积累的才能投入到一个新的、变革性的程序中,构成了对该材料的合理使用。”

很多人担心甲骨文胜诉或造成 API 版权问题,因而对软件行业造成极大破坏。但是,事实上这次裁决是在假定 API 具有版权的前提下,裁定谷歌属于合理使用而已。

因此,虽然这个决定并没有直接排除 API 可以受版权保护的可能性,但它明确了根据合理使用原则,你不能阻止其他开发者自由使用你的 API 来构建新程序。换句话说,程序员可以继续在他们的项目中使用 API,就像之前几十年一样。

有公司为勒索软件支付了数百万美元后没有及时补救,又被再次勒索

英国国家网络安全中心披露了一则警示性的故事:这家未提及名字的公司成为勒索软件攻击的受害者,以比特币支付了赎金(以当前汇率接近 650 万英镑),以恢复网络和文件。然而,该公司就这样不了了之,没有分析网络犯罪分子是如何渗透到网络中的。不到两周后,当同一个勒索软件团伙用同样的勒索软件感染网络时,该公司最终第二次支付了赎金。

对于大多数受害者来说,他们的首要任务是拿回他们的数据。然而,真正的问题是,勒索软件往往只是一个更严重的网络入侵的可见症状。为了安装勒索软件,网络犯罪分子可能已经能够获得网络的后门访问权。因此,如果没有亡羊补牢的话,他们可以随时回来部署另外一次勒索。

开车即可挖矿,智己汽车正式公布了用户数字资产“原石”挖矿方式

由上汽集团、浦东新区和阿里巴巴集团三方联合投资超过 100 亿元的智己汽车,发布了它的“原石”挖矿方式。购车用户将通过“里程式开采”和“养成式开采”两种方式获取“原石”。所谓的“里程式开采”是指,购车用户基于日常用车产生授权使用的“车辆与驾驶行为数据”获取“原石”。而“养成式开采”是指用户参与 APP 互动任务、品牌共创任务等任务获得抽取“盲盒”。“原石”可被用于兑换各种硬件升级或软件空中升级服务,乃至金融及保险产品;还可享有公司升值的巨大红利。

虽然理论上,通过授权数据使用权而换得一定权益是符合逻辑的,但是这种在危险边缘试探的举动,很难说会不会被喊停。

华为称 HMS 已成为全球第三大移动应用生态,有 230 万开发者

2020 年初,华为在海外市场正式发布了 HMS(华为移动服务),用来代替谷歌 GMS。3 月 31 日下午,华为举行了线上发布会,华为公司轮值董事长胡厚崑表示:“2020 年 HMS 已经成为全球第三大移动应用生态,2020 年年底全球注册开发者 230 万,其中国外 30 万,扩展应用超过 12 万个。”华为此前曾公布,截至去年 12 月,HMS 已经在 170 个国家和地区覆盖 5 亿月活用户。

此外,华为还表示鸿蒙 OS 目前已吸引到超过 20 家硬件厂商、280 家应用厂商共同参与生态建设。

Google 从 Android 设备上收集的遥测数据二十倍于苹果

有专家研究了 iOS 和 Android 设备向苹果和 Google 服务器发送的遥测数据。该研究发现即使用户选择退出遥测,iOS 和 Android 仍然会发送遥测数据。当新的 SIM 卡插入到设备中,相关信息会立即与苹果和 Google 共享。设备上预装的应用被发现在未启动或使用前就会连接苹果和 Google 服务器。

研发发现 Google 收集的数据二十倍于苹果。开机 10 分钟内,Pixel 手机向 Google 发送了 1MB 数据,而 iPhone 发送了 42KB;在闲置状态下,Pixel 手机每 12 小时向 Google 发送 1MB 数据,相比之下 iPhone 只向苹果发送 52KB 数据。

这智能手机简直就是一个手机厂商的一个个遥测终端啊。

SCO 继任者 Xinuos 继续对 IBM、红帽发起版权、反垄断诉讼

十年前以 UnXis 的名义围绕 SCO 集团资产组建的 Xinuos,当时表示对继续 SCO 长期以来对 Linux 的诉讼不感兴趣,但是如今又开始起诉 IBM 和红帽涉嫌违反版权和反垄断法。

这家公司在诉状中称,IBM 窃取了 UnixWare 和 OpenServer 代码,并利用所窃取的财产构建和销售与 AIX、z/OS大型机等 Xinuos 本身竞争的产品,并与红帽公司合谋瓜分市场后,随后收购了红帽公司。

SCO 集团在 2003 年也提出了类似的知识产权诉求。它认为,SCO 集团拥有 AT&T 的 Unix 和 UnixWare 操作系统源代码的权利,Linux 2.4.x 和 2.5.x 是 Unix 的未经授权的衍生物,IBM 发布 Linux 代码违反了其合同义务。

这可真是不死不休啊,哦不,连 SCO 公司都没有了也不休。

Google API 可以凸显出有关 Google 如何对网站进行分类的线索,以及如何调整内容以改进搜索结果的方法。

 title=

作为一名技术性的搜索引擎优化人员,我一直在寻找以新颖的方式使用数据的方法,以更好地了解 Google 如何对网站进行排名。我最近研究了 Google 的 自然语言 API 能否更好地揭示 Google 是如何分类网站内容的。

尽管有 开源 NLP 工具,但我想探索谷歌的工具,前提是它可能在其他产品中使用同样的技术,比如搜索。本文介绍了 Google 的自然语言 API,并探究了常见的自然语言处理(NLP)任务,以及如何使用它们来为网站内容创建提供信息。

了解数据类型

首先,了解 Google 自然语言 API 返回的数据类型非常重要。

实体

实体 Entities 是可以与物理世界中的某些事物联系在一起的文本短语。 命名实体识别 Named Entity Recognition (NER)是 NLP 的难点,因为工具通常需要查看关键字的完整上下文才能理解其用法。例如, 同形异义字 homographs 拼写相同,但是具有多种含义。句子中的 “lead” 是指一种金属:“铅”(名词),使某人移动:“牵领”(动词),还可能是剧本中的主要角色(也是名词)?Google 有 12 种不同类型的实体,还有第 13 个名为 “UNKNOWN”(未知)的统称类别。一些实体与维基百科的文章相关,这表明 知识图谱 对数据的影响。每个实体都会返回一个显著性分数,即其与所提供文本的整体相关性。

 title=

情感

情感 Sentiment ,即对某事的看法或态度,是在文件和句子层面以及文件中发现的单个实体上进行衡量。情感的 得分 score 范围从 -1.0(消极)到 1.0(积极)。 幅度 magnitude 代表情感的 非归一化 non-normalized 强度;它的范围是 0.0 到无穷大。

 title=

语法

语法 Syntax 解析包含了大多数在较好的库中常见的 NLP 活动,例如 词形演变 lemmatization 词性标记 part-of-speech tagging 依赖树解析 dependency-tree parsing 。NLP 主要处理帮助机器理解文本和关键字之间的关系。语法解析是大多数语言处理或理解任务的基础部分。

 title=

分类

分类 Categories 是将整个给定内容分配给特定行业或主题类别,其 置信度 confidence 得分从 0.0 到 1.0。这些分类似乎与其他 Google 工具使用的受众群体和网站类别相同,如 AdWords。

 title=

提取数据

现在,我将提取一些示例数据进行处理。我使用 Google 的 搜索控制台 API 收集了一些搜索查询及其相应的网址。Google 搜索控制台是一个报告人们使用 Google Search 查找网站页面的术语的工具。这个 开源的 Jupyter 笔记本 可以让你提取有关网站的类似数据。在此示例中,我在 2019 年 1 月 1 日至 6 月 1 日期间生成的一个网站(我没有提及名字)上提取了 Google 搜索控制台数据,并将其限制为至少获得一次点击(而不只是 曝光 impressions )的查询。

该数据集包含 2969 个页面和在 Google Search 的结果中显示了该网站网页的 7144 条查询的信息。下表显示,绝大多数页面获得的点击很少,因为该网站侧重于所谓的长尾(越特殊通常就更长尾)而不是短尾(非常笼统,搜索量更大)搜索查询。

 title=

为了减少数据集的大小并仅获得效果最好的页面,我将数据集限制为在此期间至少获得 20 次曝光的页面。这是精炼数据集的按页点击的柱状图,其中包括 723 个页面:

 title=

在 Python 中使用 Google 自然语言 API 库

要测试 API,在 Python 中创建一个利用 google-cloud-language 库的小脚本。以下代码基于 Python 3.5+。

首先,激活一个新的虚拟环境并安装库。用环境的唯一名称替换 <your-env>

virtualenv <your-env>
source <your-env>/bin/activate
pip install --upgrade google-cloud-language
pip install --upgrade requests

该脚本从 URL 提取 HTML,并将 HTML 提供给自然语言 API。返回一个包含 sentimententitiescategories 的字典,其中这些键的值都是列表。我使用 Jupyter 笔记本运行此代码,因为使用同一内核注释和重试代码更加容易。

# Import needed libraries
import requests
import json

from google.cloud import language
from google.oauth2 import service_account
from google.cloud.language import enums
from google.cloud.language import types

# Build language API client (requires service account key)
client = language.LanguageServiceClient.from_service_account_json('services.json')

# Define functions
def pull_googlenlp(client, url, invalid_types = ['OTHER'], **data):
   
        html = load_text_from_url(url, **data)
   
        if not html:
        return None
   
        document = types.Document(
        content=html,
        type=language.enums.Document.Type.HTML )

        features = {'extract_syntax': True,
                'extract_entities': True,
                'extract_document_sentiment': True,
                'extract_entity_sentiment': True,
                'classify_text': False
                }
   
        response = client.annotate_text(document=document, features=features)
        sentiment = response.document_sentiment
        entities = response.entities
   
        response = client.classify_text(document)
        categories = response.categories
         
        def get_type(type):
        return client.enums.Entity.Type(entity.type).name
   
        result = {}
   
        result['sentiment'] = []    
        result['entities'] = []
        result['categories'] = []

        if sentiment:
        result['sentiment'] = [{ 'magnitude': sentiment.magnitude, 'score':sentiment.score }]
         
        for entity in entities:
        if get_type(entity.type) not in invalid_types:
                result['entities'].append({'name': entity.name, 'type': get_type(entity.type), 'salience': entity.salience, 'wikipedia_url': entity.metadata.get('wikipedia_url', '-')  })
         
        for category in categories:
        result['categories'].append({'name':category.name, 'confidence': category.confidence})
         
         
        return result


def load_text_from_url(url, **data):

        timeout = data.get('timeout', 20)
   
        results = []
   
        try:
         
        print("Extracting text from: {}".format(url))
        response = requests.get(url, timeout=timeout)

        text = response.text
        status = response.status_code

        if status == 200 and len(text) > 0:
                return text
         
        return None
         

        except Exception as e:
        print('Problem with url: {0}.'.format(url))
        return None

要访问该 API,请按照 Google 的 快速入门说明 在 Google 云主控台中创建一个项目,启用该 API 并下载服务帐户密钥。之后,你应该拥有一个类似于以下内容的 JSON 文件:

 title=

命名为 services.json,并上传到项目文件夹。

然后,你可以通过运行以下程序来提取任何 URL(例如 Opensource.com)的 API 数据:

url = "https://opensource.com/article/19/6/how-ssh-running-container"
pull_googlenlp(client,url)

如果设置正确,你将看到以下输出:

 title=

为了使入门更加容易,我创建了一个 Jupyter 笔记本,你可以下载并使用它来测试提取网页的实体、类别和情感。我更喜欢使用 JupyterLab,它是 Jupyter 笔记本的扩展,其中包括文件查看器和其他增强的用户体验功能。如果你不熟悉这些工具,我认为利用 Anaconda 是开始使用 Python 和 Jupyter 的最简单途径。它使安装和设置 Python 以及常用库变得非常容易,尤其是在 Windows 上。

处理数据

使用这些函数,可抓取给定页面的 HTML 并将其传递给自然语言 API,我可以对 723 个 URL 进行一些分析。首先,我将通过查看所有页面中返回的顶级分类的数量来查看与网站相关的分类。

分类

 title=

这似乎是该特定站点的关键主题的相当准确的代表。通过查看一个效果最好的页面进行排名的单个查询,我可以比较同一查询在 Google 搜索结果中的其他排名页面。

  • URL 1 |顶级类别:/法律和政府/与法律相关的(0.5099999904632568)共 1 个类别。
  • 未返回任何类别。
  • URL 3 |顶级类别:/互联网与电信/移动与无线(0.6100000143051147)共 1 个类别。
  • URL 4 |顶级类别:/计算机与电子产品/软件(0.5799999833106995)共有 2 个类别。
  • URL 5 |顶级类别:/互联网与电信/移动与无线/移动应用程序和附件(0.75)共有 1 个类别。
  • 未返回任何类别。
  • URL 7 |顶级类别:/计算机与电子/软件/商业与生产力软件(0.7099999785423279)共 2 个类别。
  • URL 8 |顶级类别:/法律和政府/与法律相关的(0.8999999761581421)共 3 个类别。
  • URL 9 |顶级类别:/参考/一般参考/类型指南和模板(0.6399999856948853)共有 1 个类别。
  • 未返回任何类别。

上方括号中的数字表示 Google 对页面内容与该分类相关的置信度。对于相同分类,第八个结果比第一个结果具有更高的置信度,因此,这似乎不是定义排名相关性的灵丹妙药。此外,分类太宽泛导致无法满足特定搜索主题的需要。

通过排名查看平均置信度,这两个指标之间似乎没有相关性,至少对于此数据集而言如此:

 title=

这两种方法对网站进行规模审查是有意义的,以确保内容类别易于理解,并且样板或销售内容不会使你的页面与你的主要专业知识领域无关。想一想,如果你出售工业用品,但是你的页面返回 “Marketing(销售)” 作为主要分类。似乎没有一个强烈的迹象表明,分类相关性与你的排名有什么关系,至少在页面级别如此。

情感

我不会在情感上花很多时间。在所有从 API 返回情感的页面中,它们分为两个区间:0.1 和 0.2,这几乎是中立的情感。根据直方图,很容易看出情感没有太大价值。对于新闻或舆论网站而言,测量特定页面的情感到中位数排名之间的相关性将是一个更加有趣的指标。

 title=

实体

在我看来,实体是 API 中最有趣的部分。这是在所有页面中按 显著性 salience (或与页面的相关性)选择的顶级实体。请注意,对于相同的术语(销售清单),Google 会推断出不同的类型,可能是错误的。这是由于这些术语出现在内容中的不同上下文中引起的。

 title=

然后,我分别查看了每个实体类型,并一起查看了该实体的显著性与页面的最佳排名位置之间是否存在任何关联。对于每种类型,我匹配了与该类型匹配的顶级实体的显著性(与页面的整体相关性),按显著性排序(降序)。

有些实体类型在所有示例中返回的显著性为零,因此我从下面的图表中省略了这些结果。

 title=

“Consumer Good(消费性商品)” 实体类型具有最高的正相关性, 皮尔森相关度 Pearson correlation 为 0.15854,尽管由于较低编号的排名更好,所以 “Person” 实体的结果最好,相关度为 -0.15483。这是一个非常小的样本集,尤其是对于单个实体类型,我不能对数据做太多的判断。我没有发现任何具有强相关性的值,但是 “Person” 实体最有意义。网站通常都有关于其首席执行官和其他主要雇员的页面,这些页面很可能在这些查询的搜索结果方面做得好。

继续,当从整体上看站点,根据实体名称和实体类型,出现了以下主题。

 title=

我模糊了几个看起来过于具体的结果,以掩盖网站的身份。从主题上讲,名称信息是在你(或竞争对手)的网站上局部查看其核心主题的一种好方法。这样做仅基于示例网站的排名网址,而不是基于所有网站的可能网址(因为 Search Console 数据仅记录 Google 中展示的页面),但是结果会很有趣,尤其是当你使用像 Ahrefs 之类的工具提取一个网站的主要排名 URL,该工具会跟踪许多查询以及这些查询的 Google 搜索结果。

实体数据中另一个有趣的部分是标记为 “CONSUMER\_GOOD” 的实体倾向于 “看起来” 像我在看到 “ 知识结果 Knowledge Results ”的结果,即页面右侧的 Google 搜索结果。

 title=

在我们的数据集中具有三个或三个以上关键字的 “Consumer Good(消费性商品)” 实体名称中,有 5.8% 的知识结果与 Google 对该实体命名的结果相同。这意味着,如果你在 Google 中搜索术语或短语,则右侧的框(例如,上面显示 Linux 的知识结果)将显示在搜索结果页面中。由于 Google 会 “挑选” 代表实体的示例网页,因此这是一个很好的机会,可以在搜索结果中识别出具有唯一特征的机会。同样有趣的是,5.8% 的在 Google 中显示这些知识结果名称中,没有一个实体的维基百科 URL 从自然语言 API 中返回。这很有趣,值得进行额外的分析。这将是非常有用的,特别是对于传统的全球排名跟踪工具(如 Ahrefs)数据库中没有的更深奥的主题。

如前所述,知识结果对于那些希望自己的内容在 Google 中被收录的网站所有者来说是非常重要的,因为它们在桌面搜索中加强高亮显示。假设,它们也很可能与 Google Discover 的知识库主题保持一致,这是一款适用于 Android 和 iOS 的产品,它试图根据用户感兴趣但没有明确搜索的主题为用户浮现内容。

总结

本文介绍了 Google 的自然语言 API,分享了一些代码,并研究了此 API 对网站所有者可能有用的方式。关键要点是:

  • 学习使用 Python 和 Jupyter 笔记本可以为你的数据收集任务打开到一个由令人难以置信的聪明和有才华的人建立的不可思议的 API 和开源项目(如 Pandas 和 NumPy)的世界。
  • Python 允许我为了一个特定目的快速提取和测试有关 API 值的假设。
  • 通过 Google 的分类 API 传递网站页面可能是一项很好的检查,以确保其内容分解成正确的主题分类。对于竞争对手的网站执行此操作还可以提供有关在何处进行调整或创建内容的指导。
  • 对于示例网站,Google 的情感评分似乎并不是一个有趣的指标,但是对于新闻或基于意见的网站,它可能是一个有趣的指标。
  • Google 发现的实体从整体上提供了更细化的网站的主题级别视图,并且像分类一样,在竞争性内容分析中使用将非常有趣。
  • 实体可以帮助定义机会,使你的内容可以与搜索结果或 Google Discover 结果中的 Google 知识块保持一致。我们将 5.8% 的结果设置为更长的(字计数)“Consumer Goods(消费商品)” 实体,显示这些结果,对于某些网站来说,可能有机会更好地优化这些实体的页面显著性分数,从而有更好的机会在 Google 搜索结果或 Google Discovers 建议中抓住这个重要作用的位置。

via: https://opensource.com/article/19/7/python-google-natural-language-api

作者:JR Oakes 选题:lujun9972 译者:stevenzdg988 校对:wxy

本文由 LCTT 原创编译,Linux中国 荣誉推出

国产 GPU 能否用于比特币挖矿?目前不能

现在 AMD、NVIDIA 等 GPU 公司靠着挖矿市场大赚特赚,那国内的 GPU 公司有没有可能分一杯羹?日前已经有人在互动平台上向长沙景嘉微公司询问,他们的 GPU 芯片能不能用于比特币挖矿。该公司表示,公司目前产品不能应用于比特币矿机。未来公司产品是否应用于比特币矿机需视产品研发后的性能与需求而定。

景嘉微目前有 JM5、JM7 两个系列,其中 JM5400 系列已经在国产军用飞机上应用。下一代 GPU 是 JM9 系列,可达到 2017 年底的高端显卡的水平。

我觉得之所以不适合挖矿,可能是在效能方面不够好,但是能支持部分重要领域的应用就很好了。

GNOME 40 Beta 发布:Shell 和 Mutter 迎来重大改进

如果一切正常,稳定版将会在 1 个月后和大家见面。这个版本号从 3.38 一下突破到 40.0 ,带来了很多变化:

  • GNOME Shell 启用重新设计的概览区域,默认禁用已经过时的扩展程序
  • Mutter 迎来重大改进,包括按需启动 XWayland,默认为水平工作区布局
  • GTK 4.1 提供了各种修复和改进。

让我们期待一个月后稳定版发布!

谷歌基于它的需要加大了对开源的赞助

由于担心 Linux 和开源代码的安全问题,“我们发现错误的速度比修复错误的速度快得多”,谷歌正在赞助两位全职开发人员来研究内核的安全问题。而在这之前,这两人已经在 Linux 基金会工作好几年了。谷歌的资助符合该公司的利益,但也让其他 Linux 用户受益。当然,除了 Linux 之外,正如我们之前报道的,谷歌也为 Python 赞助了一名全职的核心开发者,提供了 35 万美元的支持。

但是谷歌只是 Linux 基金会每年 10 万美元的黄金会员,而华为、微软、英特尔、Facebook 和红帽在内的公司是白金会员,每年贡献 50 万美元。当然,谷歌指出,AWS 才是每年 2 万美元的白银会员。

SolarWinds 攻击至少需要有 1000 位工程师

这场长达数月的,可能影响了多达 1.8 万家美国政府机构和网络安全厂商的黑客攻击活动,是通过在 SolarWinds 的 Orion 网络管理软件内植入木马进行的软件供应链攻击。

微软总裁布拉德•史密斯在访谈中谈到,“我认为从软件工程的角度来看,可能可以说这是世界上有史以来规模最大、最复杂的攻击”。微软也是这次攻击的受害者之一,为了调查这次攻击,微软指派了 500 名工程师参与了调查。史密斯认为,“当我们分析在微软看到的一切时,我们问自己大概有多少工程师参与过这些攻击。而我们得出的答案是,肯定超过 1000 人。”

据悉,攻击者只在 Orion 内重写了 4032 行代码,而 Orion 由数百万行代码组成。

我认为,这么大规模、处心积虑的攻击行为,背后没有一个严密的组织是不可能的,不过这个规模还是令人吃惊的。

开源 Web 扩展项目中的恶意程序问题

一些广为流传的 Chrome 开源扩展在变更了控制权之后,变成了恶意软件。这包括 The Great Suspender 的所有权在去年 10 月转移给一个未公开身份的人之后,推送了恶意更新,它会下载和执行第三方 JavaScript 脚本,并关闭了自动更新机制,这意味着即使恶意代码移除现有用户仍然会继续使用恶意版本。谷歌最近决定强制移除该恶意扩展。

这样的事情并不鲜见,还包括 uBlock 转移所有权之后,被新的维护者用来牟利和让广告商付费免除屏蔽;Nano Adblocker 和 Nano Defender 也在转移后变成了恶意扩展。

用户往往不会注意也不会得到开源的扩展应用所有权转移的通知,这就为使用开源扩展带来了潜在的风险。因为,谷歌并不会对这些扩展进行事先的人工审查,而用户基于之前的口碑也往往在受到侵害后才可能发现问题。

我认为,这个问题需要得到重视,作为托管这些扩展的谷歌商店,应该建立相应的机制,最起码可以做到明确提醒所有权变更,或对刻意的更新进行更严格的审查。

谷歌在称赞其 Stadia 工作室一周后,关闭了它

谷歌在 2 月 1 日出人意料地宣布,将关闭 Stadia 游戏开发工作室。但这一消息不仅仅是对 Stadia 客户的惊吓,对于 Stadia 开发团队来说更是晴天霹雳。据报道,就在一周前,Stadia 开发团队还被告知,工作室正在取得“巨大的进步”。

据报道,谷歌副总裁、Stadia 总经理哈里森承认,当他发邮件赞扬团队的进展时,谷歌的高管们已经知道关闭的消息了。

我认为,这也太儿戏了,这些领导人说的话都是官样文章,你相信就天真了。

谷歌云计算业务去年亏损 56 亿美元

谷歌刚刚披露了最新财报,透露其云计算业务去年全年收入 130.6 亿美元,全年亏损 56.1 亿美元。

这是谷歌首次公开云计算业务的营业收入指标。谷歌最主要收入来自于广告,云计算业务是其多元化收入来源的重要一环。由于该公司在销售人员上进行了大量投资,该部门的亏损正在增加。在 2018 年,该公司的云计算业务收入 58.4 亿美元,亏损 43.5 亿美元,在2019 年收入 89.2 亿美元,亏损 46.5 亿美元。

CNNIC 发布第 47 次《中国互联网络发展状况统计报告》

报告显示,截至 2020 年 12 月,IPv6 地址数量为 57634 块/32,较 2019 年底增长 13.3%。我国域名总数为 4198 万个。其中,.CN 域名总数为 1897 万个,占我国域名总数的 45.2%;.COM 域名数量为 1263 万个,占我国域名总数的 31.1%。我国国际出口带宽为11511397Mbps,较2019年底增长30.4%。

另外一个值得注意的数据是,截至 2020 年 12 月,我国网络视频(含短视频)用户规模达 9.27 亿,占网民整体的 93.7%;其中,短视频用户规模达 8.73 亿,占网民整体的 88.3%。

文档基金会发布 LibreOffice 7.1 “社区”版

刚刚发布的 LibreOffice 7.1 现在明确打上了 “社区” 标签。自从之前文档基金会表示将 LibreOffice 分为社区版和企业版之后,引来了社区的一些不同看法。文档基金会表示 “‘社区’标签强调了该软件并非针对企业,也没有针对企业的支持需求进行优化”。

因为越来越多的企业选择了志愿者支持的版本,而不是针对其需求进行优化的版本。文档基金会认为这给该项目带来了两方面的负面影响:一是志愿者的时间没有得到很好的利用,因为他们不得不把时间花在为企业解决问题上,而这些问题却没有为社区提供任何回报;二是生态系统企业的净损失。

对于这种做法,我觉得,有可持续发展的生态的开源项目,才是有生命力的开源项目。只是文档基金会可以在具体的社区和产品策略上做得更好一些。