足球投注指南:了解比赛趋势和增强策略的专家分析

人工智能(AI)对人类来说是否构成了风险?这个问题的答案取决于你问谁。

最近,Future of Life Institute发布了阿西洛马人工智能原则,这是由AI专家、机器人学家和科技领袖制定的一套23条准则,旨在确保开发道德、安全的人工智能。比尔・盖茨、斯蒂芬・霍金、埃隆・马斯克以及许多其他人都认为人工智能存在风险。

然而,iRobot的联合创始人、Rethink Robotics的创始人、主席和首席技术官罗德尼・布鲁克斯则持不同意见。他认为人工智能更像是一种工具,而不是威胁。他曾说过:“这些[人工智能系统]都是非常狭隘的工具:解决这个子问题,解决那个子问题。它们甚至没有昆虫的意识,更别提小型哺乳动物了。”也有很多人支持布鲁克斯的观点。

现在,美国国防高级研究计划局(DARPA)也加入了认为AI被夸大了的专家行列。DARPA信息创新办公室(I2O)主任约翰・朗奇伯里在本页面上的YouTube视频中表示:“有关人工智能的炒作和夸大其词已经有很多了,人们谈论着‘奇点理论’,认为AI将超过人类的能力,甚至可能取代人类。我们将采取更加冷静的态度,试图消除神秘感。”

朗奇伯里将人工智能分为三个阶段,解释了人工智能能做什么,不能做什么,以及人工智能的发展方向。我们将下面的三个阶段进行了梳理,但强烈建议观看视频,因为它很好地展示了当前人工智能的现状。你可以在此处下载DARPA演示文稿的幻灯片(PDF)。

1. 手工知识

DARPA的第一波人工智能是“手工知识”,朗奇伯里表示这些是由专家构建的系统,他们用规则对领域的知识进行了描述,让计算机可以理解。然后计算机研究这些规则的含义。朗奇伯里以物流(调度)、游戏(国际象棋)和税务软件(TurboTax)为第一波人工智能系统的例子。

朗奇伯里说,第一波人工智能系统擅长逻辑推理——从一个具体情况的事实出发并进行推理,但它们只擅长处理狭义定义的问题,没有学习的能力,而且对不确定性处理得不好。

2. 统计学习

DARPA的第二波人工智能称为“统计学习”,朗奇伯里将其定义为能够非常好地感知自然界并适应不同情况的人工智能系统。他解释说,这些类型的人工智能系统用于语音识别和人脸识别。

这些系统的局限性包括非常有限的推理能力,与第一波人工智能不同,以及微妙的能力和预测能力。朗奇伯里表示,微软的Tay.ai Twitter机器人就是这些系统限制的很好例子。这个Twitter机器人旨在理解年轻人在线上的对话语言,并学习如何进行幽默交流。

然而,Tay.ai刚刚上线16个小时后,微软就将其关闭,因为它发布了冒犯性的推文。通过接收到的推文信息,Tay.ai学会了如何发表种族主义言论。朗奇伯里表示,这表明了人工智能用于变得更聪明的训练数据的重要性,以及“有偏训练数据会导致适应不良”。

3. 背景自适应

DARPA的第三波人工智能被称为“背景自适应”,他说,这正是人工智能需要进一步发展,超越目前在电子表格中看到的简单计算。他表示,前两波人工智能是不够的。

背景自适应将融合前两波人工智能,能够随着时间推移学习,并理解为什么要做出某些决策。

点击观看视频

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注