AI 一天比一天更聪明,但它仍然无法与人类的思维相匹配

作者:佩雷尔穆特 7分钟阅读

人工智能研究可以按不同方式细分:根据所使用的技术(如专家系统、人工神经网络或进化计算)或所解决的问题(如计算机视觉、语言处理或预测系统)。 目前,用于开发新应用程序的最常用的人工智能技术之一被称为机器学习。 从基本意义上讲,机器学习旨在提供具有尽可能大数据量的算法,使系统能够发展自主得出结论的能力。 描述这个过程的一个简单方法如下:如果我们想教一个图像识别系统识别一个钥匙,我们会向它展示尽可能多的钥匙以进行训练。 然后,结构本身学会识别随后呈现的图像是否是关键——即使系统在训练期间从未见过这些图像。

识别图像曾经是一项人类比机器具有明显优势的任务——直到最近。 2006 年制定的 ImageNet 项目等举措显着减少了这种差异。 ImageNet 项目由斯坦福大学计算机科学教授、斯坦福大学计算机科学教授李飞飞领导,该项目由一个包含近 15 万张人类分类图像的数据库组成。 .

该信息库是用于训练计算机视觉算法的原材料,可免费在线获取。 为了促进计算机图像识别领域的发展,ImageNet 大规模视觉识别挑战赛 (ILSVRC) 于 2010 年创建,由来自世界各地的团队开发的系统竞相正确分类屏幕上显示的图像。 在不到十年的时间里获得的结果的演变证明了深度学习领域取得的非凡进步(目前是人工智能中最常用的技术之一,并且是——你猜对了——深度技术的关键推动者) . 2011 年,25% 的错误率被认为是好的; 2017年参赛的38支队伍中,有不少于29支队伍的失误率低于5%。

几十年来,计算机程序的开发基于“规则+数据=结果”等式。 换句话说,预先输入规则,处理输入数据,并产生结果。 但基于深度学习的系统使用的范式却大不相同,并试图模仿人类的学习方式:“数据 + 结果 = 规则”。

通常通过人工神经网络(能够从数据中提取创建规则所需的特征并产生结果的结构)实现,这些系统处于面部识别、语音识别、计算机视觉、诊断医学等等。 一旦提供了足够大的示例(数据)集及其各自的分类(结果),系统就会获得规则的内部表示——并且能够推断出它以前从未见过的数据的结果。

做正确的事

尽管基于深度学习的系统能够提高几乎任何分类任务的准确性,但必须记住,它们的准确性高度依赖于学习阶段使用的数据的质量和类型。 这是使用该技术的最大风险因素之一:如果训练不仔细,结果可能很危险。 在 2016 年的一项研究中,普林斯顿大学的三位研究人员——Aylin Caliskan、Joanna Bryson 和 Arvind Narayanan——使用了近一万亿个英语单词作为输入数据。 结果表明,“语言本身包含历史偏见,无论这些偏见是对昆虫或花朵的道德中立,还是对种族或性别的问题,甚至只是真实的,反映了性别在职业或名字方面的分布。”

机器没有自己的自由意志; 他们总是听从程序员的指示。

同样在 2016 年,计算机协会(世界上最大的国际计算学习学会,成立于 1947 年)的月刊发表了 Nicholas Diakopoulos(佐治亚理工学院计算机科学博士)题为“Accountability in算法决策。” 如果所谓的智能系统确实继续扩展到商业、服务和政府的不同领域,那么它们就不会受到人类有意识或无意识产生的偏见的污染。 理想的模型很可能涉及机器和人类之间的协作,而后者可能负责就模型和算法尚未完全理解的细微差别和复杂性的主题做出决策。

几乎所有行业对未来变化的重要性的看法都反映在对该行业初创公司投资的增加上:根据 CB Insights 公司的数据,这一数字从 2 年的不到 2013 亿美元增加到 25 年的超过 2019 亿美元。谷歌、微软、苹果、Facebook 和亚马逊等科技公司已经将智能技术融入到他们的产品中,并且正在朝着几乎所有业务线都具有内置机器学习组件的未来迈进。 这适用于所有类型的应用程序:通话期间的自动同声传译,为我们想要(或将想要)在线购买的任何东西提供建议,或者在与我们的手机交互时正确识别语音。

公司面临的一大挑战是定义使用这组新技术的最佳方式,这些新技术将在其输出中包含概率方面。 换句话说,算法会估计给定问题的解决方案,但不能保证它实际上是最佳解决方案。 作为实施质量和所用技术的函数,该过程要么稳健可靠,要么结果将损害相关公司的财务状况。

和平与战争:机器没有自由意志

人工智能机制和武器的整合提供了真正自主武器(自主武器系统或致命自主武器)的可能性。 配备面部识别软件的武装无人机可以通过编程杀死某个人或一群人,然后自毁,几乎不可能确定其来源。

机器没有自己的自由意志; 他们总是听从程序员的指示。 即使仅用于防御目的(当然是一条细线),这些手臂也存在重大风险,并且它们唤起了科幻小说作者几十年来一直在写的杀手机器人的形象。

2015年,在国际人工智能联合会议上,理论物理学家斯蒂芬霍金(1942-2018)、企业家埃隆马斯克和神经科学家德米斯哈萨比斯(DeepMind的创始人之一)签署了一封主张废除此类武器的信函。 ,2014 年被谷歌收购)等。 讨论仍在进行中,但有一些历史例子说明了诸如 Vasili Arkhipov (1926-1998) 等人类参与生死决定的好处。

1962年150月,美国中央情报局资助的一批古巴流亡者入侵古巴猪湾失败。 为了防止未来的入侵,古巴政府要求苏联在岛上安装核导弹。 在获得这些导弹确实在安装的明确证据后,美国实施了海上封锁以阻止更多导弹到达该岛,并要求拆除那些已经安装的导弹,这些导弹距离仅 90 公里(1962 英里)来自佛罗里达。 XNUMX 年 XNUMX 月,世界注视着美国和苏联之间的紧张局势升级并达到顶峰。

27 月 59 日,当一艘苏联 B-59 潜艇位于附近的国际水域时,美国海军的一名船员在该船附近投放了深水炸弹,迫使其浮出水面。 由于几天没有与莫斯科取得联系并且无法使用无线电,这艘潜艇的船长瓦伦丁·萨维茨基确信第三次世界大战已经开始,他想对美国人发射核鱼雷。 但从 B-39 发射核武器的决定需要三名官员一致:萨维茨基上尉、政治官员伊万·马斯连尼科夫和当时只有 XNUMX 岁的二把手瓦西里·阿尔希波夫。 他是唯一一个反对并建议潜艇浮出水面以便与莫斯科联系的人。 尽管有证据表明存在战争,但阿尔希波夫仍然坚定不移,实际上将世界从核冲突中拯救了出来。

经 Guy Perelmuter 许可改编 现在的未来:商业,科学和深度技术革命,由 Fast Company Press 出版。

盖伊·佩雷尔穆特 (Guy Perelmuter) 是 格力资本,一家专注于人工智能、机器人、生命科学和技术基础设施的深度科技风险投资公司。

更多信息

家伙佩雷尔穆特