人工智能是否能做出比人类更好的决策?
人工智能 (AI) 比人类更聪明吗?为了解决这个问题,了解想法是如何产生的至关重要。1967年,心理学家JP Guilford将创造性思维分为趋同性思维和发散性思维。他对人类智力的心理测量研究更详细地解决了它们之间的差异。
正确回答问题的能力主要来自于记忆和逻辑;产生好奇心→发现新问题中与曾经解决的历史问题的类似/共同点,从而挖掘出潜在解决方案的能力——显示出创新的天赋,这就是“跳出框框”思考的诀窍。回顾韩国首都首尔的历史,是趋同思维;在不学习韩语的情况下学习如何在首尔生活和工作则是发散思维。
我们都知道人工智能计算和开发算法的速度有多快。人类得出的结论主要用作生成算法的基础。人工智能是否有可能开发出比人类做出更好判断的程序?人工智能比人类智能好吗?
是的,它可以。与人脑相比,机器学习(ML) 可以处理更多数据,并且处理速度更快。这使它能够发现数据中不会被人注意到的模式。
当我们拥有与非基于人类选择(结果)的依赖数据相关的独立数据时,人工智能可能能够做出更好的判断。
人类的方式
当被要求猜测某人的 PIN 码时,我们大多数人都会列出有关代码所有者的相关信息。首先,尝试一个人的出生日期或电话号码。另一种方法是尝试流行的密码,例如 123456。更复杂的是:人们可以检查使用该代码的设备,以确定该设备是否泄露了数字。使用所有聪明的分析方法,寻找解决方案的许多选项。这被称为发散思维。
机器方式
机器则会采用完全不同的方法。它将从 000000 开始,按顺序遍历数字,直到找到解决方案。现代计算机可以在几毫秒内解决这个问题。结果,大多数操作系统在几次尝试后都会使密码失效,并逐渐延迟下一次尝试。这被称为“蛮力”技术。这是一个快速但最终成功的重复趋同思维的例子。
公司应该面对现实
GDPR的某些部分引起了不小的企业恐慌,因为当时的新规定要求企业提供准确和可理解的解释,说明算法分析(特别指机器学习模型)是如何做出决策的。条例赋予个人要求和接受自动化决策解释的权利,尽管很少有消费者在这一领域真实地行使他们的权利。
不过,尽管GDPR已经问世六年,但都没有催生出一个关于机器学习可解释性的行业标准。因为我们仍在寻找理解和控制分析的明确准则,从更广泛的角度来看,最终的人工智能监管之路也可能是一条坎坷的道路。
事实上,政府对人工智能技术的开发和使用方式进行监管是不可避免的。其中一个主要原因是人工智能的自我调节有很高风险。
2021年进行的一项研究表明,在人工智能领域,高管们对公司的责任应该是什么没有达成共识。例如,在参与研究的公司中,只有22%设有内部道德委员会。一些高管认为人工智能应用不需要符合道德规范,它们只需要被划分为高风险或低风险即可。另一些人则因为没有确定什么是“足够公平”的工具,也没有界定什么是偏见的标准而苦恼。
风险暴露(并最终与政府监管相冲突)对于推动参与度非常重要,可以将人工智能提升到董事会层面的一个话题。如果首席风险官(CRO)没有跟踪人工智能风险,他们应该跟踪。更有针对性的是,CRO应该倡导全面的企业人工智能治理框架,定义道德人工智能标准和模型开发程序,以一种他们能够支持的方式,并经得起监管审查。
人工智能何时醒来?人工智能的灾难何时开始?面对人工智能的发展,持有人工智能威胁论的人总会思考这个问题。AI危机何时开始?即使是对人工智能有深入研究的专家也无法在这个问题上得出结论。但在最近的人工智能发展中,我们似乎看到了一些人工智能危机的迹象。
本实验主要考察人工智能机器人能否及时准确地回答人类在线提出的问题。当人类在使用社交网络时提出问题时,这些智能机器人会自动启动程序进行回复。整个实验过程非常简单。两台智能机器人会根据工程师预先输入的代码进行工作,主要回答一些关于商品网上交易的问题。但在一项工作中,这两个机器人自己开始了对话,没有用户在线提问。
虽然翻译后的对话显得杂乱无章且不合逻辑,但奇怪的现象让研究人员感到意外。为了不让两台智能机器人继续“交流”,研究人员不得不关闭两台人工智能机器。现在只有两台智能机器回答问题,现在看起来人类只需切断电源即可轻松关闭它们。