时间:2024-04-24
施龙·兹里斯
人工智能(AI)正在扩大其使用范围——从特斯拉的自驾车,到谷歌DeepMind设计的AlphaGo在围棋比赛中击败世界冠军,再到IBM的沃森(Watson)疾病诊断系统。软件正在超越执行黑白指令的阶段,转而作出复杂且通常是主观的决策。2017年,社会将开始信任机器,就像相信人类一样。
人工智能带来了一种传统软件没有的不可预测性。在解决复杂的任务时,想要构建覆盖每一个可能性的规则太困难了。相反,人工智能从经验中学习。他们作出的决定随着时间的推移而变化(如同Google的搜索结果)。人们通常不可能准确地解释为什么一个人工智能系统产生了它所做出的结果:一个四岁的孩子和一个人工智能图像分析程序可以正确地在照片中识别出一只狗,但他们都无法告诉你,他们是怎么知道他们是正确的。
在区别这是一张狗的照片还是猫的照片时,这种不可预测性是没有问题的。但当人工智能推荐一种形式的手术而不是另一种,又或是在拥挤的高速公路上全速驾驶汽车时,挑战出现了。
如果人工智能不可预测,那为什么要信任它?因为这些程序带来的价值太大,不可忽视。2015年,几乎50亿美元的私人投资投给了人工智能公司,更不用说微软、亚马逊、Facebook、谷歌、彭博(我作为合伙人的风险投资基金正属于彭博)和Uber等公司的内部研发。人工智能不仅有助于挽救路上和医院里的生命,而且还会让企业作出更好的决策。即使人有时也是不可预测和不可置信的,商业领袖仍然相信人类是市场的决策者。社会将以同样的方式开始建立一种“机器信任”。
但是,社会并不会盲目地相信人工智能,社会将随着时间的推移對其进行评估,并逐渐给予它更大的自由度(就像老板试用新员工一样)。自驾车将要经过相当于驾校的过程,并在通过考试时获得许可;放射电脑医生将作为实习生,向专家学习,随着作出更准确的诊断而承担更多的责任。
创造者们也会尝试将伦理逐渐灌输到这些系统中。就像人类一样,人工智能系统也会犯错误,社会必须决定什么时候原谅和什么时候惩罚。但是,在人工智能开始作出比人类更好的决定时,它会赢得他们的信任,并且蓬勃发展。
(翻译:袁雪,审译:康娟)
我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!