杰弗里·欣顿(Geoffrey Hinton)俗称“深度学习的教父 ” ,过去十年来在Google的人工智能开发工作 。但是在接受《纽约时报》采访时,欣顿宣布他已辞职,并表示他担心AI发展的速度及其受害的潜力。
Hinton是AI开发领域最重要的研究人员之一。他在1998年当选为同胞的皇家学会(Royal Society)称他为“因人工神经网的工作而杰出,尤其是如何在没有人类老师的帮助的情况下将其设计为学习 ,”他的工作“很可能是自主智能脑型脑型机器的开始”。
2012年,他和学生Alex Krizhevsky和Ilya Sutskever开发了一个名为Alexnet的系统,Alexnet是一种“卷积神经网络” ,能够识别和识别图像中的对象的精度,远比任何先前的系统都要大得多 。在使用Alexnet赢得2012年ImageNet挑战之后不久,他们成立了一家名为DNN Research的初创公司 ,Google迅速以4400万美元的价格抢购了。
欣顿(Hinton)在Google&Mdash上兼职继续他的AI工作,他还是多伦多大学的教授,并领导该领域的进步:例如 ,2018年,他是图灵(Turing)的共同获奖者,获得了“人工智能领域的主要突破 ”。
他的大概即将被删除的Google员工页面说:“他是介绍了后传播算法的研究人员之一 ,也是第一个使用反向传播来学习单词嵌入的研究人员 。”“他对神经网络研究的其他贡献包括鲍尔茨曼机器,分布式表示,时间延迟的神经网,专家的混合物 ,变异学习,专家的产品和深信信网。他在多伦多的研究小组在深度学习中取得了重大突破,这些突破性彻底改变了语音认识和对象分类。”
不过,最近,他显然对自己的工作本质产生了巨大的改变 。欣顿(Hinton)新关注的一部分是AI开发前进的“可怕”速度引起的。欣顿说:“这种想法实际上比人们相信这一点更聪明。”“但是大多数人都认为这已经离去了 。我认为这已经离去了。我认为那是30到50年甚至更长的时间。显然 ,我不再认为这是如此 。 ”
这至少是在竞争企业利益的结果中发生的,因为Microsoft和Google竞赛开发了更高级的AI系统。目前尚不清楚可以做什么:欣顿说,他认为只能通过某种形式的全球法规来管理竞赛 ,但这可能是不可能的,因为没有办法知道哪些公司在封闭的门后工作。因此,他认为采取行动归功于科学界。
他说:“我认为他们应该将其扩展更多,直到他们了解是否可以控制它为止 。”
但是 ,即使科学家选择采取更慢,更故意的AI方法(我认为这是不太可能的),持续发展的不可避免的结果显然也担心Hinton:“很难看到如何防止坏演员将其用于坏事 ,”他说。
欣顿的最新评论与2016年对麦克林的采访相比,他表示需要谨慎,但表示不应用来阻碍未来的AI发展。
欣顿说:“这有点像…一旦您拥有良好的机械技术 ,就可以制造出可以在路上挖洞的backhoes之类的东西 。但是,当然,一个反铲可以敲开头。 ”“但是 ,您不想不想发展反铲,因为它可以敲开头,这被认为是愚蠢的。
“任何新技术 ,如果是邪恶的人使用的话,坏事都可能发生 。但是,这是对技术政治的问题。我认为我们应该将AI视为反铲的知识分子。在很多事情上会比我们要好得多 。在很多事情上,这可能是令人难以置信的善良。
他说 ,人们应该考虑AI对人类的影响,但补充说:“主要的事情不应该是,我们如何削弱这项技术 ,以便可以有害,应该如何改善我们的政治体系,以便人们能够改善我们的政治体系 ,以使人们使用它来实现不好的目的?”
欣顿在2016年对TVO的采访中发表了类似的陈述,他承认有问题的潜力,但他说 ,他希望他们走得远远超过了他们的实际证明。
有趣的是,欣顿并不是最近开放信件的签署者之一,要求对新的AI系统的开发进行六个月的“停顿” 。据《泰晤士报》报道 ,他不想在辞职之前公开批评Google或其他公司。Hinton在Twitter上澄清说,他没有离开Google,因此他可以大声疾呼,但他可以“谈论AI的危险而不考虑这对Google有何影响”。
他补充说:“ Google的行为非常负责任。 ”
尽管如此 ,AI开发中最重要的想法之一现在警告说,这一切对我们来说都是非常有害的,这是非常重要的 。欣顿的新前景显然与奥本海默对他在发展核武器中的作用感到遗憾。当然 ,当原子弹的发展和使用之后,奥本海默的第二个想法是在很容易看到世界发生了多么巨大变化之后。辛顿的遗憾是在马匹爆发后,还是在全球政府中仍然有时间(并且足够的监管能力)避免最坏情况还有待观察 。