马斯克的“民有、民治、民享"理念和行动计划

来自通约智库
跳转至: 导航搜索

本文摘自谢熊猫君翻译的蒂姆·乌尔班Tim Urban的文章第六章大融合
埃隆马斯克的计划
阿伯拉罕.林肯说出下面这句话的时候相比是蛮得意的:
民有、民治、民享的政府永世长存
民有、民治、民享的政府永世长存.jpg
这句话确实写的不错。“民有、民治、民享”是民主的核心思想。
可惜,“民”不是那么让人愉快,所以民主也常常不是那么愉快,当然这种不愉快和其它选择比起来还是好很多的,埃隆 马斯克是这么说的:
“保护集体很重要。丘吉尔说过民主是所有政府体系中最不坏的。如果你有柏拉图的贤者王做国王当然好。可惜大部分的独裁者不是贤者王,相反的,他们都很糟糕。”
也就是说,民主就好像躲在阴沟里逃避野兽一样。
在人生中,有很多时候可以冒险赌一下最好的结果,但是当赌注无比的高的时候,正确的做法其实是保守一点。权力就是这样的一种情况,所以虽然民主本质上会带来一定程度的平庸,但是按照埃隆的说法“不管大家对一个总统多不满,你在美国估计找不到多少人愿意由一个独裁者来取而代之。”
既然埃隆把人工智能看作最终的权力,他把人工智能的研发看作一个必须要“保守一点”的情况。所以他对于最小化人工智能带来的生存危机的策略是人工智能的力量应该是“民有、民治、民享”的。
为了在人工智能领域推广这个概念,埃隆从多个角度切入。
对于民治和民享的部分,他和Sam Altman建立了OpenAI,一个“非盈利性的人工智能研究公司,致力于发现和建立通往安全的人工智能的道路。”
通常,当人类做一些新鲜事情的时候,最开始都是一些有创新意识的先驱们带头,当他们获得成功后,一个新的产业就建立了,人类巨灵就会进入其中,把先驱们建立的东西作为基础,发展壮大。
但是如果这些先驱做的是创造一个拥有无比统治力量的魔法棒,而且这个魔法棒还能防止其他人造出类似的魔法棒,那就有点不好办了,是吧?
而这其实就是埃隆对于现在的早期人工智能研发的看法。既然他不能阻止人们研发魔法棒,他的解决方法就是建立一个开放、合作、透明的魔法棒研发实验室。每当实验室发现一个新东西时,他不是像其它公司一样把这个新发现私藏起来,而是把发现公开给所有人知道,供其他研发魔法棒的人借鉴。

人类唯一的出路:变成人工智能(5)0.png


这样做当然存在问题,因为坏人也在造魔法棒,而你肯定不希望坏人最先造出魔法棒来。但是现在的情况是,坏人也能从这个实验室公布的发现中获益。这是个挺严重的问题。
但是这个实验室同时也助力了其他数百万想要做魔法棒的人。这给那些秘密研究的行业先驱们造成了很大的竞争压力,使得没有哪个发明家能比其他任何一个人早很多的造出魔法棒。最可能的结果是,当第一个魔法被造了出来的时候,还有其它成千上万个不同人出于不同目的制造的功能不用的魔法棒也快造完了。
如果魔法棒的出现不可避免,那么埃隆认为,至少让很多人都有魔法棒,而不是只有一个人有着无边的法力。他是这么说的:
“如果每个人都来自氪星,那再好不过。但如果只有一个人来自氪星,也就是只有一个超人,而超人恰巧和希特勒一样坏,那我们就麻烦了。”
更宽泛的说,单个先驱的魔法棒可能是造出来满足他自己的需求和目的。当我们把未来的魔法棒制造产业变成一个集体事业,出于各种需求和目的的魔法棒都会被制造出来,使得世界上的魔法棒的能力能够更好的代表大众的需求。
就和民主一样。
尼古拉.特斯拉、亨利.福特、莱特兄弟和图灵大幅领先其他人,然后带来超前的改革,问题不大。但是当你的发明具有无法想象的力量的时候,你可不能让先驱们随便把东西造出来,这么搞就赌的太大了。
OpenAI致力于把人工智能的研发给民主化,让整个人类巨灵在先驱阶段就参于进来。埃隆是这么总结的:
“人工智能肯定会大幅的超越人类的智能。人工智能会与人类的意志息息相关,尤其是如果和很多人的意志相关的话,它产出的结果肯定也是很多人类所想要的,因为它会是集体人类意志的结果。”
所以,现在我们能让早期的人类级别或者高于人类级别的超级人工智能达到了民治和民享,这大大降低了人工智能被单个坏人或者一小撮垄断人群所掌控的机会。

人类唯一的出路:变成人工智能(5)0.png


现在我们要看看怎么做到民有。
这应该不难吧?人类巨灵创造超级人工智能的原因和创造汽车、工厂机械和计算机的目的是一样的,都是作为自身的延展,能把自身的一部分工作外包出去。汽车代替我们的双脚走路,工厂机械代替我们的双手工作,计算机则帮助我们储存信息、整理和计算。
造出能够思考的计算机会是我们至今为止最伟大的发明,它能帮我们把思考这个最重要也是影响力最大的工作也外包出去。思考是我们建造的一切东西的根源,想象一下,创造出一个超级智能的思想延展将会带来的力量。人类的延展从定义上来看肯定就是属于人类的,也就是民有,是不是?
并不是
高端人工智能和其它的发明可不一样,其它的技术产物都很擅长服务那些它们被建造出来的目的,但是归根结底它们是没有思想、智能有限的机器。我们试图创造的人工智能会很聪明,像人一样聪明,甚至像一个极端聪明的人一样聪明。这在本质上和我们之前创造出来的东西是不一样的,我们不能默认原本的规则还会依然适用。
一直以来,我们创造出来的技术归属于我们,是件理所当然的事情,这个道理明显到把它写出来都显得有点多此一举。但是如果我们造出一个比人更聪明的东西,它会不会那么容易的被控制呢?
有没有可能,一个比地球上任何人类都更加聪明的东西,不会满足于一直作为人类的延展,即使这是它最初被创造出来的目的?
我们不知道最后事情会朝什么方向发展,但是承认这些可能性的存在是合乎逻辑的。
而如果事情真的朝我们担心的方向发展的话,那我们的麻烦就大了。
正如人类这个历史案例所揭示的,当这个星球上出现了一个比其它所有生物都聪明的东西的时候,它对于其它所有生物来说都是个很糟糕的事情。如果人工智能变成这个星球上比其它所有生物都更聪明的东西,而它并不是真正的属于我们,而是属于它自己的话,我们就变成了“其它所有生物”的一员了。
所以不让人工智能的力量落入一小撮垄断者手中确实是个问题,而OpenAI正是负责解决这个问题的。但是这个问题和人工智能不受人控制比起来就是小巫见大巫了。
这是让埃隆晚上难以入眠的困扰,在他看来超级人工智能的出现只是时间问题,而当这个时刻到来的时候,人类不沦落为“其它所有生物”的一员就变得至关重要了。
在一个由人工智能和“其它所有生物”组成的未来,我们只有一条出路:“变成人工智能。”