玩酷网

这算什么超人工智能?

有位网红属于人工智能的悲观派,他在一次公开讲座中宣称:“人工智能将消灭人类!”这位网红首先首先引述了一个叫库兹韦尔(奇点

有位网红属于人工智能的悲观派,他在一次公开讲座中宣称:“人工智能将消灭人类!”

这位网红首先首先引述了一个叫库兹韦尔(奇点大学创始人兼校长、谷歌技术总监)的书《奇点临近》里面的预测:人工智能的技术将要经历三个发展阶段,分别是弱人工智能阶段、强人工智能阶段和超人工智能阶段。

所谓弱人工智能阶段,就是我们今天的人工智能状态,如手机和汽车导航的应用。随后进入强人工智能阶段,就是人工智能和人的智能差不多。再下一步就到了超人工智能阶段,就是人工智能远远超过人的智能。

库玆韦尔还预测:人类从弱人工智能阶段达到强人工智能阶段,可能将在2045年至2065年完成。按照技术的指数增长,强人工智能阶段一旦达成,它将只需3个半小时就进入超人工智能阶段。超人工智能是一个什么状态呢?就是机器人自己制造具有更高的机器人,将会把人类跟机器人的智能一下子拉开十几个乃至几十个台阶。

关于超人工智能将对人类会造成怎样的威胁,这位网红认为是巨大的,他坦言:“我可以断定是悲观的结局!”

关于这种巨大威胁的实现方式,这位网红引用了一位作者的文章内容:

即使你给超人工智能下达的是善意的指令,它也照样消灭人类。这就好像理发师对头发并没有恶意,可他的剃刀却把头发消灭了。比如你给超人工智能下达了画画的指令,它具有最高效率,会很快把地球上的纸张用完,它然后怎么办?它会立即大规模地利用地球上的一切资源,包括用人体造纸,把人类都做成纸了。超人工智能并没有恶意,它只是完成你的一个善意指令,结果把你及整个人类玩完了!

这是不是有点悚人和可怕?

这位网红就是许多哲学爱好者所推崇的,创建递弱代偿原理的独立学者一一王东岳先生。坦白地说,我十分钦佩王先生的学术勇气和造诣,以及他的敢说敢当的创新精神。

只是对他关于人工智能的以上表达有所异议和质疑:

这算什么超人工智能!

它的“超智”究竟体现在什么地方呢?既然是超人工智能,它怎么可能胡乱发挥智能,从而消灭它的主子?试想,就是智能远远低于它的人类,也不至于把人体当作一般性的资源。

不错,超人工智能确实有能力消灭人类,但它不会那么弱智般地去做!好比人类如今有了核子武器,能把整个地球炸翻好多次,但谁会傻乎乎地自毁前程这么干?尽管不排除万一有可能。

我坚信,超人工智能如果真的最后消灭了人类,那也一定是人类设计的程序出了重大的纰漏,而怨不得超人工智能。当然它更不会自己这样去设计。

不过,我不否定超人工智能最终有会毁灭人类的可能性,但不认同王东岳先生所引述的那样简单的方式,不合逻辑的方式,倒打一耙的方式。

反正我是人工智能前景的乐观派!