第293章 金身不破

且不说,辛启天的出现,因为他本人传奇经历以及颇丰的身价,还有一部分,因为他关于启天ai的解说。

在辛启天这位启天ai开发者亲自讲话之前,其实有关强人工智能,对于世界的影响,已经被无数人进行过解说。

在这当中,沃森集团有一位从事技术岗位的先生,库兹尔先生的说法,获得了极大的传播和认可。

库兹尔先生提出且引用了一种新的理论,叫做加速回报定律。这是欧美一贯的做法,比如蝴蝶效应等等,都是从很多广义相通的理论中,找到一个可以介入的点来命名,并且做出一种自己的理论。

他在描述该定律的文章中说,科技的早期阶段——轮子、火、石器——费时数万年才慢慢演进、普及。一千年前,诸如印刷术等典范转移,也耗费约莫一个世纪的时间,才为世人普遍采用。

今日,重大的典范转移,例如移动电话及全球信息网则只消数年的时间就普遍大行其道。

新世纪前,整个90年代那一百年期间所发生的科技变革,比之前900年的变化还大。接下来,在新世纪的头二十年期间,我们目睹的科技进步会比先前还多。

这些理论,乍一看是没有问题的。

更直白的来讲,就是技术进步是以指数方式发展的,而非是线性。

这个结论是怎么来的呢?

库兹尔考察了一千优元,可以购买到的计算能力随时间的变化情况,计算能力则以每秒百万条指令来表示。

得到的数据证明,其与摩尔定律极为相似,二者都是每两年翻一番。

他们绘出的图表皆为指数曲线,结果以二的指数倍在增加,而非是规则的线性增量。

即便当库兹尔将历史向后延伸至晶体管计算技术还未出现的上世纪初——即使用继电器和真空管的几十年间时,曲线依然表现出令人惊异的稳定性。

接着,套用这个种类,例如晶体管制造成本的降低、微处理器时钟频率的增加和动态ram价格的暴跌等等,甚至生物技术和其他领域的发展趋势,譬如dna测序和无线数据服务成本的降低,互联网主机和纳米技术专利数量的增加。

都是同样的指数形式。

有理有据,令人信服。

在其基础上,库兹尔启用了一个震惊人的标题,表示ai未来可能会毁灭人类!

指数形式的爆炸式增长,会导致世界变得面目全非。ai将会完全超过人类自有的智能程度,使得人类竞争失败。

人们依靠自己固有的经验认为,人类对地球统治源于——智能就是力量。也就是说,一个超人工智能,一旦被创造出来,将是地球有史以来最强大的东西,而所有生物,包括人类,都只能屈居其下——而这一切,有可能在未来几十年就发生。

所以,人类创造了一个上帝,这个上帝会如何对待人类,值得警惕和深思。

库兹尔用启天ai的出现,来表示,人类已经对于技术革新,出现掌控不利的局面。

现在,有关ai的普遍理论是,分为三个阶段,弱、强、以及超人工智能阶段。

大多数人根本接受不了,怎么忽然在弱人工阶段,就冒出了一个强人工智能呢?

弱人工智能已经极为普遍,比如搜索引擎,就是个显而易见的例子。

而从,弱人工智能到强人工智能,是一个极为难以实现的事情。造摩天大楼、把人送入太空、明白宇宙大爆炸的细节——这些都比理解人类的大脑,并且创造个类似的东西要简单太多了。至今为止,人类的大脑是我们所知宇宙中最复杂的东西。

一些我们觉得困难的事情——微积分、金融市场策略、翻译等,对于电脑来说都太简单了

我们觉得容易的事情——视觉、动态、移动、直觉——对电脑来说太难了。

人们认为,强人工智能的研究,首先需要硬件计算上的支持,第二就是让电脑变得智能。

在第二步卡壳了,因为人们根本不理解,什么叫做智能。

和辛启天研究的方式一样,不理解没关系,但是现实中有可以借鉴的方式去实现,比如人类本身。

完全复制人脑、模仿生物演化、或者让电脑自己解决这个问题。

辛启天利用的是后两种方式结合。

但是接下来,不同的地方在于。

库兹尔先生认为,通过自我改进来达成强人工智能的人工智能,会把“人类水平的智能”当作一个重要的里程碑。

但是也就仅此而已了。

它不会停留在这个里程碑上的。

考虑到强人工智能之于人脑的种种优势,人工智能只会在“人类水平”这个节点做短暂的停留,然后就会开始大踏步向超人类级别的智能走去。

依然是指数增长的方式。

往后,一切都变得面目全非,无法确定。未来的“上帝”,是否会毁灭人类呢?

库兹尔给的答案是,会!

因为,当人类和ai的差距,变得人和蚂蚁一样。那么即便是ai本身,不会想着去毁灭人类,但实际上,人类已经被毁灭了。