当前位置:首页 > 更好右
  • 人工智能与社会价值的链接|人工智能的未来, 你相信马斯克还是扎克伯格?
  • 2019-09-30 17:40:00 来源: 作者:
  • 【字号: 收藏 打印 分享到:

 

人工智能的未来,

你相信马斯克还是扎克伯格?

 

最近几年大家可能更多关注的是,人工智能引起的一个非常有争议的话题。一半是以马斯克为代表的悲观的意见;另外一半是技术乌托邦主义,以扎克伯格为代表,认为人工智能作为一种技术,最终是来造福人类的。你会选哪一边?

 

其实这个问题没那么简单,最后的答案也非常地复杂。现在谁都可以谈人工智能,但是大家的话语体系完全是不兼容的。我们在什么样的框架下去思考这个问题?人工智能除了技术层面的影响,对社会还有人类命运层面到底意味着什么?

 

前段时间翻译出版的《生命3.0》,有一个莫拉维克悖论(图1)。我们几万乘几万算术做不出来,而对电脑来说却是非常简单的。但是人刚出生就能人脸识别,但是电脑直到这两年才做到人脸识别。

(图1)

 

图1中,山地表示人类的认知能力,水表示机器的认知能力。自动驾驶、围棋都已经淹没过去了,有一些高的山头现在还没有被水淹没,比如写书、电影艺术。未来某一天,当水把所有的山头都淹没的时候,对人类来讲意味着什么?人工智能会是人类最后的一个发明吗?

 

很多做人工智能的技术乌托邦主义会反过来置疑杞人忧天的看法,认为这些担心人工智能威胁的人根本不是搞人工智能的,而是被好莱坞的电影误导的。对人工智能的担忧完全是没必要的,对人工智能未来威胁担忧的人是外行,马斯克是半个外行。其实,有很多行业内的人士也在担忧人工智能对人类生存产生威胁。

 

另外一个更典型的逻辑是当年核武器的历史,人类第一次有了能够毁灭自己的能力。当时全世界所有的知识分子都站出来反对核武器,如爱因斯坦和罗素等,他们都关心核武器对人类产生的危险。

 

人类很善于发明新的工具,但我们并不善于管理和智慧地使用这些新工具。人工智能只是一个功能性的东西,并没有主观的意识。但是人类被某一样东西毁灭并不需要它一定拥有意识,比如说全球变暖,这也是人类的创造物。

 

我们都在问一个问题,新的科技出来到底是解放还是异化了人?追溯到伯拉图和苏格拉底的时代,他们认为有文字的时候人的记忆力就会丧失。很多人持乐观态度是认为技术产生的问题一样可以用技术去解决,所以这一次人工智能带来的问题并不是新的。但是归纳法的思想是不是永远能够奏效?以前没有问题,并不代表新的技术出来没有问题。

大家在担心人工智能有可能产生一系列的社会影响,比如说赫拉利在《未来简史》里提到,美国有三百万人靠开车为生,如果自动驾驶实现的话,他们可能失业,会产生巨大的社会问题。人工智能会不会产生无用阶级?律师、会计、文书这些最基本的重复性认知工作,在未来都可能被人工智能替代。

 

这个担忧是有必要的,人工智能会带来很多我们意想不到的影响。就研究表明,人工智能跟大数据推荐给我们的产品,都是我们喜欢的,人工智能和大数据比你自己都了解你喜欢什么。再过30年你起床之后,穿什么衣服,吃什么东西都会是你的手机告诉你的。

 

技术会带来很多的次生危害,我们人类善于发明技术,但不善于管理技术。一百多年前汽车刚发明的时候,汽车的安全问题,是安全带、安全气囊等质量的提高,而今天我们想到汽车的危害是环境污染,尾气排放等。一百年前刚发明汽车的时候,根本不可能想到全球变暖这件事情。

 

最后一点,人工智能会带来很多的伦理挑战。大家上伦理课的时候,都会讲到“电车难题”,这是一个伦理思想实验。自动驾驶汽车的工程师要实现这样的算法,如果在街上碰到这种“电车难题”的时候,是牺牲五个人救一个人,还是救五个人牺牲一个人?这两个选择都要面对现实伦理的挑战。

Apollo自动驾驶车队

 

人工智能产生的问题很多,我挑一个大家可能会比较感兴趣的话题,人类为什么会有价值?如果说“智能”只是一个功能性的判断,功能的东西从伦理上来讲就是一个工具的价值。就像钱有价值,但你有钱是为了去买东西换来你真正的快乐。

 

对人类来讲,什么东西真正产生了价值?我们人类所有的情感价值,其实都是从意识来的。大家谈人工智能的时候,有一个最大的误区,很多人不去做区别,在人工智能和意识之间,智能是外在的第三人的判断,他能满足某种认知的操作,而意识是一种内在的以第一人称为主体的体验,这是两者最核心的区别。

 

历史上有一个非常好的例子,一种极端的看法认为人工智能和人工意识是一样的,人工智能是一方面,生物技术是另一方面。2045年人类达到一个奇点,肉体死掉没关系,意识精神还可以存活下来,人工智能可以把你的魂保留下来。未来如果真的有一天,人类的肉体是硬件,思想思维是软件,软件可以剥离出来,人类是不是就可以获得数字化的永生?

中文屋实验

 

这个理解是错误的。给大家举一个例子,约翰·希尔勒的“中文屋实验”。20多年前我听他的课,当时觉得特别地震撼,他用中文屋实验,一下子抓住了意识和功能之间的区别本质。这个实验就是想告诉我们,所有的人工智能其实所实现的都是一种第三人称外在黑箱。意识和体验是主观性的东西。我们人类意识是内在感受的,并不是从输入、输出来看的,而机器是没有的。中文屋非常清晰的区别区分开了人工智能和人工意识最本质的区别。

 

托马斯·内格尔提出,当一只蝙蝠是什么样的?大家都知道蝙蝠是怎样飞行的,蝙蝠的世界是由声音组成的世界,它跟我们人类的视觉世界是一样的,但是它的感受性是不一样的。物理学家比蝙蝠更了解蝙蝠,但是却永远没办法去感受蝙蝠的主体,它感受到的声音世界是什么样的。科学家可以用假的声波去让蝙蝠去找一根树枝,但永远没办法感受蝙蝠的主观状态。

 

从哲学上这两个问题是完全不兼容的,What is……?和What it’s like to be……?。对意识来讲,最重要的不是这两个问题,只要满足某些特性就可以描述出来了。最重要的是你作为一个主体去感受一些东西的时候,这两个问题之间的鸿沟,远远比我们想象的要大的多。从无智能到有智能,从非生命到有生命的鸿沟是一样的。

 

从客体到主体,我们要跨越一个更大概念上的鸿沟,怎么样从非意识的现象到意识的现象。我们人类的意识现象是基于自然的,并不存在超自然的现象,是不是意识可以简单地还原成算法和符号?所有严肃一点的人都知道这个答案是否定的,跟机器的算法完全是不一样的。

 

贝尔以前教过聋哑儿童,可以从物理上讲的很清楚,声音一般是客观的现象,但对人类来说声音是一种主观体验,不同的乐器代表不同的波形,但一些聋哑儿童,永远没有办法有主观的感受性,这是最重要的区别。

作一个简单的思想实验。大家想一下,如果有一天人工智能通过分析你的微信朋友圈和微信中所有对话,可以模拟你的语气跟你的朋友对话,你的朋友分不清楚跟他说话的是你本人还是人工智能程序,你是否愿意被人工智能替代?

 (图2)

 

图2画的是一个烟斗,下面写了一段话,这不是一个烟斗,我们看的烟斗其实不是一个烟斗,只是烟斗的符号,我们只是看到烟斗的一幅画。我们把符号和符号指示的对象混淆了。

 

人工智能背后谈到意识世界和价值世界,引出了一个更大的话题,也是现在社会的一个通病。整个现代社会之所以可以运作,是我们把所有的东西变成一套算法,你关心的是国家是否健康,关心的就是GDP,因为这是唯一衡量的指标,没办法去衡量人的幸福指数。

 

现在的运作都在第三人称的外在表述上,我只看到可衡量的量,但最重要的是我们的内在体验,在人工智能的时代我们怎么来捕捉。

 

浮士德的交换,浮士德和魔鬼做了一个交换,把灵魂换给了魔鬼交换了力量。人工智能是这种趋势的一个极端,人工智能产生的认知能力越来越强大,但是如果没有人的存在,它只是空洞符号的运算而已。这个符号之所以有意义,需要映射,而这个映射是人提供给它的。

 

一种观点认为所有的起源,追溯到人的认知革命。把人类和动物分开的最重要的标志,就是存在了认知革命。人类本来是自然的一部分,自从有了语言和符号的能力之后,人类就开始超越了自然,用抽象的能力去描述自然,人类就跟自然分离开了。

 

人类在获得力量的同时,分不清符号和被符号指示的对象的区别。但是就像烟斗的画一样,我们分不清我们要说的是符号还是真正的烟斗。人类成为了语言的奴隶,所有的技术其实都是语言跟符号的延伸,就是因为有语言和符号,才产生了人类跟自然的脱离。

 

商业社会资本主义文明,整个资本主义,资本和市场有自己的生命力,我们每个人都毫无抵抗地被卷入其中,资本市场的运作本不是我们真正需要的东西,但是因为市场有自己的运作能力。归根结蒂就是说,我们在乎的都是一些外在的东西。其实人工智能作为技术发展的极端,就是我们符号逻辑登峰造极的体现。

在人工智能的时代,我们是不是能够重新找回意义,这是最大的体现。

余 晨

易宝支付联合创始人、总裁

图片来源于网络

若有侵权请联系


 

  •   分享到: