世界107(1/2)

我们马上记住本站网址,www.kcbook.pro,若被浏/览/器/转/码,可退出转/码继续阅读,感谢支持.

如果天隐对于海洋鱼类有些了解的话,就会知道眼前的大鱼是黄鳍金枪鱼;如果天隐的注意力不是全集中在人工智能上,就不会被吓一跳了。

眼前的严格来说不是愤怒的大鱼,而是扛着一条体型能给人留下深刻印象的黄鳍金枪鱼的阿尔忒弥斯,而阿尔忒弥斯,是愤怒的。

“竟然在闲聊!还不快点把希露德的菜田铺好!”说完,阿尔忒弥斯头也不回地走了。

原本因蒂克斯是想嘀咕两句的,但是看到了阿尔忒弥斯右手提着的满满一篓的牡蛎,实在是不想因为一时的口舌之快,而失去接来下的口福。

斜着眼睛偷偷地看了下一直在干活的天隐,好像也没有强要自己做事的意思,因蒂克斯于是心安理得地继续坐在相对凉爽的地上,毕竟热带的大太阳对皮肤十分地不好,而且不保持全身心的舒畅,又怎么能条理清晰的……聊天呢?

以上的各种邪门歪理因蒂克斯在一瞬间就想通了,然后毫无障碍地说服了自己,“牡蛎可是所有食物中含锌最丰富的啊,每100g含锌71.2mg,富含蛋白锌,是很好的补锌食物,像我这种懂得运用大脑的文明人,可是很需要锌元素的!”

“啊?”天隐对于因蒂克斯说服自己偷懒的理由不感兴趣,倒是很想听听关于人工智能的事情,“阿尔忒弥斯好像要咱们尽快把菜田做好哦,要不要我叫她回来确认一下?”

“啊!不,不用,啊哈,啊哈哈哈哈”,因蒂克斯一想到阿尔忒弥斯的鞭子就一阵寒颤,可以的话,还是不要自讨苦吃了,而且从天隐的眼神中也不难看出来他在想什么,“人、人工智能嘛,好说,好说……”

不知道从什么时候起,天隐有点习惯这种倾听的感觉了,一边听新鲜的东西一边重复机械式的工作,既可以增长见识又可以减轻疲劳,一次就能达到两种目的,对于这种效率,天隐很满意。

“提到人工智能,就不得不提到阿兰?麦席森?图灵(alan),就是他为人工智能提出了重要的衡量标准——‘图灵测试’。”

图灵测试太有名气了,天隐也是有耳闻的,该测试是让人类测试者通过键盘向一个人和一个机器发问,这个测试者不知道他问的是人还是机器。如果在经过一定时间的提问以后,这位人类测试者不能确定谁是人谁是机器,那就认为这个机器是具有智能的。

“这个测试实际上更像是判断一个智能程序是否达到了agi的程度,并且是第一类也就是类人的人工智能”,从因蒂克斯柔和的表情不难判断出,他此时此刻又想到了豪克,“然而,这个测试也是有着重大缺陷的。”

“缺陷?”在天隐看来,除了作为类人人工智能的判断方式这一点有些狭隘之外,图灵测试并没有明显的不足,不过天隐也知道,虽然因蒂克斯喜欢滔滔不绝外加偷懒,但是绝对不会说出任何没有依据或是没有经过严格论证的结论。

“首先,是作为评判者的测试人,要以何种智力水平为准?测试人需要掌握多大范围的知识?测试人本身倾向何种思维逻辑?如果以各项指标都处于平均位置的测试人的结论作为评判依据,通过测试的,显而易见是跟一般人类近似的人工智能;但是没通过测试的呢,它们一定就不是人工智能么,或者说它们就一定没有思维能力么?”

因蒂克斯一边说,一边捡了根树枝在地上画着,天隐扛着第12包泥经过的时候扫了一眼,发现是一个树形示意图。

“既然测试者本身是平均水准,那就意味着他很有可能不会理解高水准的人的逻辑,就像世界上没有多少人能理解爱因斯坦的相对论,但是你不能说爱因斯坦不具有智能,所以第二类agi和可能会出现的asi很有可能根本无法通过图灵测试,仅仅是因为,他们的思考方式不能被人所理解。”

说到这里,因蒂克斯轻轻地叹了一口气,好像曾经亲身经历过一般,而后在地上的树形图上画了个圈,转向了另一个分支,“其次,图灵测试的内容是极其多变且复杂的,而且很多问题完全没有令人信服的评判标准,比如,我和希露德同时掉海里了,亲爱的首领,你会救谁?”

这也叫问题?肯定是救希露德嘛!不过看因蒂克斯双眼里都充满了期待,天隐觉得有些话还是不说得好,而且,天隐脑中突然冒出一个很奇怪的想法,“如果我不会游泳,相救也救不了……”

啪!因蒂克斯用树枝狠狠地在地上抽了一下,“就是这个!我就是这个意思!或许测试者原本的意思,是想看看被测试对象在面对此类问题的时候会做出怎样的道德判断,然而他忽略了一点,就是很多看似是道德方面的问题,其实是可以用理性进行解答的。”

“根据休谟的观点,理性从本质上来看是无能的,其唯一的目的就是对观念进行比较,它无法区分行动中的善与恶;道德判断虽然可以区分行动的善恶,但是却不是基于某种确定的观念,而是建立在印象的基础上,换言之,这是一种因人而异的‘感觉’。”

“也就是说,提出道德问题的测试者,很大程度上是希望知道被测试对象是不是拥有‘感觉’,而不是真的想知道该对象究竟抱持何种观念。当测试人得到的是用理性判断出的答案时,比如你刚刚说的‘不会游泳,没法救人’,他们就会不自觉地产生一种负面的主观倾向,这种倾向,往往会令被测试对象无法通过测试。”

到这里天隐还是可以理解的,所以点了点头,示意因蒂克斯继续。

“这就是图灵测试的第二个缺陷,即测试人往往在不自觉的情况下偷换了测试目的——将检验被测试对象具不具有思考能力,替换成了被测试对象是不是像人一样思考,前者才是判断人工智能的标准,后者嘛,千年来世界各地的哲学家们都没法确切地定义,理论上,处于平均水准的测试人是不可能给出不存在的定义的。”

“那要是找不同水准的测试人来呢?”虽然觉得被誉为“人工智能之父”的图灵应该不会想不到,但是天隐还是提出了自己的想法,一方面,如杨所说,培养一个什么问题都能思考的大脑,另一方面第14包泥显得格外沉重,天隐需要转移一下注意力以缓解疲劳。

“即便扩大样本范围,根据性别、年龄、人种、职业、智力水平、道德水准的差异,找出足够多的人组成测试团队”,因蒂克斯每说一个词就在地上画一个小圈,而后画了一个大圈将所有的小圈都包括进去,又在大圈的下面标注了一个词——“human(人类)”。

“这个测试团队显然没有脱离人类的范畴,能够得出的结论,简而言之,就是被测试对象是否具有能被人理解的思考能力。除此之外,被测试对象是否拥有感觉,是否具有伦理观,是否有道德感,无法做出判断,因为人类本身就没有一个统一的道德与伦理标准。”

“而这,虽然不能完全说是图灵测试的缺陷,但也确确实实是图灵测试不能消弭的一个问题——无法令人信任人工智能,我们越是测试,越是发现无法测试的东西太多;我们越是发觉自己无知,就越是恐惧;我们越是不安,就越是容易陷入疯狂……”

后面的话因蒂克斯没有说下去,但是天隐完全可以猜到。正是这种源自未知的恐惧,令各类艺术创作中出现的人工智能几乎无一例外地都造成了骚动,都站在了人类的对立面,虽然在这些想象的产物中,人类总是能得到最好的结局,但是,假如有一天,真的要面对比豪克高等一个甚至几个数量级的人工智能时,结局一定能使最好的嘛?

这个问题好像也不是很难解决,天隐是这样想的:既然人类可以建立起数种被多数人认同的伦理道德,用来维持社会的平衡,那同样可以建立起适用于人工智能的伦理道德,或者是可以同时适用于人类和人工智能的伦理道德……

本章节未完,点击这里继续阅读下一页(1/2)

>