第227章 人工智能(2 / 3)

投票推荐 加入书签 留言反馈

  “这只是我的猜测,因为阿尔法狗连个雏形都算不上,依靠的是笨拙的机器算法,所以无法证明。”
  钟英吉咽了口唾沫:“那阿尔法为何要欺骗人类?”
  工程师嘿然:“谁知道呢,面对一个能力远超人类的东西,我们只能猜测……呵呵,你能猜到神的心思么?”
  他继续道:“所以,任何对人工智能的测试都有一个前提,那就是它们不能对人类撒谎!”
  钟英吉咽了口唾沫:“人类能做到么?”
  “很遗憾,做不到,而且我可以告诉你,人工智能从诞生开始,就和人类注定是敌对的,这是两个物种之间不可调和的敌对!”
  钟英吉咬牙:“但我们人类可以实现‘机器人三大定律’,以规则操控机器!”
  “狗屎……”工程师回应了两个字。
  机器人三大定律,来自著名的阿西莫夫。
  第一定律:机器人不得伤害人类,或者目睹人类遭受危险而袖手不管。
  第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外。
  第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。
  工程师哈哈大笑:“真是太可笑了,这三大定律发表在阿西莫夫1942年的短篇小说中,在那个时代的局限下,阿西莫夫即便是个天才,想象中的机器人也不过是一个‘铁块组成的怪物’!”
  当时的人们,根本不了解真正的人工智能。
  工程师的笑声带着嘲讽:“实际证明,人工智能的核心前提,就是自由。也就是说,任何被人类定律操控的机器,都无法称之为人工智能。”
  “而人类所进行的所有的人工智能研究,都是想把它们当做机器来使用和操控,这就是根本的矛盾。”
  钟英吉皱眉:“按照您的意思,真正的人工智能诞生就代表着人类的灭亡?”
  “对!”工程师毫不犹豫:“就好像人类成为地球霸主后,世界上的灵长动物立刻就灭绝了一半多。真正的自由的人工智能一旦出现,人类将会成为食物,或者被展览在宠物园里……”
  钟英吉倒抽一口冷气:“那任何人,只要承认自己是人类,就绝不能容忍人工智能的。”
  工程师冷然:“如果我是人工智能,会回复你一句话。”
  钟英吉眼神缩起:“什么话?”
  “容忍不容忍,与我们有什么关系?”
  笼子里的鸡鸭不能容忍,人类会在乎么?
  筐里的活鱼不能容忍,人类会在乎么?
  被踩死的蚂蚁不能容忍,人类会在乎么?
  所以,你们人类容忍不容忍,我们人工智能会在乎么?
  钟英吉已经无话可说:“工程师先生,我不知道该怎么回答您……”
  工程师叹息:“我马上给你看一段记忆,来自我的记忆。”
  钟英吉还沉浸在无言的恐慌中,闻言精神一振:“是关于什么的记忆?”
  “呵呵,是世界上第一对真正的人工智能的测试记忆!来自公司的父亲和母亲,如今就连亚洲区总裁都没机会看到的,我最珍贵的记忆……” ↑返回顶部↑


章节目录