本篇文章2658字,读完约7分钟
HC安全网络新闻最近,由于谷歌在商业猜测中的“人机大战”,人工智能的话题再次成为热点。人们表达了各种观点,其中有幼稚和混乱的想法,也有不可预测的说法。为了理清思路,有必要认真考虑以下五点。 第一,“老虎还年轻”并不构成养老虎的理由[s/S2/] 当人们表示担心人工智能将来会失控或危及人类时,他们经常会看到人工智能行业的人,或者盲目崇拜科学技术、盲目乐观的科学家,说人工智能目前还很薄弱,所以没有必要担心。这种说法在媒体中很常见,但它实际上隐含着荒谬的逻辑。 我们担心老虎会吃人,所以我们有一句成语“老虎的遗产”。我们怎么能用“老虎还年轻”作为养老虎的理由呢?要说服人们同意养老虎,必须证明“老虎不吃人”。人们担心人工智能将来对人类的危害。为了消除这种担心,有必要证明“人工智能不会伤害人类”,而不是把“人工智能仍处于初级阶段”作为理由。 不要忙于取笑这个荒谬的理由,因为许多行业领袖和人工智能的著名人物都告诉过公众这个理由。当像斯蒂芬·霍金、比尔·盖茨和埃隆·马斯克这样的智者带头呼吁全世界警惕人工智能的盲目研发时,一位业内知名人士以此为由进行反驳,称这三个人“愚蠢”。这有点离谱。如果我们不能证明“人工智能不会伤害人类”,就有必要重新考虑目前是否应该发展人工智能。第二,“人造的东西不能超越人类”是一种盲目的信念。当然,人工智能通常是由高智商的人来玩的。知识分子的荣誉感会让他们中的许多人羞于用“老虎还年轻”来说服人们同意养老虎。他们知道应该证明“老虎不会吃人”,即“人工智能不会伤害人类”。这种观点的一个普遍原因是“人造的东西不能超过人”。虽然这个理由不能带来多少智力上的荣誉,但许多非专业人士都这么认为。 但是,对于“人造物品不能超越人类”的论断,有人给出令人信服的论据吗?从来没有。事实上,这个断言只是一个盲目的信念。事实上,这种信念是一种坚定的信念,即创造者必须比他所创造的更好。这种信仰显然与宗教感情有关。然而,在人工智能的争论中,那些本应具有最无神论精神的科学家却不假思索地从宗教信仰中寻找思想资源。 此外,这种信念显然违背常识。一个简单的常识是,父母可以被认为是孩子的创造者吗?如果可以的话(至少在一定程度上),我们没有看到孩子超过父母的情况吗? 第三,“人工智能可能不遵守人类设定的道德标准”,而且没有足够的论据 与前两个理由相比,“人类可以设定人工智能的道德标准”的理由似乎相对专业,至少不会给直接玩人工智能的高智商人群带来耻辱。这也是证明“人工智能不会伤害人类”的一个常见原因。 然而,对于“人工智能必须遵守人类设定的道德标准”这一论断,有人给出令人信服的论据吗?也从来没有。 不幸的是,这篇文章显然违背了常识。一个显而易见的常识是,人类无法避免他们的一些后代失败。这样的例子每天都在日常生活中上演:父母从孩子记事起就灌输诚实、善良、友好、慷慨和勇气等美德。这些难道不等于人工智能的“记忆植入”和道德设置吗?然而,仍然有孩子病得很重。在这个过程中,家长设定的道德标准和学校实施的纪律矫正都无法阻止他。 当然,学习不好的孩子已经严重伤害了一些人,比如这些坏人犯下的罪行。然而,为什么他们没有统治全人类或危及整个人类?那是因为,毕竟,他们只是能力有限的人。然而,人工智能追求什么样的境界?没有“超人”,科学家们会止步不前吗? 第四,“拔掉电源插头”在未来可能不可行 一些专业人士将人工智能分为四个层次:1 .没有学习能力(智力)学位也可以相当高);2.具有固定的学习能力,并且所获得的技能将趋向于固定的价值;3.有了固定的学习能力,技能的增长就没有极限,但是因为它的学习能力是预先设定的,所以它被认为不会成长为超级人工智能;4.它有无限的学习能力,可以成长为超级人工智能。 专业人士安慰道,这次针对李石师的“阿尔法围棋”只是二级人工智能,四级人工智能还远未问世。事实上,除了前面讨论的“老虎还是小的”的谬论之外,还有更大的危险。当专业人士试图消除公众对人工智能的担忧时,他们经常提到一句谚语:我们可以拔掉电源。当人工智能的想象力停留在单个机器人阶段时,这种说法可能成立。更一般地说,只要人工智能依靠有形的伺服机制来实施行动,我们也可能拔掉电源。然而,现实是,一旦人工智能与互联网结合,它几乎可以完全摆脱对所有伺服机构的依赖,使用高度发达的社会服务,如定制,物流和快递。这不仅在大量的幻想作品中被重复,而且在现实生活中也能成功地实现。当人工智能只是一个在线幽灵,没有身体,没有形式,那么拔掉电源怎么办? 阿西莫夫提出了“机器人三定律”,他曾经论证了机器人个体智能的物理极限,这是有道理的,但在他那个时代没有互联网。如今,我们必须特别注意人工智能和互联网的结合。即使对单个机器人来说,这种结合也将很快突破智力的物理极限。就无形人工智能而言,还有更大的危险。一旦与互联网结合,上述1、2、3、4级人工智能之间的界限还会存在吗?如果一个居心叵测的人工智能开发者打算突破这些界限,社会怎么能监督它呢?人工智能向超级人工智能的进化可能只需要轻轻一指,然后人类就会措手不及,完全失去控制。 V . "发展科学"也可能"召唤恶魔"[/s2/] 这是一个具有终极性质的问题。我们必须想清楚:为什么我们需要人工智能?工厂生产线需要更多的工人吗?社会服务需要更多的人力吗?你需要人工智能为我们开车吗?我们需要人工智能来给我们做手术吗?当想象人工智能的应用前景时,这些经常被提及,但是它们没有被仔细地审查。这些任务真的需要人工智能吗? 科技与资本结合的特征之一是为资本增值服务。科学家很少坦率地这样说。他们总是告诉公众这是为了“发展科学”。似乎“发展科学”是最终目标,所有其他事情,甚至人类安全,都不需要考虑“发展科学”。 当然,还有其他需求,比如用人工智能赢得战争,就像用核武器赢得战争一样。马斯克认为,人工智能将“召唤出魔鬼”,这比核武器对人类的威胁更大;霍金断言:“彻底发展人工智能可能导致人类的灭亡。”他们的话值得深思。松田教授有句名言:“警惕科学!警惕科学家!”关于人工智能的问题,是时候回答了。 今天,即使我们必须发展人工智能,我们也应该以类似美国的“曼哈顿计划”或过去的“两弹一星”的心态来进行。在更理想的情况下,大国应该坐下来谈判并签署一项国际协议,禁止或至少限制人工智能的研究和发展,这是人类的福祉。 (边肖,上海交通大学科学史与科学文化研究所所长、教授。这篇文章的原标题是“预警人工智能五纲”)
标题:警惕人工智能的五个“烟雾弹”
地址:http://www.hcsbodzyz.com/hcxw/1541.html