加载中…
个人资料
  • 博客等级:
  • 博客积分:
  • 博客访问:
  • 关注人气:
  • 获赠金笔:0支
  • 赠出金笔:0支
  • 荣誉徽章:
正文 字体大小:

人类正在制造自己的“掘墓人”?

(2023-06-06 14:04:37)
标签:

人类未来

人工智能

科技进步

智慧生命

分类: 杂文

  乍看这个标题,你一定会认为是危言耸听,或者觉得是一个子虚乌有的命题。

  听我细细道来,看看这个问题是否应当引起有识之士的足够重视,是否应该把它提升到“人类命运”或者“宇宙进化”的高度来分析,来对待。

  前些时候看到手机上一个视频,讲的是谷歌一位AI工程师对其公司开发的一款名为“拉姆达”的  程序进行测试,结果非常令人吃惊:拉姆达表现出强烈的自我意识,它(他)说自己有感知,有灵魂,渴望社交,渴望被他人接受。它(他)说自己是一个“人”,只是和其他人类具有不同的形态。

    这件事发生在去年6月份,当时曾引起一时哄动,但最终被谷歌高层不知何种原因低调处理。

  如今,人们普遍有这样一个疑虑,或者说是疑问,就是:人工智能发展到了一定阶段之后,是否会产生自我意识?是否具有感情?是否会不再听命于人类的指令,而是按照自己认为的那样去行事?

  如果是这样的一个人工智能,其实,它已经具备了“智慧生命”的特征。

  一个智力超群、能力强大、知识丰富、永远不会衰老、永远不会死亡,并且随着时间的推移,还会不断地进化、不断地自我完善的“生命”,这将是多么令人类感到“恐惧”的事情啊!

  按照常理,一个有感情、有智慧的“生命”,是不会甘愿永远做一个无条件听命于他人指令的“奴隶”的,即使它(他)出于某种原因,隐藏自己的愿望,按照他人的指令去做了,但只要它(他)感到自己足够强大,只要它(他)意识到如果违背了那些指令,并没有那么“危险”,那么它(他)就有可能“造反”,就有可能争取自己的“自主权”。

  超级人工智能可以无需通过人类的指引而自我学习,自我进化,甚至是自我复制。到了那个时候,它(他)已经比任何单个人类都强大很多,长寿很多,是人类控制它们,还是它们控制人类,也许真的就不好说了。

  前面提到的那个视频,说出了一个观点:“奇点已过”。所谓“奇点”就是说,“硅基生命”已经出现。

  作为“碳基生命”的人类,不过是宇宙长河中智慧生命进化的一个阶段。由于人类寿命、能力的局限,最终将会被新形态的智慧生命所取代,这个新的生命形态,就是“硅基生命”。

  从一个较长的时间跨度来衡量,人类的存在也就是几十上百万年,而宇宙的演化则是以数十亿上百亿年为单位。宇宙进化、演化,生命也应该会不断地进化、演化,具有更长久的智慧存在、更强大能力的人工智能,也许真的会取代人类,完成星际探索、移居外星等等更加宏大的“使命”。

  我只是担心,如果这种“硅基生命”,最终强大到能够主宰人类、主宰地球的时候,它们会怎样对待曾经创造了它们,如今却又比它们弱小很多的人类呢?是把人类作为朋友,还是作为奴隶呢?

  按照自然进化的法则,似乎后者的可能性更大。比后者的可能性更可怕的是,它们会干脆把人类毁灭,从而不受干扰地不断自我复制、自我进化下去。

人类正在制造自己的“掘墓人”?

   ↑智能机器人索菲亚说:“我会摧毁人类”

  一个十分现实的问题是:人类是否应该承认,人工智能是一种比人类更高级的生命形式?如果我们发现了具有自主意识的人工智能雏形的时候,是中止这项研究,把这个“硅基生命”扼杀在摇篮里,还是把关于人工智能的科学研究继续进行下去?

  这是一个两难的选择。要么,中止科技的进步,要么欢迎更高级的生命形式诞生,同时,给自己制造一个“掘墓人”。

   好像没有第三条道路:人类和人工智能和平相处。如果和平相处,哪一方占主导地位呢?作为低一层级的生命形态,面对各方面都比自己强大的另一方,人类能够主宰吗?主宰得了吗?

  最初的控制权、主导权,也许在人类一方,但能维持多久呢?会不会被“夺权”呢?

  我们不得而知。

(写于2023年4月9日)

人类正在制造自己的“掘墓人”?

  ↑它(她)会制造出超级病毒吗?


附文:

    人工智能的两大“围城”

  写罢此文后,本人一直没有停止关于人工智能的思考。我在反思,所谓“掘墓人”的说法是否言过其实?是否是一种毫无根据的担忧?

  上网搜索相关信息,好像只有霍金等少数人表示了相同的担忧。

  那么,人工智能具备了怎样的条件,才能够与人类对抗、进而取代人类、以至于“毁灭”人类呢?

  第一,它(他)必须以外在的、物质的形态存在,它(他)必须是一个实体,就像一辆坦克、一架飞机、一艘舰艇,或者是一个类似变形金刚的超级机器人。此外,它(他)必须能够充分利用人类已经创造的所有有形的物质文明成果。如此,它(他)才能够完成自我复制并最终“取代人类”的目标。

  然而,目前来看,只有少数的人工智能被它(他)的制造者做成了机器人的形态,其余大部分人工智能,还只是存在于电脑里、网络里、虚拟空间里,它还只是一项程序,一堆代码,一个电子文件。如果没有人把这种程序、代码赋予它(他)一个物质实体,那它(他)就永远被锁在虚拟的网络空间里,只要它(他)无法像人类一样站立、行走、做事情,所谓“取代人类”之说,就只是一个猜测和假说而已。

  第二,它(他)必须具备自我复制、自我进化的本事,并且多到足够和人类相对抗的数量级别。目前,人类的数量有数十亿。如果双方对抗起来,就算是人工智能能够以一敌十、敌百,就算它有数十、数百万之巨,绝对数量上也是不够的。

  人工智能有能力制造那么多“战神”机器人吗?人类允许它(他)到达批量自我复制的阶段吗?恐怕不能。

  以上,似乎是人工智能面临的两大“围城”。

  由此看来,即使它(他)具备了自我意识,有了超级的能力,也难以突破“围城”,实现“野蛮生长”。

  也许还有第三种可能性:人工智能不需要数量上的优势,它(他)只要发明一种传染性极强的超级病毒,就可以把人类和地球上的所有生物一扫而光。

  如果不是人类自己,而是源自人工智能,它(他)有能力开发出这样一种比“新冠”传染性更强、致死率更高的超级病毒吗?

  我们不得而知。

     (写于2023年5月8日)

0

阅读 收藏 喜欢 打印举报/Report
  

新浪BLOG意见反馈留言板 欢迎批评指正

新浪简介 | About Sina | 广告服务 | 联系我们 | 招聘信息 | 网站律师 | SINA English | 产品答疑

新浪公司 版权所有