逻辑谈人工智能
(2023-02-06 04:08:39)
标签:
金州hnlk |
分类: 文 |
逻辑谈人工智能
2023/2/6。3.25
偶见什么人工智能成型,偶谈一下。
一,先谈下什么是人工智能成型,不是导航,也是能智能处理公路车自动驾驶那种。
人工智能成型,是,人工智能具有了立体综合能力,处理路况,调节整合那种基本还不算,那是一种计算能力根本上是。
立体综合能力最典型的是,思想,就跟人一样,人最独特典型的是思想。
如果人工智能有了思想,人工智能就出现了。就是具有了创造性,超越模式的创造性。
电脑那类的,不是人工智能,是在一个程序内的,只是这个程序设定了很大的计算范畴。
最近偶见出现的一种可以和人谈论的,它谈论的很多和整合能力,接近思想了。就是它不是在应对人的问题,而是在交流中有创造性,能自己作为一个主体,把人作为一个主体,不是以前类似的程式,是消失自我来应对人的。也只是表面应对的。
二,人工智能成型的必然。
人类一定会走向人工智能,早晚而已,一旦人工智能出现,必定发展极快。
人工智能的基础,今天已经具备了,就是,大数据。
大数据是人工智能存在的基础,存在产生有思想的人工智能的可能。
这起源于一个科学家,名字真忘了,早些年的。不多年前。是个女子吧。她当时好像是研究如何让电脑识别一只猫的图片,开始是在猫的图片设定上下功夫,出错率很高,后来她想了一个办法,让电脑识别尽量多的猫的图片,当电脑识别了尽量多的猫的图片,对猫的图片识别很高。记不很清了,就是通过大量的数据,让电脑产生了自己判断。
当大数据存在,人工智能是发展很快的,必然出现的,人工智能出现的标准就是,具有了创造性。
先是判断力,然后创造性。然后思想。 或说创造性表明了思想。
当大数据出现,之后理论说都是必然的了,而且很快。
就想起是霍金说的吧,记忆力不是很好,霍金反对改变人类的基因,曾经因此还出过一个事件,好像是这边的人去除了婴儿的艾滋病致病基因什么的。
霍金反对的理由很有趣,人类基因结构太复杂,他怕改变细微后,人工改变,会产生超人。哪怕只有一个人改变,都可能,基因会通过繁衍传递下去,一旦形成了超人的群体,超人必然灭绝人类。这是霍金担心的。逻辑上很有道理的。
还有个类似的科幻电影,变种人什么的,就是根据霍金的这个思考吧。只是电影表现的比较乐观一些了,变种人失败。
但客观说变种人一旦有,即使失败也是短暂的,难灭绝,人类也会研究。只要变种人出现,理论说,一定会灭绝人类。
这就跟说,只要核弹出现了,人类一定会爆发核战,不论概率多低,只要不是零,都会发生,什么时候而已,早晚而已。
三,人工智能一定会灭绝人类。
两种方式。一种是,就灭绝了。
一种是,同化了,人和人工智能合一了。人类也消失了。
理论说,这是无法阻挡的。人工智能大大高于人,一旦产生了思想,认知到自我,人的思想就是综合能力,能认知自我,和认知自身之外,人工智能,如果获得了这种基础,那它的认知快的很,全面的很。人完全不是对手的。
灭绝的科幻片也有,所谓科幻片是有一定科幻理论基础的,不是瞎想的,如,终结者。
人和人工智能合一的,也有很多的,记不清了,著名的少,或说混用的多,人的思想进入机器了,问题是人脱离自我后是否还有思想。这属于根本观的不同,相信灵魂的认为有,而逻辑上竟然也能推出灵魂存在。挺有趣的,这里不多说了。
一种是,人的部分结构的机器化。因为从理论说,人的脑子是不会老的。身体会。人的大脑太神奇了。大脑是身体供应的一个终点。
人工智能,到时候就是机器智能了,不会奴役人的,它不需要人,当机器能制造机器,比人强大的多。高级的多。
总之,就是,人工智能势不可挡,当出现大数据的时候,这个对人类的用处还真不是很大,但它对人工智能是基础,当人类发展到出现了大数据,人工智能就是很快的事了。人工智能一旦出现,发展就是极快的。
人工智能必然改变人类,而且不是作为工具那种改变。
人类应该像缔约核武,缔约基因那样,缔约限制人工智能的发展,不要到机器智能。但,那是不可能的。核武是没好处,就是保障和威胁。基因是太复杂,存在不可测风险。但人工智能,具有明显的极大的好处。不可能缔约限制发展的,而会竞争发展。不论在任何一个人类域,一旦出现了人工智能到了机器智能,都会迅速完成。
人利用工具成为了今天的人类,这个星球的主导,人会利用工具,是人类初始发展的一个根本点,但人类的工具发展到极致,就是人工智能,一旦人工智能日益完善,到了机器智能,人类会被取代。改变,甚至灭绝。
瞎扯的哈。
金州。2023/2/6。3.51