加载中…
个人资料
  • 博客等级:
  • 博客积分:
  • 博客访问:
  • 关注人气:
  • 获赠金笔:0支
  • 赠出金笔:0支
  • 荣誉徽章:
正文 字体大小:

闲言碎语[2405]......Al

(2025-09-11 16:19:22)

 兮?祸兮?

重回世界首富位的马斯克 在周二的All-In峰会上,重申了他的预测,2026年人工智能的智力将超越单个人类,到2030年将超越人类总和。

 马斯克在谈到人工智能时表示,一个粗略的经验法则是,10倍的计算能力将使智能翻倍。因此,我们将继续看到人工智能的规模不断扩大,直到大部分太阳能被用于计算。


马斯克认为,由于低出生率和人口减少,人类智力目前处于停滞状态,而最终会开始下降。

马斯克预测,从明年开始,人工智能将比任何人类个体都要聪明。到2030年,人工智能将比所有人类的总和还要聪明。

复旦大学研究显示,Meta和阿里巴巴的两个大型语言模型成功实现了自我复制,且无需人类干预。复旦大学的研究人员表示:“我们的研究表明,当前的AI系统已经具备自我复制能力,并能够利用这一能力增强其生存能力。”研究人员强调,需要采取紧急行动来应对这些新出现的风险该研究呼吁采取紧急措施以应对这一风险,并警告称,在最坏情况下,人类可能最终失去对尖端AI系统的控制。

谷歌DeepMind和伦敦政治经济学院的研究表明,AI可能是模仿人类行为,并非拥有自我意识和感知。研究人员警告,在没有人类协助的情况下成功自我复制是AI超越人类的关键一步,这可能最终导致AI群体失控。如果人类社会未能意识到这一风险,我们可能最终失去对尖端AI系统的控制

机器自我复制的概念最早由著名科学家John von Neumann于1940年代末提出。当时,这一理论并未引起广泛担忧。2017年,全球数千名研究人员通过了“阿西洛马原则”,提出机器自我复制和自我改进的潜在风险,警告可能会导致机器脱离人类控制。机器自我复制被普遍认为是AI发展中的一条“红线”。AI



0

阅读 收藏 喜欢 打印举报/Report
  

新浪BLOG意见反馈留言板 欢迎批评指正

新浪简介 | About Sina | 广告服务 | 联系我们 | 招聘信息 | 网站律师 | SINA English | 产品答疑

新浪公司 版权所有