加载中…
个人资料
刘群鸣
刘群鸣
  • 博客等级:
  • 博客积分:0
  • 博客访问:0
  • 关注人气:0
  • 获赠金笔:0支
  • 赠出金笔:0支
  • 荣誉徽章:
正文 字体大小:

千名科技人士呼吁暂停训练AI系统

(2023-04-02 12:00:00)
分类: 军事与科技
马斯克等千名科技人士公开信:暂停训练更强大的AI系统
2023-03/29

呼吁所有人工智能实验室,立即暂停训练比GPT-4更强大的人工智能系统,至少6个月。如果不能暂停,政府应介入。
“人工智能教父”的杰弗里·辛顿:人工智能可能发展到对人类构成威胁的地步,这一点不难想象。
AI“大牛”盖瑞·马库斯:“人工智能风险≠通用人工智能风险”。在短期内,要担心“MAI(平庸人工智能)风险”。
伊隆·马斯克对辛顿和马库斯的赞同。
29日,未来生命研究所公布一封公开信。已有1079人签署。

具有与人类竞争智能的人工智能系统,可能对社会和人类构成深远的风险。正如广泛认可的“阿西洛马人工智能原则(阿西莫夫的机器人三大法则的扩展版本,于2017年由近千名人工智能和机器人专家签署)中所述,高级AI可能代表地球生命史上的深刻变化,应该进行规划和管理。
当代人工智能系统现在在一般任务上变得与人类具有竞争力,我们必须扪心自问:
是否应该让机器用宣传和谎言充斥我们的信息渠道?
是否应该自动化所有工作,包括令人满意的工作?
是否应该发展最终可能比我们更多、更聪明并取代我们的非人类思维?
应该冒险失去对我们文明的控制吗?”

只有当我们确信它们的影响是积极且风险是可控的时候,才应该开发强大的人工智能系统。
OpenAI最近声明:在某些时候,在开始训练未来的系统之前进行独立审查可能很重要。对于最先进的工作来说,应该同意限制用于创建新模型的计算量增长。

实验室和专家应利用这次暂停,共同开发一套用于高级人工智能设计和开发的共享安全协议。
这并不意味着总体上暂停AI开发,只是紧急从危险竞赛中收回脚步。

必须开发强大的AI治理系统:
建立专门的新监管机构;
监督和跟踪高性能人工智能系统;
推出标明来源系统和水印系统,以区分真实与合成;
审计和认证生态系统;
界定人工智能伤害的责任;
为安全研究提供公共资金;
应对人工智能将造成的破坏。

社会已经暂停其他可能对社会造成灾难性影响的技术。可以在这个领域也这样做。让我们享受AI之夏,而不是毫无准备地陷入秋天。

0

阅读 收藏 喜欢 打印举报/Report
  

新浪BLOG意见反馈留言板 欢迎批评指正

新浪简介 | About Sina | 广告服务 | 联系我们 | 招聘信息 | 网站律师 | SINA English | 产品答疑

新浪公司 版权所有