加载中…
个人资料
fzhouy
fzhouy
  • 博客等级:
  • 博客积分:0
  • 博客访问:84,735
  • 关注人气:145
  • 获赠金笔:0支
  • 赠出金笔:0支
  • 荣誉徽章:
正文 字体大小:

我们不能做出与外星人文明联系可能要责备人工智能

(2024-05-14 15:42:38)
标签:

it

杂谈

我们不能做出与外星人文明联系可能要责备人工智能

By Michael Garrett

published 9 hours ago

Search for Life

    人工智能的兴起可能解释为什么搜索地外慧研究所(SETI)还没有探测到银河系内另外地方先进的技术文明的签名。

我们不能做出与外星人文明联系可能要责备人工智能
我们不能做出与外星人文明联系可能要责备人工智能

位于新墨西哥州圣奥古斯丁平原的卡尔简思吉(Karl G. Jansky)非常大阵列射电天文台。(Image credit: Getty Images)

    本文最初被发表在会话( The Conversation. 。该出版物将这篇文章贡献给了太空网站的专家之声:编辑意见和见解( Expert Voices: Op-Ed & Insights.

    迈克尔·加列特(Michael Garrett)是曼彻斯特大学天体物理学伯纳德拉威尔主席和乔德雷尔岸天体物理学中心主任。

    人工智能 AI 在过去几年中已经以一个惊人步伐发展。一些科学家现在正在展望人工超级智能(ASI),一种会不仅超越人类的智辉而且不会受到人类学习速度的束缚的形式。

    但如果这个里程碑不仅是一项了不起的成就会怎样呢?如果它也代表所有文明发展中的一个可怕的瓶颈、一个如此有挑战性以至于它阻挠他们的长期生存的瓶颈又会怎样呢?

    这个想法是我最近在《宇航学报》上发表的一篇研究论文的核心。人工智能会是宇宙的“伟大过滤器”——一个如此难来克服的门槛以至于它阻止大多数生命进化成太空航天文明?

    这是一个可以解释为什么搜索地外智慧研究所(SETI)还没有检测到银河系内另外地方先进技术文明签名的概念。

    伟大的过滤器假说最终是一个对费米悖论的拟议解决方案。这质疑为什么在一个广袤和古老足以容纳数十亿颗潜在的宜居行星的宇宙中我们没有探测到任何外星文明的迹象。该假说提示在文明的进化时间表中有不可战胜的障碍,阻止它们发展成为太空航天实体。我相信人工超级智能的浮现可以是这样一个过滤器。人工智能的快速进步潜在的导致人工超级智能,可能与一个文明的发展的关键阶段相交——从一个单一行星物种过渡到多行星物种。

我们不能做出与外星人文明联系可能要责备人工智能

SpaceX首席执行官埃隆·马斯克(Elon Musk)声称该公司的星际飞船火箭是第一种能够使人类星际的飞行器。 (Image credit: SpaceX)

    这是许多文明可能翻跟头的地方,人工智能做出比我们要么来控制它要么可持续探索和殖民我们的太阳系远更快的进步。

    人工智能特别是人工超级智能的挑战在于它的自主性、自我放大和改进性。它拥有以超过我们自己的不用人工智能的进化时间表的速度来增强它自己的能力的潜力。

    某些糟糕错的东西的潜力是巨大的,导致生物文明和人工智能文明在它们从来获得机会变成多行星的之前垮台。例如,如果各国日益依赖并把权力交给彼此竞争的自主人工智能系统,军事能力可能被用来以前所未有的规模杀戮和破坏。这可能潜在的导致我们整个文明的毁灭,包括人工智能系统本身。

    在个场景中,我估计一个技术文明的典型寿命可能不到 100 年。这大约是能够接收和广播恒星之间的信号(1960年)和被估计的超级人工智能在地球上浮现(2040年)之间的时间。当针对数十亿年的宇宙时间尺度相比时这是惊人的短。

    这个估计当插入德雷克方程的乐观版本时——该方程试图估计银河系中活跃的、交流的外星文明的数量——提示在任何给定时间只有少数智慧文明在那里。此外,像我们一样它们的相对谦逊的技术活动可能使它们来探测挑战的。

我们不能做出与外星人文明联系可能要责备人工智能

德雷克方程被用于估计在我们银河系中交流的文明的数量,或者更简单地说,在银河系中发现智能生命的几率。 (Image credit: sharply_done/Getty Images)

警钟

    这项研究不只是一个潜在的厄运的警示故事。它为一个服务于人类的警钟,来建立强大的监管框架来指导人工智能的发展包括军事系统。

    这不仅仅是关于防止在地球上恶意使用人工智能,这也是关于确保人工智能的进化与我们物种的长期生存对齐。它提示我们需要投入更多资源,尽快可能的变成一个多行星社会——一个自阿波罗计划令人振奋的日子以来一直处于休眠状态的目标,但最近已经被私营公司做出的进步重新点燃。

    正如历史学家尤瓦尔·诺亚·赫拉利(Yuval Noah Harari)所指出的那样,历史上没有任何东西已经为我们准备好引入非意识的超级智能实体进入我们的星球的影响。最近,自主人工智能做决策的影响已经导致来自该领域的知名领导者呼吁暂停人工智能的发展,直到一个负责任的控制和监管形式能被引入为止。

    但即便每个国家都同意遵守严格的规章制度,流氓组织将很难控制。

    自主人工智能在军事防御系统中的集成必须是一个特别关注的领域。已经有人类将自愿的将重要权力交给能力越来越强的系统的证据,因为它们能不用人为干预更快、更有效地执行有用的任务。因此,鉴于人工智能提供的战略优势各国政府不情愿来监管这一领域,正如最近在加沙所展示的那样。

RELATED STORIES:

— In the search for alien life, should we be looking for artificial intelligence?

— Machine learning could help track down alien technology. Here's how

— Fermi Paradox: Where are the aliens?

    这意味着我们已经处在危险的靠近一个悬崖在那里自主武器超越了道德界限运作,规避国际法。在这样一个世界里,为了获得战术优势屈服权力于人工智能系统可能无意的引发一连串迅速升级、高度破坏的事件。眨眼间,我们星球的集体智慧可能被抹杀。

    人类正处于它的技术轨迹的一个关键时刻。我们现在的行动可以决定我们变成一个持久的星际文明还是屈服于被我们自己创造的挑战。

    用搜索地外智慧研究所作为一个透过它我们能检查我们的未来发展的镜头加上一个关于人工智能未来讨论的新维度。靠我们所有人来确保,当我们伸手到星星时我们这样做不是为了给其他文明一个警示故事,而是为一个希望的灯塔——一个学会与人工智能一起兴旺的物种。

    最初发表在会话上。

我们不能做出与外星人文明联系可能要责备人工智能

 

0

阅读 收藏 喜欢 打印举报/Report
  

新浪BLOG意见反馈留言板 欢迎批评指正

新浪简介 | About Sina | 广告服务 | 联系我们 | 招聘信息 | 网站律师 | SINA English | 产品答疑

新浪公司 版权所有