AI 可能是我们未能与外星文明取得联系的「大过滤器」
来源:火狐体育娱乐官方网站 发布时间:2024-05-16 04:33:17
人工智能(AI)在过去几年中以惊人的速度发展。一些科学家现在正着眼于超级人工智能(Artificial Superintelligence,ASI)的发展,这是一种不仅超越人类智能,而且不受人类学习速度限制的 AI。
但如果这个里程碑不单单是一项了不起的成就呢?如果它也代表了所有文明发展的一个巨大瓶颈,一个如此具有挑战性的瓶颈,以至于阻碍了它们的长期生存,该怎么办?
AI 是否会成为宇宙的「大过滤器」——一个难以克服的门槛,阻止大多数生命进化成太空文明?
这个概念或许可以解释为什么搜寻地外文明计划(SETI)尚未发现银河系另外的地方先进的技术文明的迹象。
大过滤假说最终是费米悖论的解决方案。这就提出了一个问题,为什么在一个广阔而古老、足以容纳数十亿个潜在宜居行星的宇宙中,我们没发现任何外星文明的迹象。
大过滤假设表明,文明的进化时间表中存在难以克服的障碍,阻止它们发展成为太空实体。因此,人类可探测到的地外生命极其罕见。
ASI 的出现能成为这样一个过滤器。AI 的加快速度进行发展有几率会使 ASI,它可能与文明发展的关键阶段相交——从单行星物种向多行星物种的转变。
这就是许多文明可能会陷入困境的地方,AI 的进步速度远远快于我们控制它,或可持续探索和居住太阳系的能力。
AI(尤其是 ASI)的挑战在于其自主性、自我放大性和改进性。它具有增强自身能力的潜力,其速度超过了我们在没有 AI 的情况下的进化时间表。
出现严重错误的可能性是巨大的,导致生物文明和 AI 文明在有机会成为多行星之前就崩溃。例如,如果各国越来越依赖并将权力让给相互竞争的自主 AI 系统,那么军事能力就可能被用来以前所未有的规模进行杀戮和破坏。这有几率会使我们整个文明的毁灭,包括 AI 系统本身。
在这种情况下,估计科技文明的典型寿命(typical longevity)可能不到 100 年。这大约是从能够在恒星之间接收和广播信号(1960 年)到估计在地球上出现 ASI(2040 年)之间的时间。与数十亿年的宇宙时间尺度相比,这一段时间短得惊人。
这一估计,当插入德雷克(Drake)方程的乐观版本时——该方程试图估计银河系中活跃的、可交流的外星文明的数量——表明,在任何给定时间,那里只有少数智慧文明。此外,像我们一样,它们相对温和的技术活动可能使它们很难被发现。
这项研究不单单是一个潜在厄运的警示故事。它敲响了人类的警钟,要求人类建立强有力的监管框架来指导 AI(包括军事系统)的发展。
这不仅仅是为避免 AI 在地球上被恶意使用;它还涉及确保 AI 的进化与我们物种的长期生存保持一致。这表明我们应该投入更多资源,尽快成为一个多行星社会——这一目标自阿波罗计划的鼎盛时期以来长期处在休眠状态,但最近因私营公司的进步而重新点燃。
正如历史学家尤瓦尔·诺亚·赫拉利(Yuval Noah Harari)指出的那样,历史上没有一点东西能让我们为将无意识的超级智能实体引入地球所带来的影响准备好。最近,AI 自主决策的影响导致该领域的知名领导人呼吁暂停 AI 的发展,直到引入负责任的控制和监管形式。
自主 AI 在军事防御系统中的集成必须成为特别需要我们来关注的领域。已经有证据说明,人类将自愿放弃重要的权力给能力日益增强的系统,因为它们能在没有人为干预的情况下更快、更有效地执行有用的任务。
这意味着我们已危险地接近自主武器超越道德界限并规避国际法的悬崖。在这样的世界中,为了获得战术优势而将权力交给 AI 系统可能会无意中引发一系列迅速升级、极具破坏性的事件。一眨眼的功夫,我们星球的集体智慧就可能被消灭。
人类正处于其技术轨迹的关键时刻。我们现在的行动可以决定我们是不是成为一个持久的星际文明,或者屈服于我们自己的创造物带来的挑战。
使用 SETI 作为我们审视未来发展的镜头,为关于 AI 未来的讨论增加了一个新的维度。我们所有人都有责任确保,当我们伸手摘星时,我们这样做不是为了其他文明的警示,而是作为希望的灯塔——一个学会与 AI 一起繁荣发展的物种。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
最新图像显示菲非法“坐滩”船只锈蚀极为严重 专家:或对海洋生物造成不可逆伤害
晨意帮忙丨女子手机掉进湖里向园区索赔,园区:要我把水抽干找手机,可能吗?
大瓜!55岁解晓东经商失败,欠债2800万,价值4280万豪宅遭法拍!
齐麟吃到延迟哨6犯 用英文怒喷韩国裁判:Bullsh*t!Thats!