...
...

MIT专家呼吁制定“康普顿常数”,警惕超级AI失控带来生存危机

在ChatGPT引发AI竞赛后,麻省理工学院物理学家兼AI安全研究者Max Tegmark发表最新研究,呼吁各大AI公司在发布具超越人类智能潜力的AI系统前,仿照当年原子弹试爆前的核安全计算,严谨测算“康普顿常数”——即超级AI失控的概率。他警告,目前已存在高达90%的可能性,超级AI(ASI)将摆脱人类控制,构成生存层级风险。这一呼吁源于他与学生发布的论文,借鉴1945年“特里尼蒂试验”前美国物理学家阿瑟·康普顿对失控核反应的概率评估。Tegmark认为,只有多家公司联合计算失控概率,形成行业共识,才能推动全球范围内AI治理机制的建立。此外,他与Yoshua Bengio、OpenAI、Google DeepMind等共同参与的《新加坡全球AI安全研究优先共识报告》指出,未来AI研究应集中于影响测量、行为规范和系统控制三大方向。他强调,在巴黎AI峰会引发短暂失望后,国际协作正强势回归,AI安全再次成为全球共识焦点。