在当前的科技进步中,超智慧的概念引起了广泛讨论。超智慧被定义为超越最聪明人类的智慧,不仅能在多数智力活动中胜过人类,还有潜力开创全新的解决方案和创造力。在人工智慧(AI)技术急剧发展的时代,理解超智慧的可能性和挑战变得越来越重要。
「超智慧或许是AI发展的终极目标,但如何确保其对人类的积极影响仍然是一个难题。」
当前对人工超智慧(ASI)的研究正集中于其可行性。就目前而言,尽管不乏引人注目的进展,但关于AI是否最终能达到或超越人类智能的共识却依然模糊。
最近,基于变压器架构的大型语言模型(LLMs)如GPT-3和GPT-4的发展,显示出令人印象深刻的解决问题能力。部分研究者认为这些技术已接近或展现出人工通用智慧(AGI)的特征。然而,是否当前的LLMs代表AGI仍然存在争议。
「尽管这些模型在许多任务上表现卓越,但批评者指出,它们本质上仍然是高度复杂的模式匹配系统,缺乏真正的理解能力。」
一些思想领袖如哲学家大卫·查默斯认为,AGI将是通往ASI的可能途径。持续扩展现有AI架构或许能够达到机器的全面推进。具体来说,研究者们探索了几种潜在途径,包括:
尽管有潜在的优势,实现ASI的过程中仍面临诸多挑战。伦理和安全问题、计算需求、基本限制和不可预测性使得这条道路更加艰难。随着AI研究的持续推进,对于ASI的可行性究竟如何仍然是一个争论的焦点。
在生物学方面,卡尔·萨根提出了人类藉由医学技术改良基因,可能促进智慧进化的观点;而另一位学者詹拉德·克拉布特则警告,选择压力的减少可能导致人类智能的缓慢退化。在这两个观点中,科学界并不一致,而任何生物智力的变化都会相对缓慢。
「若我们理解智能的遗传组成,就可能透过胚胎植入基因诊断选择更具潜力的胚胎,使得未来的改良成为可能。」
正如许多学者所提出,人工超智慧的发展也引发了对人类存亡的潜在威胁的担忧。从智力爆炸的理论到目标错位的风险,超智慧系统的控制问题不断成为焦点。
有研究者认为,通过自我提升,ASI可能很快超出我们的控制范围。 I.J.古德在1965年首次提出的智力爆炸概念即是基于此。面对这种风险,设计一个既能够带来利益又不会造成灾难的超智慧系统成为重中之重。
随着对超智慧的讨论愈加深入,许多研究者如OpenAI的领导们也开始提出建议,以确保未来超智慧的设计始终以人类的安全为重。这些策略不仅需要具体的技术支持,还需要全球一致的监管框架。
面对AI不断进步的未来,我们需要思考,究竟我们应该如何调整对人工智慧的期待与范畴,以确保它成为人类的伙伴,而不是挑战者呢?