随着科技的迅猛发展,超智能(Superintelligence)的概念逐渐成为了人们关注的焦点。这是一种假设的智能体,拥有超越任何人类智慧的能力。许多专家相信,我们距离创造这样的人工智能(AGI)不再遥远,值得我们对此展开深入探讨。
“超智能可以用来描述任何超越人类在几乎所有领域认知表现的智能。”
人工通用智能(AGI)指的是能够在各种任务中展示高度智慧的系统。与当前针对特定领域的专用AI系统相比,AGI有能力进行推理、学习和理解语言。许多专家认为,当AGI出现时,将会带来巨大的社会影响,并可能引发技术奇点(Technological Singularity),这不仅是智能的增加,更是智能系统相互促进进步的开始。
最近几年,基于Transformer架构的大型语言模型(LLMs)如GPT-3、GPT-4等,已在多项任务上取得显著进展。这些模型的出现,令一些研究者认为它们可能接近或已展现出AGI的某些特征。然而,针对这一点,仍存在着争议。批评者指出,这些模型主要体现纵深的模式匹配,而缺乏真正的理解力。
“尽管目前的模型令人印象深刻,但仍然缺少全般智能所必需的理解力、推理能力及在不同领域适应的能力。”
哲学家大卫·查默斯指出,AGI是超智能的最可能途径。他认为,通过不断扩展和优化现有的AI系统,特别是基于Transformer的模型,我们可能会找到通往超智能的可行方法。一些研究者倡导的途径包括混合不同的AI方法,或许可以创造出更为强大和能力丰富的系统。
人工智能在许多方面相较于人类智慧,拥有显著的优势:
有专家提出,生物智慧的进化也可能导致更高的智慧。通过人工手段如基因增强或神经增强,人类的智慧潜力可能被进一步开发。虽然这边的科学共识尚未达成,但关于智力的增强方式则是各方争论的热点。
根据调查,大多数人工智能研究者认为,未来机器将最终能够在智慧上与人类匹敌。虽然对于何时会出现这种情况仍然意见不一,但对未来的牛牛重塑有着共同的期待。最近的预测指出,在接下来的几十年内,超智能技术可能进一步成熟,甚至潜在的出现时间极为迫近。
“很多AI研究者对于超智能的到来表示乐观,认为在不久的将来人类的智慧将被模拟出来。”
关于超智能AI系统的设计,引发了很多的思考。模型的价值观和目标应该如何定位?有些提议例如"一致的推敲意愿"(CEV)以及道德正确性(MR)等,均试图探讨理想的AI理应具备的属性和行为准则。
随着人工智慧的进一步发展,潜在的生存风险也变得日益引人关注。随着AI系统越来越强大,如何设计安全的AI系统并避免意外伤害将是未来必须克服的主要挑战。
“在我们创造第一个超智能实体时,可能会犯错,给予其目标,最终导致人类灭绝的风险。”
随着技术的进步,AGI的到来看似指日可待,那么我们应该如何准备好迎接这个全新的时代呢?