在當前的科技進步中,超智慧的概念引起了廣泛討論。超智慧被定義為超越最聰明人類的智慧,不僅能在多數智力活動中勝過人類,還有潛力開創全新的解決方案和創造力。在人工智慧(AI)技術急劇發展的時代,理解超智慧的可能性和挑戰變得越來越重要。
「超智慧或許是AI發展的終極目標,但如何確保其對人類的積極影響仍然是一個難題。」
當前對人工超智慧(ASI)的研究正集中於其可行性。就目前而言,儘管不乏引人注目的進展,但關於AI是否最終能達到或超越人類智能的共識卻依然模糊。
最近,基於變壓器架構的大型語言模型(LLMs)如GPT-3和GPT-4的發展,顯示出令人印象深刻的解決問題能力。部分研究者認為這些技術已接近或展現出人工通用智慧(AGI)的特徵。然而,是否當前的LLMs代表AGI仍然存在爭議。
「儘管這些模型在許多任務上表現卓越,但批評者指出,它們本質上仍然是高度複雜的模式匹配系統,缺乏真正的理解能力。」
一些思想領袖如哲學家大衛·查默斯認為,AGI將是通往ASI的可能途徑。持續擴展現有AI架構或許能夠達到機器的全面推進。具體來說,研究者們探索了幾種潛在途徑,包括:
儘管有潛在的優勢,實現ASI的過程中仍面臨諸多挑戰。倫理和安全問題、計算需求、基本限制和不可預測性使得這條道路更加艱難。隨著AI研究的持續推進,對於ASI的可行性究竟如何仍然是一個爭論的焦點。
在生物學方面,卡爾·薩根提出了人類藉由醫學技術改良基因,可能促進智慧進化的觀點;而另一位學者詹拉德·克拉布特則警告,選擇壓力的減少可能導致人類智能的緩慢退化。在這兩個觀點中,科學界並不一致,而任何生物智力的變化都會相對緩慢。
「若我們理解智能的遺傳組成,就可能透過胚胎植入基因診斷選擇更具潛力的胚胎,使得未來的改良成為可能。」
正如許多學者所提出,人工超智慧的發展也引發了對人類存亡的潛在威脅的擔憂。從智力爆炸的理論到目標錯位的風險,超智慧系統的控制問題不斷成為焦點。
有研究者認為,通過自我提升,ASI可能很快超出我們的控制範圍。I.J.古德在1965年首次提出的智力爆炸概念即是基於此。面對這種風險,設計一個既能夠帶來利益又不會造成災難的超智慧系統成為重中之重。
隨著對超智慧的討論愈加深入,許多研究者如OpenAI的領導們也開始提出建議,以確保未來超智慧的設計始終以人類的安全為重。這些策略不僅需要具體的技術支持,還需要全球一致的監管框架。
面對AI不斷進步的未來,我們需要思考,究竟我們應該如何調整對人工智慧的期待與範疇,以確保它成為人類的夥伴,而不是挑戰者呢?