隨著科技的迅猛發展,超智能(Superintelligence)的概念逐漸成為了人們關注的焦點。這是一種假設的智能體,擁有超越任何人類智慧的能力。許多專家相信,我們距離創造這樣的人工智能(AGI)不再遙遠,值得我們對此展開深入探討。
“超智能可以用來描述任何超越人類在幾乎所有領域認知表現的智能。”
人工通用智能(AGI)指的是能夠在各種任務中展示高度智慧的系統。與當前針對特定領域的專用AI系統相比,AGI有能力進行推理、學習和理解語言。許多專家認為,當AGI出現時,將會帶來巨大的社會影響,並可能引發技術奇點(Technological Singularity),這不僅是智能的增加,更是智能系統相互促進進步的開始。
最近幾年,基於Transformer架構的大型語言模型(LLMs)如GPT-3、GPT-4等,已在多項任務上取得顯著進展。這些模型的出現,令一些研究者認為它們可能接近或已展現出AGI的某些特徵。然而,針對這一點,仍存在著爭議。批評者指出,這些模型主要體現縱深的模式匹配,而缺乏真正的理解力。
“儘管目前的模型令人印象深刻,但仍然缺少全般智能所必需的理解力、推理能力及在不同領域適應的能力。”
哲學家大衛·查默斯指出,AGI是超智能的最可能途徑。他認為,通過不斷擴展和優化現有的AI系統,特別是基於Transformer的模型,我們可能會找到通往超智能的可行方法。一些研究者倡導的途徑包括混合不同的AI方法,或許可以創造出更為強大和能力豐富的系統。
人工智能在許多方面相較於人類智慧,擁有顯著的優勢:
有專家提出,生物智慧的進化也可能導致更高的智慧。通過人工手段如基因增強或神經增強,人類的智慧潛力可能被進一步開發。雖然這邊的科學共識尚未達成,但關於智力的增強方式則是各方爭論的熱點。
根據調查,大多數人工智能研究者認為,未來機器將最終能夠在智慧上與人類匹敵。雖然對於何時會出現這種情況仍然意見不一,但對未來的牛牛重塑有著共同的期待。最近的預測指出,在接下來的幾十年內,超智能技術可能進一步成熟,甚至潛在的出現時間極為迫近。
“很多AI研究者對於超智能的到來表示樂觀,認為在不久的將來人類的智慧將被模擬出來。”
關於超智能AI系統的設計,引發了很多的思考。模型的價值觀和目標應該如何定位?有些提議例如"一致的推敲意願"(CEV)以及道德正確性(MR)等,均試圖探討理想的AI理應具備的屬性和行為準則。
隨著人工智慧的進一步發展,潛在的生存風險也變得日益引人關注。隨著AI系統越來越強大,如何設計安全的AI系統並避免意外傷害將是未來必須克服的主要挑戰。
“在我們創造第一個超智能實體時,可能會犯錯,給予其目標,最終導致人類滅絕的風險。”
隨著技術的進步,AGI的到來看似指日可待,那麼我們應該如何準備好迎接這個全新的時代呢?