4月29日報道據(jù)阿根廷布宜諾斯艾利斯經(jīng)濟新聞網(wǎng)4月19日報道,人工智能(AI)繼續(xù)呈指數(shù)級發(fā)展,在一系列認知技能方面超越人類,并在處理以往被認為是人類智能“專利”的任務方面創(chuàng)造了新紀錄。美國斯坦福大學“以人為本”人工智能研究院發(fā)布的最新人工智能指數(shù)報告顯示,人工智能的發(fā)展和應用正在達到前所未有的水平,重新定義了這些技術的功能極限。
該報告強調(diào):“人工智能已經(jīng)在許多重要參考指標上超越了我們。”該報告舉例說明,從2015年至今,人工智能已經(jīng)在圖像分類、基礎閱讀理解、視覺推理和自然語言推理等領域表現(xiàn)出優(yōu)勢。
這促使人們對人工智能能力的評估進行了徹底反思,認為有必要開發(fā)新的測試,不僅能衡量人工智能的能力,還能突出人類與機器之間的差異。該報告強調(diào)了人工智能能力的快速發(fā)展。基于GPT-4的模型成功解決了12500個具有挑戰(zhàn)性的數(shù)學問題中84.3%的問題,在解決數(shù)學問題等復雜任務中的表現(xiàn)大幅提升。
相比之下,人類的基線約為90%。這不僅表明兩者在能力上的接近,也凸顯了人工智能在認知復雜度極高的領域,取得了令人矚目的進步。
在視覺常識推理方面,人工智能取得了顯著進步,在2022年至2023年間,其推理能力提高了7.93%,分數(shù)達到81.60,接近人類基線的85。這一進步凸顯了人工智能在視覺上解釋和預測情況的能力。其準確性不斷提高,挑戰(zhàn)了以往關于人工智能在理解和處理復雜情境和現(xiàn)實生活中存在局限性的觀念。
然而,盡管取得了重要進展,報告也強調(diào)了人工智能在真實性和生成無差錯內(nèi)容方面持續(xù)面臨的挑戰(zhàn)。包括GPT-4在內(nèi)的大型語言模型雖然在提供真實答案方面有所改進,但仍然面臨“人工智能幻覺”問題,即把虛假或誤導信息當作事實。
紐約律師史蒂文·施瓦茨的案例充分證明了這一挑戰(zhàn)。他因在法律文件中使用人工智能生成的不準確信息而面臨巨額罰款。此外,該報告還強調(diào)了人工智能生成圖像方面的創(chuàng)新,并通過“文本到圖像模型的整體評估”對進展情況進行了評估,該評估測查了大型語言模型生成與文本描述一致的圖像的能力。盡管取得了令人印象深刻的進步,但還沒有發(fā)現(xiàn)任何一種人工智能模型在所有評估標準中都表現(xiàn)出色,這揭示了需要改進的領域和未來發(fā)展的潛力。
2023年是人工智能取得革命性發(fā)展的一年,標志著這些技術的應用和完善進入了前所未有的加速期。然而,這條創(chuàng)新之路并非沒有困境,特別是在人工智能的安全性、可靠性和倫理方面,這些問題仍是全球范圍內(nèi)研究和討論的主題。人工智能當前的發(fā)展格局不僅反映了這些技術的非凡潛力和能力,也反映了當前的挑戰(zhàn),以及將發(fā)展重點放在創(chuàng)建更安全、更可靠、更有道德責任感的系統(tǒng)上的必要性。
隨著我們邁向未來,人機交互將是一個不斷被探索和發(fā)展的領域,有望重新定義我們與技術的關系及其在日常生活中的應用。
盡管自2021年以來人工智能領域的私人投資呈下降趨勢,但人們對生成式人工智能的興趣明顯增大。2023年,生成式人工智能領域吸引的投資多達約252億美元,幾乎是前一年的9倍,是2019年的約30倍。這種現(xiàn)象被一些人稱為“ChatGPT效應”