(相關資料圖)
近期,人工智能大模型在用戶體驗上取得了顯著提升,發(fā)展與應用機遇不斷涌現(xiàn)。例如在文本生成領域,人工智能大模型有望基于互聯(lián)網文本生成針對某個事務相對更全面深入的分析,從而輔助人類更好地利用互聯(lián)網信息解決問題。在圖像生成領域,能夠根據文字描述生成以往并不存在的圖像以及視頻,甚至給人“一圖勝千言”的感受。
然而,潛在的發(fā)展與應用機遇的井噴也帶來諸多隱患。生成式人工智能大模型基于包括個人信息的互聯(lián)網數據進行內容生成,目前已經出現(xiàn)了模型及其服務侵犯用戶個人隱私的案例;人工智能內容生成技術的濫用和惡用,使得越來越多的虛假信息被用于網絡詐騙和網絡犯罪等場景,對社會信任產生明顯的沖擊;此外,有些人工智能內容生成系統(tǒng)對社會文化和價值觀沒有客觀的評價和闡述方式,對特定群體的價值觀和文化認同也產生了挑戰(zhàn);人工智能內容生成甚至會對危險行為的實施提供建議……支撐人工智能內容生成訓練的原始互聯(lián)網數據、用戶對人工智能內容生成系統(tǒng)提出的問題、系統(tǒng)生成式輸出結果的三重不可預期性,使得人工智能內容生成面臨的風險更加不可控。
由于人工智能大模型迅速廣泛的發(fā)展與應用,目前的潛在風險并沒有留給人類足夠的時間準備,就已迅速成為實存風險。人類將如何理解和使用生成式人工智能大模型的輸出?潛在風險是什么?現(xiàn)在學術界和社會還來不及討論,相關的應用就已經大規(guī)模進入社會,技術創(chuàng)新和服務的倫理治理卻還沒有跟上。
我們在發(fā)展人工智能內容生成技術的同時,需要開展對人工智能內容生成的深度治理。每一個服務于社會的人工智能大模型與系統(tǒng),都應當為其設計和實現(xiàn)道德與安全框架,以技術落地和自動化檢測與評估等形式,深度融入產品與服務。與發(fā)展人工智能技術應用相比,推進人工智能倫理安全的研究不僅同等重要,而且也必不可少。人工智能的研發(fā)與服務企業(yè)、各級政府監(jiān)管部門應當盡快建立人工智能倫理與安全委員會,對風險進行實質有效的監(jiān)管。
近期人工智能大模型的發(fā)展,主要依靠的是工程技術的組合創(chuàng)新,同時和海量人工標注與反饋進行深度融合,這跟自然演化錘煉出的“智能”千差萬別。在這種情況下,一方面,應當給予人工智能內容生成產品與服務以明確標識,幫助人們識別合成信息。這是因為目前的人工智能還只是個看似智能的信息處理模型,既不具備真正的智能,更無法承擔道德的責任,不應當混淆人工智能內容生成與人類生產內容的界限。另一方面,研究結構和機理受自然與人類啟發(fā),特別是受腦與心智啟發(fā)的人工智能,仍應是形成未來真正意義上的人工智能的突破途徑。自然演化過程中的優(yōu)勝劣汰避免掉了諸多潛在風險,科學意義上擴展和延伸自然演化的人工智能探索更合乎社會與生態(tài)長遠發(fā)展的期待。
從現(xiàn)實的視角來看,人工智能大模型的發(fā)展和應用機遇仍然是顯見的。接下來,中國的前進方向是發(fā)展信息處理能力接近世界高水平,而倫理安全方面顯著超越當前產品的人工智能大模型。與發(fā)展信息處理能力同步,賦能社會服務的每一個人工智能大模型應構建可技術落地的倫理安全框架,并經過倫理安全的自動化檢測與評估。在應用層面,由于人工智能大模型目前還存在明確的倫理安全隱患,也只是看似智能的信息處理工具,推進其在不同領域應用的時候,應當把握“人工智能不必無所不在,應適度使用”的原則。對那些用人工智能大模型服務替代人類勞動的嘗試,應積極探索人與人工智能在特定工作中的協(xié)作模式,而非急于完全替代。
這也提醒我們,對通用人工智能和超級智能潛在風險的前瞻研究應盡早提上日程。雖然目前的人工智能大模型及其發(fā)展路徑的延伸,難以實現(xiàn)真正意義上的通用人工智能,但目前實存風險就已經超出人類預期,而通用人工智能和超級智能的風險如何應對,現(xiàn)在幾乎看不到任何可行的方案。因此人類需要對此盡早準備,避免潛在風險變成實存風險再次上演,到時只會更加措手不及。
總體而言,我們應本著“適度發(fā)展,深度治理”的原則,最小化技術發(fā)展的倫理安全隱患,并積極主動應對潛在與實存挑戰(zhàn),推進人工智能大模型穩(wěn)健發(fā)展,賦能社會、經濟與生態(tài)的可持續(xù)發(fā)展。同時,應積極長遠布局,源頭創(chuàng)新,在科學意義上取得人工智能發(fā)展的真正突破,并以中國的產業(yè)創(chuàng)新體系孵化和放大來自中國的源頭創(chuàng)新,做好充足的準備迎接人工智能發(fā)展的“中國時刻”。
關鍵詞: