(資料圖)
當我們關注人工智能發(fā)展的時候,驚嘆人工智能會怎樣深刻影響我們的生活、影響我們的社會;當我們不斷驚嘆人工智能變化的時候,它又會帶給我們的現(xiàn)實生活什么樣的爭論和無奈?文字、聲音、圖片、視頻,人工智能正在給社交媒體帶來什么?
如何看待人工智能合成技術的應用?
中科院自動化研究所人工智能倫理與治理研究中心主任 曾毅:利用人工智能做內容的生成是近幾年開始出現(xiàn)的現(xiàn)象。我想跟以前不同的是,現(xiàn)在的人工智能技術做內容生成,它的逼真度確實已經(jīng)非常接近真實,在有一些場景下確實比較難分辨了。所以很多內容在其他場景下出現(xiàn)的時候,并沒有明確聲明的情況下,它的誤導性非常強。所以我認為只要是利用人工智能內容生成這樣的技術,相關的視頻、文本在任何場景下出現(xiàn)時,實際上都應當保留明確的聲明,否則誤導性非常強。
如何解決人工智能加速發(fā)展過程中的風險?
中科院自動化研究所人工智能倫理與治理研究中心主任 曾毅:對于未來人工智能相關的使用、服務,它的教育需要有一個專門的環(huán)節(jié),對可能的人工智能的倫理產(chǎn)生的挑戰(zhàn)也應當融入教育環(huán)節(jié)當中。對于倫理的教育,我覺得是一個不可或缺的環(huán)節(jié)。技術可能的風險是什么,如何避免濫用和惡用,應該納入到職業(yè)以及教育過程當中去。
當“眼見未必為實”時,我們能做些什么?
中科院自動化研究所人工智能倫理與治理研究中心主任 曾毅:現(xiàn)在實際上要提升的是關于類似于人工智能這樣的技術在進入社會時我們的愿景問題。我們作為人工智能技術的研發(fā)者、使用者和部署者,以及用戶、政府、技術提供方都有不同的責任。對于公眾來講,信息是不是相關的、真實的,自己要有一定的鑒別能力,要提升對技術的認知和倫理的意識。另一方面,在人工智能的服務和應用上,各個相關方都有自己的責任。如果每一方都盡到了自己的責任,實際上人工智能濫用和誤用的可能性是可以被大大降低的。
怎樣把握治理人工智能的度?
中科院自動化研究所人工智能倫理與治理研究中心主任 曾毅:在進行人工智能應用的時候,我們關注它的倫理問題、治理問題,目的并不是阻礙人工智能技術發(fā)展,恰恰是保障人工智能穩(wěn)健健康發(fā)展。如果在人工智能研發(fā)和應用的時候沒有進行倫理審查及治理,人工智能這項技術是很有可能野蠻生長的。所以在這種情況下,我們應當在發(fā)展的同時倫理先行,建立相對完善的治理體系,保障人工智能技術的研發(fā)使用能夠穩(wěn)健。
關鍵詞:
責任編輯:Rex_29