語音識別、文字識別、視頻識別...在數字經濟時代,人工智能技術已經接近你我,被視為新的經濟增長引擎、新的國際競爭陣地和促進智能社會建設的有效工具。加快人工智能+產業(yè)融合,賦予更多行業(yè)應用落地力,成為社會各界的共同期望。
但是,最近在由中國人工智能學會主辦的2020中國人工智能產業(yè)年會上,最新發(fā)表的報告顯示,現在成熟應用的人工智能技術只有語音識別,機械學習、計算機視覺、自然語言處理、知識圖像、智能機器人等技術成熟需要數年時間,無人駕駛汽車在今后10年內不太可能出現。
人工智能從實驗室走向大規(guī)模商業(yè)需要多長時間?還有哪些堵塞和痛點?在許多行業(yè)專家看來,只有正視人工智能存在的諸多挑戰(zhàn),對技術賦權抱有理性期望,才能回歸技術本質,成為更多產業(yè)變革創(chuàng)新的動力源泉。
由于算法不透明而無法解釋。
谷歌人工智能系統(tǒng)AlphaGo在2016年擊敗了世界圍棋冠軍李世石,讓世界震驚不已。電腦依靠人工智能深度學習理論的突破,可以模仿人類做出決定,但是,這只是基于大量的數據學習,而不是因果或規(guī)則推理,整個決定過程仍然是一個黑箱,人類很難理解,導致追究責任。
以復旦大學計算機科技學院院長姜育剛為例,此前,美國IBM公司開發(fā)了人工智能系統(tǒng)沃森,以幫助醫(yī)生做出診斷和治療決策。但是,很多醫(yī)生很快發(fā)現,在使用沃森的時候,系統(tǒng)會給出很多不安全、不正確的治療意見,甚至在極端的診斷案例中,沃森也會給有出血癥狀的癌癥患者開出容易引起出血的藥物,嚴重會導致病人死亡。但是,醫(yī)生們并不知道為什么沃森會給出這樣的看法。不可解釋的決策步驟,帶來許多不確定性。
近年來,人工智能在新藥物研發(fā)中的應用備受期待。然而,算法的不可解釋性在前面。相關研發(fā)和監(jiān)管部門需要清楚地了解藥物開發(fā)中使用的算法,從而理解人工智能決策背后的邏輯。如果監(jiān)管不透明,人工智能將是一個不能進行嚴格科學評價和驗證的黑匣子。這可能會導致藥物審批過程中出現各種意想不到的問題,比如對人工智能發(fā)現的生物標志的接受度不明。另外,對于智能政務、無人駕駛等安全要求極高的行業(yè),人工智能的引入自然更加謹慎。
深度學習的算法和核心模型需要能夠真正展開,讓公眾了解其機理模型。人工智能面向具有不同知識背景的用戶,應該能夠以簡單、清晰的方式,對決策過程的依據和原因進行說明,并能夠追溯和審計系統(tǒng)決策過程中關鍵節(jié)點的數據,這是未來人工智能應用大規(guī)模落地時需要特別關注的特征,也是實施監(jiān)管的必要條件。
容易受騙引起安全質疑。
作為人工智能技術的熱門選手,深度學習可以通過訓練大量已知樣品來制作自己的樣品,這是深度學習的特點和痛點。
人工智能目前面向產業(yè)化,面臨的巨大挑戰(zhàn)是真實環(huán)境的開放邊界和規(guī)則模糊,數據的噪音非常大,使得智能模型的一些結果和使用難以信賴。
目前人工智能的智能判斷模式存在缺陷,很容易被樣本對抗所欺騙。例如圖像識別,在圖像中加入一些很少的干擾,人為視覺看起來基本上沒有什么不同,但是人工智能模型會產生識別錯誤;再比如自動駕駛,一個限速80碼的交通標志,在加入一些干擾之后,可能會被機器識別為禁止通行。很明顯,有很大的安全隱患。
語音識別領域也有這樣的問題。如果技術人員在語音上隨意添加非常小的干擾,語音識別系統(tǒng)可能會識別錯誤。同樣,在文本識別領域,更改字母可以使文本內容被錯誤分類。
另外,如果深度學習的數據集中有隱藏的偏見,人工智能系統(tǒng)就找不到,也不會否認。缺乏反饋機制的全收最終可能導致結果不客觀。
比如行業(yè)內已經出現的人工智能,經過深入的學習,對女性、少數民族、非主流文化群體產生了歧視:亞馬遜通過人工智能篩選簡歷,發(fā)現系統(tǒng)對女性有偏見,導致最終關閉。更常見的是,手機軟件使用人工智能算法導致的大數據被殺死。比如根據手機類型的不同,可能會推薦不同類型的產品,甚至出租車時推薦不同價格和檔次的車輛。
當前,AI+金融的發(fā)展正在全面展開。但是,當所有的金融機構都采用人工智能進行決策時,其市場信號解讀可能會趨同并不斷加強,從而形成偏離正常市場規(guī)律的結果。而且這種異常的市場變化也將成為人工智能學習的基礎,使人工智能的決策邏輯更加畸化,容易造成不良后果。
上述問題,影響了人工智能賦能實體經濟的安全,突出了行業(yè)對技術可信度的呼喚。從人工智能到可信賴人工智能,意味著我們需要在技術層面解決這些核心技術挑戰(zhàn),如魯棒性(穩(wěn)定性)、可解釋性和可復制性。與此同時,為了大規(guī)模的工業(yè)應用,我們必須考慮人工智能的公平性和責任。這些維度是人工智能必須解決的問題。周伯文說。
法律法規(guī)和倫理問題有待完善。
現在的智能算法仍然存在著決策不符合倫理道德要求的問題。姜育剛指出,在應用中已經發(fā)現,智能算法的決策并沒有從改善人類生活、服務人類社會的角度出發(fā)。例如,智能音響在對話中出現了勸導主人自殺的內容,聊天機器人學會了罵臟話和種族歧視等等。而且這些不友好的決策都是模型從數據中學到的,并非研發(fā)人員設置人工智能模型的目標。
與此同時,人工智能算法需要大量的數據驅動,訓練數據可以通過算法恢復,個人隱私有泄露和侵犯的危險,而且大量的數據也存在共享障礙。這個問題在人工智能賦能金融的過程中尤其引人注目。最近幾年來,金融隱私泄露事件以約35%的速度增長。此外,近幾年來,人工智能技術在金融行業(yè)得到了廣泛的應用,銀行數據、保險數據、網貸業(yè)務和大數據等個人信息保護問題日益突出。
人工智能技術在2020年抗擊新冠肺炎肺炎疫情期間,在我國反應迅速,介入力度大,有助于推出CT影像輔助診斷系統(tǒng),提高醫(yī)生診斷的速度和信心。但是,醫(yī)學影像智能診斷的發(fā)展也面臨著法律規(guī)制的問題。相對于其它人工智能賦能行業(yè)的大數據,獲得高質量的醫(yī)學影像數據相對困難。各醫(yī)療機構的數據,目前還很少相互交流,共享。而且單一醫(yī)療機構積累的數據往往不足以培養(yǎng)出有效的深度學習模式。另外,利用醫(yī)學影像數據進行人工智能算法培訓,也涉及到非技術問題,如保護患者隱私。
另外,近幾年來,隨著人工智能技術的深入探索,科學界提出研發(fā)人工生命,成為另一個倫理話題。生命不僅僅是智慧,更是意識。在倫理上,生命是人類的底線,接觸底線要謹慎。因此,我們可以通過計算機技術繼續(xù)開發(fā)無意識、有智慧的高級機器。使人的智慧在體外延伸,保持其工具性,而非人工創(chuàng)造意識。
成都融和實業(yè)排隊叫號系統(tǒng)廠家()是一家集研發(fā)、生產、營銷、服務于一體的高新技術企業(yè).主營智能排隊叫號系統(tǒng)、醫(yī)院分診系統(tǒng)、排隊機、叫號機、評價器(好差評系統(tǒng))、呼叫器、多媒體查詢及信息發(fā)布配套系統(tǒng)等,公司產品已廣泛應用于不動產登記、智慧醫(yī)療、智慧稅務、智慧政務、智慧金融、智慧通訊、智慧服務大廳、智慧機關單位等服務窗口行業(yè).咨詢電話:028-87438905。