返回列表
產業智能化的大江大河,需要AI安全守護
2020.04.20
 
 

當前,諸如圖像識別、語音識別、自然語言翻譯等AI技術已經在移動互聯網、新型產業甚至眾多傳統產業領域得到普遍部署和廣泛應用。以機器學習、深度學習為核心的第二次人工智能的加速成熟,終于迎來了人工智能技術的高光時刻。

 

無論是國家、科研機構,還是科技企業和各個產業,也都在以滿懷憧憬的熱情來推動著AI從科研學術成果走向產業落地。

 

AI技術的普及速度確實遠超歷次新技術革命帶來的產業速度,其應用的規模和深度也正在像電力、石油、互聯網一樣,被看作新的生產生活的基礎設施。

 

 

 

在備受AI技術廣闊前景的鼓舞之時,人們也開始意識到AI技術本身也是一把雙刃劍。

 

AI既能推動生產效率的提升和產業的數字化智能化水平的提升,同時又能帶來全新的技術風險和隱私倫理問題,成為新型詐騙犯罪、黑產牟利的趁手工具。

 

更重要的是,AI技術本身也存在一大隱憂。當前主流的深度神經網絡等技術具有的“黑箱屬性”,導致AI算法存在不可解釋性。這也就意味著AI技術在算法安全性上存在著不確定因素,可能會在產業應用落地中出現各種安全隱患和風險。

 

正如隨著計算機技術和互聯網的誕生,計算機病毒、網絡攻擊等危害網絡安全的技術便如影隨形,AI技術的出現和發展也將始終伴隨著AI安全的種種問題相伴而行。

 

AI技術帶給產業的革命性變革的規模、價值越大,那么,其安全問題所導致的嚴重后果的影響也就越大。

 

當身處數字化轉型升級的各個產業正在享受這一波新的智能化技術紅利的時候,AI安全問題,就如同網絡安全、信息安全一樣,被提上產業數字化建設的日程表了。

 

 

“看不到”的AI安全風險

 

提及AI安全問題,很多人第一反應可能是,通過AI技術進行人臉造假、AI仿聲、AI仿寫假新聞、圖像及視頻造假等帶來的欺詐、隱私安全問題。

 

確實,當人們驚嘆于AI技術幾乎快要無所不能的時候,也能很直觀地意識到AI造假帶來的這類安全問題。畢竟AI造假既有輿論話題,又與大眾息息相關。

 

但是對于AI技術本身所蘊藏的算法安全風險,大眾則可能沒有非常直觀的理解。

 

 

 

而這一AI安全風險,則是因為這些算法被當做“成熟”技術,廣泛應用在產業的各個生產場景當中,因而造成更為隱蔽但同樣后果非常嚴重的次生安全問題。

 

首先,AI算法本身存在安全漏洞。因為各類機器學習的高度復雜,帶來的“黑箱問題”使得算法不可解釋。這就如同我們乘坐在一架不知道由什么原理制造的發動機驅動的飛船上,看似效果還不錯,但是一旦出現問題,發明者也只能從“發動機”外部進行各種“嘗試性”修正。

 

其次,算法的“黑箱問題”會引發各類AI系統安全風險,比如惡意機器學習的產生。攻擊者可以利用AI技術漏洞進行“對抗樣本攻擊”和“數據污染攻擊”等種種手段,使得AI系統出現判斷失準等問題。

 

最后,當這些AI系統應用于某些安全性要求極高的領域,比如安防監控、工業質檢、自動駕駛、金融風控以及醫療診斷上面,一旦AI出現判斷偏差,將會帶來直接的經濟財產損失,甚至是人身安全與健康風險等嚴重后果。

 

原本要應用于提升生產效率和安全性的AI技術,卻有可能走向自身的反面。AI算法安全問題必須引起這些積極投入智能化的產業決策者的重視,同樣這一問題也需要得到來自AI技術研究者的積極回應。

 

 

建造AI算法安全的長城

 

在2018年,信通院發布的《人工智能安全白皮書》就將“算法安全風險”列為AI領域的六大安全風險之一,指出AI算法當中存在的五種風險:算法黑箱、算法設計缺陷、數據依賴、對抗樣本攻擊、算法歧視。

 

針對這些算法安全風險,提供AI算法的安全評估檢測成為未來的AI安全的重要發展方向。

 

當前,AI算法模型,由于算法黑箱和算法漏洞的存在,面對攻擊者惡意攻擊難以被檢測。因此,建立可解釋、可溯源、魯棒性強的AI模型成為AI應用落地的根本任務。

 

而對抗樣本攻擊又是造成當前AI安全風險中的主要手段 。攻擊者可以在判斷階段對樣本加入少量噪音,誘導算法識別出現誤判,影響判斷結果。提升對抗樣本攻擊的防御手段,提供算法漏洞檢測技術,也成為AI安全的當務之急。

 

 

 

隨著產業智能化落地的加速,AI算法安全已經成為一個產業現實的需求。當前,像谷歌、IBM以及國內的一些AI開發的公司和團隊,也早已展開了相關AI安全的研究和應用。

 

 

為AI產業落地保駕護航

 

正如技術發展呈現的“矛與盾”的復雜關系,AI安全也同樣呈現出一種持續攻防的過程。新的攻擊手段出來,也必然要求有新的防御方法去應對。

 

隨著AI技術不斷地成熟,以及在工業、金融、安防、交通、醫療教育等領域的實際應用,這場AI安全的攻防賽就會以一種更加復雜和多變的競對狀態呈現出來。

 

目前,大量的AI安全風險已經出現,而且很多以常人難以直觀理解的方式出現在AI的應用場景當中。

 

 

 

比如,在人臉檢測和識別場景,攻擊者只要對面部的某些部位做出一點修改(比如佩帶帶有對抗樣本圖案的眼鏡),就可以成功逃脫AI系統的識別,從而實現“偽裝”和“隱身”。而目前人臉比對識別被廣泛應用在于身份認證、手機解鎖、金融遠程開戶、酒店入住登記等等場景,一旦人臉比對識別被惡意攻破,將會對個人信息安全、財產造成難以估計的損失。

 

自動駕駛領域,如果在交通指示牌或其他車輛上貼上或涂上一些小標記,也可能導致自動駕駛車輛產生錯誤判斷,可能會導致嚴重的交通事故。

 

而對于安防領域,攻擊者對于人臉識別系統的對抗攻擊,也會產生相應的監控漏洞和失誤,從而帶來相應的安全風險。

 

比如,國內第一家專門進行AI安全產品商業化的公司RealSafe在去年5月與清華大學人工智能研究院聯合推出一款名為“RealSafe”的對抗攻防工具箱,目前已經應用在工業、安防等多場景的安全檢測當中。其中最新落地的一個案例,可以很好地說明AI安全風險檢測的重要作用。

 

某電網的輸電塔的監控系統,由于輸電塔的高安全性防護要求,防止吊車、塔吊、煙火破壞輸電線路,需要對輸電塔內外進行全天候的實時監控。而這一實時監控系統已經交由某一目標檢測的AI算法來提供保障。

 

RealSafe發現只要對其AI算法進行一定的對抗樣本攻擊,就會造成監控算法的失效,從而無法識別非常明顯的煙火情形。為此,RealSafe提供了完整的AI算法檢測和AI安全防火墻的搭建,從而最大限度地保證了監控系統的有效性。

 

像這些隱蔽的AI安全風險,普通人可能難以理解,但正是這些風險漏洞,成為那些技術黑客、黑產們每天都在潛心研究的薄弱環節。更不要說,直接利用AI技術的強大造假能力和低成本復制能力,展開諸如人臉造假、語音克隆、筆跡/郵件偽造等引發的詐騙活動。

 

而這些AI算法漏洞產生的安全風險和AI算法濫用帶來的欺詐風險,成為AI安全產品商業化平臺需要持續努力要攻克的安全難題。

 

 

 

如果將產業智能化升級看作一條蓄勢向前的河流,那么,AI算法的豐富拓展了產業智能化場景的廣度,其成熟和升級決定了產業智能化的深度,而AI算法的安全可靠,則決定了產業智能化的長度。

 

如果在AI的產業場景應用中,一旦存在著致命的安全風險或者其他法律、道德風險,那么將直接造成某一項AI技術停滯或者AI在產業規?;瘧玫难舆t。

 

AI安全的重要性再無須贅述了,而加強AI算法安全意識,提升產業應用場景下的AI算法安全防護能力,則已經是當下非常重要而緊迫的要求了。

 

這些僅僅是AI安全市場先行者走出的一小步。而這場無止境的AI安全較量中,也必將在未來各個產業智能化的大江大河中,成長為一塊豐沃之地。

 

來源:授權轉自腦極體(unity007)

好男人影视www_韩国日本免费不卡在线动漫_国产口爆吞精在线视频2020版