每日經濟新聞 2021-02-01 18:45:00
◎人工智能技術,因為它的影響力巨大和迭代速度加快,所以業界現在越來越有共識,不能套用以前先發展后治理的思路,要邊發展邊治理
◎企業做AI治理,需要一手拿著“望遠鏡”,看到技術研究的過去與未來,另外一手拿著“顯微鏡”,將緊迫的問題放大。
每經記者 劉春山 每經編輯 文多
“人工智能算法下一些外賣騎手挑戰交通規則,‘助手’可能變‘殺手’”;“法院認定人工智能生成文章構成作品,擁有著作權”;“‘無人車’行駛背后的權責歸屬引關注”……剛剛過去的2020年中,隨著人工智能技術大范圍應用,引起的社會倫理爭議也在增多。AI造福人類的同時,外界也越來越關注人工智能該如何去治理?
就AI治理現存挑戰、人工智能治理中企業的責任等問題,《每日經濟新聞》記者近日與曠視首席發展官、AI治理研究院院長徐云程進行了深度的交流。以剛發布的“2020年度全球十大人工智能治理事件”為例,徐云程談道,雖然企業的AI治理并無成熟的模式可遵循,但AI企業擔負著推動AI產業可持續發展的重任,需要秉持長期主義精神,任重而道遠。企業做AI治理,需要一手拿著“望遠鏡”,看到技術研究的過去與未來,另外一手拿著“顯微鏡”,將緊迫的問題放大。
徐云程同時稱,技術治理的理念在以往是“讓子彈飛一會兒”模式,互聯網產業的發展就是先發展后治理。“但人工智能技術,因為它的影響力巨大和迭代速度加快,所以業界現在越來越有共識,不能套用以前先發展后治理的思路,要邊發展邊治理。”徐云程呼吁,當前對人工智能倫理的擔憂已經上升到倫理風險的高度,各界應該盡快采取行動。
徐云程 圖片來源:受訪者提供
NBD:目前,人工智能治理存在哪些挑戰?
徐云程:一方面,大眾對于人工智能的技術和產品效用存在嚴重的信息不對稱,如果此時又缺少充分的溝通,很容易產生負面認知,從而對人工智能產業的發展造成不利影響。
再則就是,人工智能的倫理問題落到企業語境下要成為可執行的企業治理行動,而這個過程是一個典型的交叉學科范疇。如何以多方參與的形式、運用綜合手段來推動企業的發展,對于企業來說是個巨大考驗。
三是我們發現許多新產生的問題目前還沒有得到人們的普遍重視,更缺少專門的深度研究。這造成了在AI治理的領域,問題遠遠多于答案。
NBD:怎么理解人工智能算法的黑箱特性?
徐云程:大家對于AI進行深度學習(這點上),算法黑箱是海內外共通的擔憂。在現在的技術水平下,深度學習算法有它自己的黑箱特性。這就要求我們在進行產品研發和設計時,考慮到深度學習算法的必要性、是否有替代技術。另外就是,我們要關注深度學習算法精確程度是否足以商業化,是否會有誤判的情形。
NBD:曠視的人工智能治理是如何推行的?
徐云程:AI治理這件事情在曠視先是自上而下推行,需要高層發起和推動。現在慢慢變成了自下而上——各層的員工開始有感知、有意識,正逐漸成為“大眾運動”。
對內,AI治理從研發學術、產品工程、客戶渠道和運營管理四個方面開展了務實的工作。在新產品產生的過程中,我們希望在產品早期規劃研發的時候,就要加入AI治理的介入,把AI倫理作為一個打分項,整體考慮要不要做這樣一個產品。在客戶管理溝通中,我們在每件軟、硬件產品中都放入了《正確使用人工智能產品倡議書》,倡導客戶和合作伙伴一起加入AI治理的行列。
NBD:你在AI治理研究院的研究方向是什么?
徐云程:人工智能最重要的是“數據”問題。數據隱私保護與數據安全,是需要全社會長期關注的事情,這不光涉及到科技倫理問題,也涉及到法律法規的制定,以及技術應用本身。這其中需要相關各方去界定隱私的含義和邊界、數據使用的規則和懲戒,以及如何形成對各種數據管理的多元共治。
再則需要思考,人工智能產業哪些場景下技術的產品化面臨紅線。這需要探索企業內部風險評估與管理的路徑,通過將目標、人員、規則、機制、技術進行有機融合,形成一套管控體系。
體驗AI寫詩。圖片來源:每經記者 張建 攝(資料圖)
NBD:企業以商業利益為主,進行AI治理必然增加成本?
徐云程:大眾對于倫理道德認知有一個循序漸進的過程。對于企業來說,一個負責任的企業、有中長期發展規劃的企業,才是一個穩健型的企業。企業的AI治理是個長效機制,我們看到很多兩年前不是問題的現象,在今天都成為了潛在的風險,或者成為一個合規成本。
所以,相較于回報,AI治理的投入就并不顯得大了。這并不是只要重金投入就能做好的事情,更多的是大家意識到這件事情的重要性,值得專心去做。我們很多研究課題是聯合外部一流的研究機構一起做的。專業的人做專業的事,企業也沒有必要去培養幾十人的研究團隊、天天做和業務沒有關系的課題了。
對于產業發展的治理,以前經常碰到這種思潮,即科技創新需要“讓子彈飛一會兒”,大家都希望在開始時給技術一段自由發展的時間,當問題累積到一定程度之后,再來研究解決的方法。所謂“先發展后治理”的模式就是這樣產生的,互聯網時代是這樣,其他技術的治理也是這樣。但隨著人工智能技術越來越強大,它的影響力更深更廣,迭代速度也更快,所以業界現在越來越有共識,不能套用以前治理的老方法,而是要“邊發展邊治理”。當然,這樣也引發了下一個問題,即在創新往前沖的過程中,怎樣才能做到對風險的預判?
NBD:近兩年,外界對人工智能治理的關注有什么變化?
徐云程:我們剛開始是通過海外媒體關注到人工智能治理這件事情的。在2019年,海外媒體和曠視做交流的時候,三句不離和AI倫理有關的事情,以及企業在做哪些治理工作。因此,初期我們更多是跟海外溝通并尋找一些全球可借鑒的經驗。
第二個階段是2019年中后期,我們看到國內社交媒體上越來越多的人開始關注AI技術是不是在向可持續的、負責任的方向發展。因此,我們意識到,這是個全球性話題,需要社會各界、國內外各方共同參與。
到2020年第三個階段,曠視開始在企業內部管理上做更多的反思和突破。隨之發現,在企業運營的流程中和人員培訓的過程中,AI治理對企業的健康發展可以帶來很多價值,也可以具有很多優勢。
NBD:在做人工智能治理時,你認為企業的態度應該是什么?
徐云程:技術的發展、商業的應用、規則的制定應該是相輔相成的,越多的交流越能讓產業健康發展;同時AI治理的每一步都要反映到日常工作中。雖然企業的AI治理并無成熟的模式可遵循,但我們正在秉持一貫的長期主義精神,用大膽向前、小心求證的方式探索一條適合自己的道路。
所以,企業做AI治理,需要一手拿著“望遠鏡”,一手拿著“顯微鏡”。“望遠鏡”是指幫助企業看到技術研究的過去與未來,國內外的差異,綜合思考問題、解決問題。“顯微鏡”是指將緊迫的問題放大,仔細研究,厘清其中緣由,并快速解決。企業只有充分發揮“望遠鏡”和“顯微鏡”的綜合作用,才能把握正確的發展方向,真正實現用人工智能造福大眾。
如需轉載請與《每日經濟新聞》報社聯系。
未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。
歡迎關注每日經濟新聞APP