現在,人工智能的飛速發展貫穿著整個科技圈。無處不見的人工智能產品多到數不完,例如:無人駕駛、智能音箱、智能工業、智慧交通、AlphaGo等等。我們在享受高科技為我們帶來樂趣的同時,也感受到了科技腳步的快速邁前。它無形,然而它又在生活之中不在。
國內科技巨頭的帶領下,一批新興的聚焦于人工智能垂直領域的初創企業正在蓬勃發展,與此同時,人工智能帶來的安全隱患與道德爭議,也讓各界對AI治理更加重視。新興技術的商業化之路,需要建立在人為道德的制約之下,要時刻保持警醒,不能逾越。近來,AI換臉技術應用于明星影視劇中引起熱議,人臉識別技術已經得到普遍應用,諸如上班打卡、刷臉購物、支付、手機解鎖、抓交通違章等場景,擁有大量的用戶群體。假如有人利用AI 換臉技術在這些領域弄虛作假,人臉識別又無法辨識真偽的話,那么個人隱私信息、財產等都會被盜,后果難以想象。
隱私問題是數據資源開發利用中的主要威脅之一,智能系統掌握了個人的大量信息,這些數據如果使用得當,可以提升人類的生活質量,但如果出于商業目的非法使用某些私人信息,就會造成數據泄露、隱私侵犯。去年,科技部公布了6張行政罰單,其中涉及基因隱私問題,公眾對于基因隱私的擔憂愈加嚴重。雖然國內正在推進電子病歷等醫療大數據的科研應用,但仍存在數據使用的安全規范和法律保障不夠等問題。
人工智能發展帶來的安全隱患與道德爭議,包括數據泄露、算法偏見、AI技術被濫用、安全隱患、法規不完善等問題。例如AI技術被濫用引發安全威脅。智能化網絡攻擊軟件具備一定的自我學習能力,可模仿系統中的用戶行為,并不斷改變方法,以實現長時間停留在計算機系統中的目的,黑客則可以通過人工智能發起網絡攻擊,引發安全威脅。例如不法分子利用人工智能電視的各種安全隱患進行:遠程控制電視,遠程安裝惡意軟件,遠程監控家庭等,造成用戶隱私泄露或財產損失。
目前的人工智能系統目前還不夠成熟,技術缺陷導致工作異常,可能出現安全隱患。近年來已有多起安全事故發生,Waymo無人駕駛汽車事故、Uber無人駕駛汽車撞死了行人、特斯拉車禍等讓大家對無人駕駛的安全性打上了問號。AI醫療領域,在圖像診斷等領域以實用化為目標的開發正不斷推進。如果配備疾病識別AI的醫療設備投入使用,有望通過AI分析大量的醫療圖像,從而更易發現
病變部位。
人工智能的影響普及全球,然而目前還沒有任何實質的政策或措施去制定能使人工智能的潛力最大化并管理其風險的治理機制。這并不是因為政府認為人工智能的治理不重要,政府和企業在實際應用中所收集的數據如若被不當地處理或操縱,則會引發比以往數據隱私丑聞更大的風險,以及政府和企業尚未內化的聲譽風險。因此,要防止大數據和人工智能的濫用和失控,應該從意識形態開始建立科學的數據價值觀體系。
除了從技術安全角度研究確保AI安全的可行技術方法和手段外,還需要從倫理層面為AI安全提供引導和約束,以確保“AI向善”。倫理規范需要在公司、行業、國家層面就人工智能倫理原則和框架達成共識并落實到人工智能研發應用中,因為在技術加速、法律滯后的趨勢下,需要更多依靠倫理規則來發揮事前的引導和規范作用,來確保AI向善。同時,社會也亟待法律規范的制定,從具體的行業出發對自動駕駛、無人機、醫療診斷、機器人等具體的人工智能應用進行監管,以實現鼓勵創新與保障安全的平衡。國際標準、規則的制定可以確保人工智能的研發應用符合倫理、國際法等共同性要求。
未來的人工智能的發展已經有跡可循,有約可守。在一個開放的生態系統之下,把科技、大局觀、機構和學術統一起來,堅持一個整體原則,共同創建維護穩定的發展秩序,建立積極向上的生態體系。科技是第一生產力,科技為我們美好的生活添色繪彩,我們再享受科技帶來的便利的同時,讓我們時刻保持負責的態度去迎接未來美好的生活。