拜仁慕尼黑对弗赖堡>>資訊中心>>油氣專業子網
人工智能安全與法治導則發布
來源:中國化工報 發布時間:2019-9-11 9:55:35

  8月30日,2019世界人工智能安全高端對話和2019世界人工智能大會法治論壇聯合發布《人工智能安全與法治導則(2019)》,這是國內首個人工智能安全發展的導則?!兜莢頡訪魅?,2019年度的重點是算法安全、數據安全、知識產權、社會就業和法律責任五個方面。對人工智能發展的安全風險作出科學預判,提出人工智能安全與法治應對策略,守衛人工智能發展的“安全基因”。

 

  在算法安全上,《導則》指出了3種風險,包括算法模型存在的技術性缺陷可能導致人工智能系統無法正常運行,算法設計者自身存在價值偏見導致人工智能系統無法正常運行,以及因為算法日趨“黑箱化”可能導致技術失控等問題?!兜莢頡誹岢?,應通過政策和法律引導,開展人工智能算法安全的評估檢測;推動技術倫理的算法導入,要求人工智能開發者設計高可解釋性的智能系統;同時,加強智能算法的透明監督,人工智能企業、行業應建立相應的算法監管體制,保持與政府監管的協同。

 

  數據安全則涉及數據隱私、數據?;ず褪葜柿咳矯?,《導則》強調,要加強數據安全立法和執法,對采集和使用敏感個人數據的人工智能企業/行業須加強法律和行政監管;豐富人工智能技術發展路徑,通過政策手段支持基于小數據的人工智能算法技術;并提升人工智能數據資源管理水平,促進公共部門和私營部門數據資源共享和流通。

 

  對利用人工智能進行創作而產生的知識產權問題,《導則》提出,將加強人工智能算法的專利?;?,鼓勵人工智能數據開放性?;?,并促進人工智能作品的知識產權化。對因人工智能的應用導致社會結構性失業等問題,《導則》從法律層面提出了應對策略,包括出臺法律法規,對面臨人工智能技術替代的行業和職業進行監管和救助;加快人工智能新興勞動力培養;加強人工智能時代社會收入分配調整,對遭遇人工智能沖擊的傳統行業勞動力進行?;ず途戎?,提高社會二次分配的合理性與精準性。

 

  人工智能的法律主體模糊、人工智能責任的界定復雜,是困擾法律法規介入人工智能進行有效監管的難題?!兜莢頡訪魅?,在當前的弱人工智能時代,人工智能產品本身不具有獨立的法律主體資格,人工智能產品的定位是“工具”,人工智能設計者、生產者、運營者、使用者承擔法律主體責任,并按照過錯程度分擔相應法律責任。

    對不起,沒有相關記錄!