
在算法安全上,《導則》指出了3種風險,包括算法模型存在的技術(shù)性缺陷可能導致人工智能系統(tǒng)無法正常運行,算法設計者自身存在價值偏見導致人工智能系統(tǒng)無法正常運行,以及因為算法日趨“黑箱化”可能導致技術(shù)失控等問題?!秾t》提出,應通過政策和法律引導,開展人工智能算法安全的評估檢測;推動技術(shù)倫理的算法導入,要求人工智能開發(fā)者設計高可解釋性的智能系統(tǒng);同時,加強智能算法的透明監(jiān)督,人工智能企業(yè)、行業(yè)應建立相應的算法監(jiān)管體制,保持與政府監(jiān)管的協(xié)同。
數(shù)據(jù)安全則涉及數(shù)據(jù)隱私、數(shù)據(jù)保護和數(shù)據(jù)質(zhì)量三方面,《導則》強調(diào),要加強數(shù)據(jù)安全立法和執(zhí)法,對采集和使用敏感個人數(shù)據(jù)的人工智能企業(yè)/行業(yè)須加強法律和行政監(jiān)管;豐富人工智能技術(shù)發(fā)展路徑,通過政策手段支持基于小數(shù)據(jù)的人工智能算法技術(shù);并提升人工智能數(shù)據(jù)資源管理水平,促進公共部門和私營部門數(shù)據(jù)資源共享和流通。
對利用人工智能進行創(chuàng)作而產(chǎn)生的知識產(chǎn)權(quán)問題,《導則》提出,將加強人工智能算法的專利保護,鼓勵人工智能數(shù)據(jù)開放性保護,并促進人工智能作品的知識產(chǎn)權(quán)化。對因人工智能的應用導致社會結(jié)構(gòu)性失業(yè)等問題,《導則》從法律層面提出了應對策略,包括出臺法律法規(guī),對面臨人工智能技術(shù)替代的行業(yè)和職業(yè)進行監(jiān)管和救助;加快人工智能新興勞動力培養(yǎng);加強人工智能時代社會收入分配調(diào)整,對遭遇人工智能沖擊的傳統(tǒng)行業(yè)勞動力進行保護和救助,提高社會二次分配的合理性與精準性。
人工智能的法律主體模糊、人工智能責任的界定復雜,是困擾法律法規(guī)介入人工智能進行有效監(jiān)管的難題?!秾t》明確,在當前的弱人工智能時代,人工智能產(chǎn)品本身不具有獨立的法律主體資格,人工智能產(chǎn)品的定位是“工具”,人工智能設計者、生產(chǎn)者、運營者、使用者承擔法律主體責任,并按照過錯程度分擔相應法律責任。