星期六, 2 8 月

自駕車出事時…要究責用戶或系統?陸公布指引 要求相應倫理規範

大陸科技部官網23日公布《駕駛自動化技術研發倫理指引》,除指出應避免單一技術路線或單一技術主體造成的技術壟斷,也針對不同類型駕駛自動化技術提出相應的倫理規範要求,以及責任主體應該是用戶還是自動駕駛系統。

該指引表示,駕駛自動化技術的研究開發和應用必須充分考慮安全性,既要盡最大可能保證用戶及參與者的生命安全,還應高度重視保護車輛周圍人員生命與環境安全。在面對不可避免的交通事故或極端行車環境時,應確保駕駛自動化系統能高度尊重生命,積極尋求有效應對方法最大限度降低對人的傷害。

該指引也提到,與駕駛自動化技術相關的演算法、模型等內容應當被清晰記錄、隨時可查。依照相關法律法規、國家標準及其他有關文件在數據記錄、存儲、讀取以及重要數據保護等方面的要求,保證與駕駛自動化功能相關的重要數據得到安全記錄、妥善保存,保障利益相關方的知情權。

另外,在控制風險方面,駕駛自動化技術的研究開發應設計完善的風險監測與應急機制,確保相關責任主體能夠及時發現、干預並控制風險,將潛在威脅降至合理可控的範圍內。該指引強調,駕駛自動化系統內置的風險應對策略應當成為事後追責的重要參考依據。

值得注意的是,指引並對不同類型駕駛自動化技術明確了相應的倫理規範要求。據整理,「先進駕駛輔助階段」是指2級及以下的駕駛自動化,這一階段由人類駕駛員與駕駛自動化系統共同完成行車過程中對目標和事件的探測與響應,其責任主體通常是人類駕駛員。

「有限制階段的自動駕駛」包括3級和4級駕駛自動化,自動駕駛系統需具備識別動態駕駛任務後援用戶的接管能力,並在特定條件下即時向動態駕駛任務後援用戶發出介入請求,或在設計運行範圍內自動執行最小風險策略以保障車輛及周圍環境的安全。基於此,責任主體因具體運行場景而異。

「無限制階段的自動駕駛」為5級的駕駛自動化,除非特殊情況下有用戶主動介入操作,否則,無限制階段自動駕駛的責任主體以自動駕駛系統為主。當自動駕駛系統作為責任主體時,應當能夠根據有關法律法規等向相關自然人主體或法人主體清晰追責。

大陸科技部官網23日公布《駕駛自動化技術研發倫理指引》。圖/取自新華社
大陸科技部官網23日公布《駕駛自動化技術研發倫理指引》。圖/取自新華社

發表回復

您的郵箱地址不會被公開。 必填項已用 * 標註