新華社北京4月3日電(記者唐詩凝、周圓)記者3日獲悉,工業(yè)和信息化部等十部門近日聯(lián)合印發(fā)《人工智能科技倫理審查與服務(wù)辦法(試行)》,提出支持人工智能科技倫理審查技術(shù)創(chuàng)新,強化以技術(shù)手段防范人工智能科技倫理風險。
辦法明確,開展人工智能科技倫理審查重點關(guān)注人類福祉、公平公正、可控可信等方面。包括訓練數(shù)據(jù)的選擇標準,算法、模型、系統(tǒng)的設(shè)計是否合理;是否采取措施防止偏見歧視、算法壓榨,保障資源分配、機會獲取、決策過程的客觀性與包容性;是否合理披露算法、模型、系統(tǒng)的用途、運行邏輯、交互方式說明、潛在風險等信息等。
辦法還提出,促進人工智能科技倫理審查高質(zhì)量數(shù)據(jù)集有序開源開放,加強通用性風險管理、評估審計工具研發(fā),探索基于應(yīng)用場景的科技倫理風險評估評測;推廣符合科技倫理的人工智能產(chǎn)品和服務(wù),保護科技倫理審查技術(shù)知識產(chǎn)權(quán)。