日立製作所は、人間中心の人工知能(AI)を開発・社会実装するために「AI倫理原則」を策定したと発表した。3つの「行動規準」に加え、安全性や公平性などの観点で定めた7つの「実践項目」を設けた。AIの開発や社会実装に内在する倫理的リスクを抑制する狙い。同社のデジタル技術サービス基盤「ルマーダ」などで同原則を活用していく。新たに設けた原則に基づき、計画…