BizGateリポート/経営

活用方針や監査体制、AIに欠かせぬ「説明責任」 AI経営のリスク管理 寺嶋正尚・神奈川大教授に聞く(3)

記事保存

日経BizGate会員の方のみご利用になれます。保存した記事はスマホやタブレットでもご覧いただけます。

 「『AIがそう判断したから』という理由では、ステークホルダーを納得させられません。NECは、人間が予測・推定の根拠が分かる『ホワイトボックス型のAI』を製品化しています。三菱UFJ銀行が、住宅ローンの事前審査に導入しています。顧客に対する審査結果のアカウンタビリティーを重視した結果でしょう。同行の行員が培ったノウハウとAIを組み合わせることで、審査にかかる時間は、従来の約1日から最短15分にまで短縮しました」

 「『ホワイトボックス型のAI』より分析精度が高い、ディープラーニングを用いた『ブラックボックス型のAI』でも、客観性や透明性を確保する取り組みが、グーグルや米IBMで進められています」

AI技術革新のスピードに法の整備追いつかず

 ――自動運転に関しては、実際に米国でウーバー・テクノロジーズやテスラが交通事故を起こしていま す。AIが不具合を起こしたとき、誰がどう責任を取るのか、ゆるがせにできない課題です。今後は医療分野でも、こうした問題が起きる可能性があります。

 「AI技術の進歩の速さに、法の整備が追いついていない典型的なケースです。自動車メーカー、AI開発企業、ナビゲーションシステムの作成企業……法的責任を問われる可能性のある当事者は少なくありません。一定地域で自動運転を許していたならば、行政も責任を問われます」

 「現状では、AI経営の法的リスクを軽減させるには、不測の事態に備えてケース・バイ・ケースの契約をしっかり締結しておくことに尽きます。データ収集時の個人情報取り扱いから、不正競争防止法による秘密保護、AI生成物の著作権、 知的財産権に至るまで、AI経営に関して配慮すべき法は多岐にわたります」

 ――AI経営の企業トップの果たすべき役割は何でしょうか。

 「ステークホルダーに対して、きちんとアカウンタビリティーを果たせるよう、社内態勢を整備することです。(1)責任の所在の明確化、(2)AIによる判断の正当な意味・理由の説明、(3)必要に応じた賠償・補償の措置――などができるようにします。また組織横断的なAI管理体制、情報を一元管理する担当役員の設置、監査体制の強化なども、トップが果たすべきといえるでしょう」

(聞き手は松本治人)

閲覧履歴

    クリッピングした記事

    会員登録後、気になる記事をクリッピングできます。