人工知能(AI)経営を展開する上で、避けて通れないのが倫理上やコンプライアンスの問題だ。AIは企業経営に多くのメリットをもたらす反面、プライバシー侵害や事故の責任など、リスクが表面化した場合に大打撃を与える可能性がある。神奈川大学の寺嶋正尚教授は、現状はAIの技術革新のスピードが速すぎて法の整備や社会通念の形成が追いついていないと指摘する。その上で「企業トップは、AI経営に関するアカウンタビリティー(説明責任)を果たせるよう、社内の体制を整えておく必要がある」と説いている。
社会やステークホルダーの理解が必要に
GAFAはAIの活用方針を策定・公開している。富士通は2020年秋にAI倫理の外部委員会を設置した。客観的な意見や考え方を倫理方針に反映させていく狙いだ。
――AI開発企業がどのように顧客や社会に価値を提供するかの理念や目標を公表するケースが目立っています。
「GAFAのケースは、個人情報の取り扱いに関して国際的な批判を受けたという側面があります。それはさておき、現在のように大量のデータを使用しつつ、AIを利用する企業にとって、一般社会やステークホルダーの理解は欠かせません。ステ-クホルダーとは、直接・間接を問わず企業経営に関わる利害関係者です。株主や社員はもちろん、顧客、取引先、地域社会、行政機関もステークホルダーです」
――AI開発企業に加えて、システムの提供を受けているユーザー側も「AI経営の方針」を策定し、公表する必要はあるでしょうか
「例えばAIをコールセンター業務の効率化に役立てたり、製品の需要予測に活用したりする場合などは、何も社外の人たちにまで、自社のAI活用方針を知らしめる必要はないでしょう。しかし何か問題が起きた場合の為にも、『当社はAI活用方針を定めており、十分な監査体制のもとで運用している』と説明できるよう、あらかじめ準備はしておくべきです」