新品互換用パソコン バッテリー、ACアダプタ、ご安心購入!
ノートpcバッテリーの専門店



人気の検索: ADP-18TB | TPC-BA50| FR463

容量 電圧 製品一覧

スペシャル

AI一人歩きに高まるリスク。不可欠なガバナンスはどう作るべきか

前回は欧州委員会が発表したAI(人工知能)の包括的規制案などリスクベースでAIガバナンスを考える動きを紹介しました。国内でもAI活用における企業のリスクについて問題意識が高まっているものの、AIに関するコンプライアンス・プログラムや倫理ガイダンスまで設けている企業や組織は多くありません。今回はAIガバナンスのロードマップである6つのフェーズを紹介します。

グローバルのエグゼクティブを対象にしたアクセンチュアの調査によると、63%はAIの倫理的ガバナンスの必要性を認識しているが、ガバナンスの枠組みを具体的にどのように構築すればよいのかについて確信がないと回答しています。

この傾向は日本ではさらに顕著だといえます。必要性は徐々に認知されつつありますが、その方法となると手探り状態であることがほとんどです。

アクセンチュアではAIガバナンスのロードマップとして次の6つのフェーズを定義しています。

各フェーズのポイント

●フェーズ1:倫理委員会
最初にAIの専門家だけでなく、法律やコンプライアンス、倫理などの専門家、社外有識者など多くのステークホルダーを巻き込む必要があります。欧州委員会の研究・イノベーション担当委員であったモイラ・ゲーガン・クイン氏は「研究とイノベーションのプロセスにできるだけ多くのステークホルダーを巻き込んでこそ、私たちが直面している課題に対する正解を見つけることができる」と述べ、研究とイノベーションは責任あるものでなければならないと説いています。

企業によってはAI倫理審査のために、新たな組織体を組成しなければならない場合もあるでしょうし、従前の品質管理・審査部門にAI倫理審査の機能を持たせるケースもあるでしょう。大事なことは形だけの組織を作って満足するのではなく、実行力を伴った体制を現在の組織体系の中にどのように組み込むのかを十分に思案することです。

●フェーズ2:経営トップのコミットメント
責任あるAIを実践していくためには、経営トップのコミットメントが非常に重要です。なぜならば、責任あるAIとはAIのリスクマネジメントでもあり、前述の通りこれは企業リスクのマネジメントでもあるからです。ブランド価値を維持向上させていくための全社戦略としてAIを位置づけ、推進していくためには、イノベーション活動とリスク管理の両輪を回していく必要があります。これには経営トップのコミットメントが何よりも現場の力になっていくのです。

●フェーズ3:トレーニング&コミュニケーション
AIやデータアナリティクスの研修を実施し、自社内でDX(デジタルトランスフォーメーション)人材を育成する動きが国内でも進んでいます。これからはAI開発プロセスの裏に潜むバイアスとそのリスクを正しく認識し、AIリスクを企業リスクととらえ、技術的観点のみならずビジネス的観点でもリスクの軽減やモニタリングができる人材が必要になってきます。

しかしこれらをすべて担える人材を育成するのは困難ですし現実的ではありません。肝心なのは誰にどのような役割を担ってもらうかを明らかにし、現在実施されているAI・データアナリティクス教育と整合させながら、責任あるAI実現に向けて追加で必要となるスキルや知識を洗い出し、自社の成熟度に合わせて研修メニューを設計していくことです。国内でもこういった取り組みに着手している企業も出始めています。

●フェーズ4:レッドチームと“消防隊員”
レッドチームとは、組織内にいながらも独立した立場で、AIプロジェクトに対し公平かつ批判的な視点でレビューや分析を実施する役割を担うチームです。一方、部門内でも普段からAIプロジェクトのリスクに目を配る人材も必要になります。AIプロジェクトを監視すると聞くと、AIの「取り締まり」という印象を持たれる方もいるかと思います。

しかし、AIによるイノベーション創出活動を阻害することなく、リスクを管理していくにあたっては「取り締まり」ではなく「消防」の方がよいと考えられます。消防隊員は普段の訓練から消防の知識やスキルを身に着け、火事の危険について皆に周知させるとともに、いざ火事の兆候があるときには、現場に駆け付け状況把握と場合によっては初期消火を行い、被害を最小限に食い止めます。AIのリスク管理においても、まさに「AIの火事」を早期に検知し、初期消火を行うことが重要です。

●フェーズ5:ポジティブな影響をもたらす倫理指標
ESG(環境・社会・企業統治)指標が重視されていることからも分かる通り、今後は企業や組織が提供するAIが社会に対してどのような倫理的な影響力があるのか、消費者が関心をもつ社会課題に対してどのような影響があるのかについてより深く考えていく必要があります。倫理的な姿勢が組織文化として根付いている企業や組織のブランドは、消費者からの信用と信頼を勝ち得ることにつながり、AIの倫理指標をブランドに反映させるためには企業文化の中で「倫理」が最優先である必要があります。

一方、倫理面への取り組みに対する評価が自社・自組織に対して甘く、自分自身に対して過大評価していないかという点にも注意を払うべきです。倫理指標として明確な基準を用意し、それをもとに公平かつ自己批判的に判断しなければなりません。

●フェーズ6:問題提起できる環境
責任あるAIの導入を成功させるには、リーダーシップと企業文化の醸成が不可欠です。ある欧州の大手金融サービス企業は、自社のモデル全体にアルゴリズムによる公正さを導入することを検討していました。経営層からの強い賛同と支援によりオープンで協力的な文化が生まれ、社内の幅広い分野のチームがアクセンチュアと協力してアルゴリズムの公平性について学び、探求し、懸念事項があれば自由に提起することができるようになりました。

知識やサポートが築かれることによって、偏見や公正さにまつわる不安や懸念が取り除かれ、オープンで協力的な文化が醸成されたといえます。このような企業文化があるかないかは責任あるAIの実現に向けて大きな差となります。そしてこの差が企業の収益性まで左右する日が訪れようとしているのです。

世界の「責任あるAI」や「AI倫理」をめぐる動向は目まぐるしく変化し、AIに求められる基準は流動的であるといえます。今後、企業の責任あるAIとしてスケールしていくためには、国内だけでなく世界の動向にも目を配りながら、自社のミッションステートメントとも整合する「自分たちにあったAIガバナンス」を策定する必要があります。そしてそのAIガバナンスを実際に実行可能にする戦術書、プレイブックが必要であり、このプレイブックを状況に合わせて柔軟に対応させていく機動力も求められています。

世界において大きな潮流となっている「責任あるAI」が日本企業においても優先的に検討すべき課題となっている状況と、それにどう対処していけばよいかについて3回にわたり解説してきました。

2022年はAIガバナンスについてより具体的な議論がなされるとともに、「責任あるAI」についての共通認識も広がり、成長のための必須要素としてますます認知される年になるでしょう。AIを適切に運用して人が正しい判断を下す一助となるよう、企業としてはもちろん、社会全体としても「責任あるAI」を実現していくことが急務となっているのです。AIが急速に浸透していく中で、AIがリスクとなるのではなく、世の中のあるべき姿の実現に向けた技術としてのAI活用が、今求められています。