ホーム生成 AI

人任せにはできない、「倫理への取り組み」

CEOのための生成AI活用ガイド第8弾 ー 「責任あるAI」と倫理

生成AIは過去のどのテクノロジーとも異なっています。瞬く間にビジネスと社会を揺るがす存在になりつつあり、リーダーは想定や計画、戦略の見直しを即時的に迫られています。

こうした変化にCEOが対処するための一助として、IBM Institute for Business Valueは生成AIの調査に基づくガイドをシリーズ化し、12のテーマごとに公表しています。内容はデータ・セキュリティーからテクノロジー投資戦略、顧客体験にまで及びます。今回は第八弾として、『「責任あるAI」と倫理』をお届けします。

 

「責任あるAI」の本質は人間的価値です。

 

現代の企業は、生成AI を使えばこれまで想像もつかなかった新しいことができるかもしれないと考え、その発見へしのぎを削っています。一方、こうした中でCEOに求められることは、むしろ「AIで何をすべきか」という議論を主導することでしょう。

企業が提供する一つ一つのユースケースには、固有の倫理的なジレンマやコンプライアンス上の懸念が常につきまといます。例えば、機密データはどうすれば保護できるのか。また著作権を尊重しながら、AIを活用するにはどうすればいいのか。そしてAIの出力結果に偏見や差別、あるいは明らかな誤りがあるのではないか、など。

これらの疑問に答えるためには、チームが一丸となって取り組むことが必要なのはもちろんですが、その上でCEOが倫理的指針を明確に定め、組織にそれを示すことが大切です。最先端のイノベーション、これまで築き上げた誠実さと信頼という原則、この2つをどうバランスさせるべきか。その道筋を示すことがCEOに問われています。

そのためにCEOは、全社的に透明性や説明責任を実現する方針やプロセスを実行することが求められます。つまり、テクノロジーがどこでどのように使われているのか、データ・セットや基盤モデルの出所はどこなのかを明らかにする必要があるのです。こうした取り組みには、継続性が求められます。自社のAIポートフォリオを常に監視・評価し、方針やプロセスの進化に遅れることがないように確実に対応しなければなりません。

AI倫理を重視する組織文化の醸成も、リーダーである経営層に求められる課題です。経営層は、人間とそのウェルビーイングに加え、環境サステナビリティーを優先するように、AIの良い結果を最適化しつつも、すべての利害関係者のリスクや悪い影響をできるだけ少なくするよう努めるべきです。これらの実現はテクノロジーだけでは難しく、社会・技術(ソシオテクニカル)の両面からアプローチすることが必要となります。組織文化やワークフロー、フレームワークへ継続的に投資することが、広く展開するときの成功のカギとなるのです。

企業の行動が倫理的なのか、また消費者の価値観に沿っているのかを決めるのは、一般の人々です。したがって、公正さや適切さに対する評価の軸は主観です。しかし、コンプライアンス(法令順守)の評価は、そうではありません。

 

IBVが考える、すべてのリーダーが知っておくべき3つのこと:

 

そして、すべてのリーダーが今すぐ実行すべき3つのこと:

 

 

リーダーが知るべきこと1ー 「戦略+生成AI」

CEOは倫理の取り組みから逃げられません

 

今の生成AIを取り巻く環境は、まるで西部開拓時代のゴールドラッシュのようです。規則や規制を上回るスピードで金脈探しが行われ、少しでも早く始めた人ほど富を得るチャンスは大きくなります。

しかし、その代償もあります。AI倫理とデータの完全性に付き物の複雑性を考慮せずに突き進む企業ほど、短期的な利益と引き換えに評判を損なうリスクに直面する可能性があるのです。

こうした状況の中でも、経営層はどこにリスクがあるのかを理解しているようです。生成AIの導入には大きな倫理的リスクが伴うと答えた経営層の割合は58%でした。生成AIの管理は難しく、新たなガバナンス体制を構築するか、少なくともガバナンス体制を今以上に成熟させなければなりません。ところが倫理原則を実践に移すことに、多くの企業が苦労しています。組織全体でAIに取り組むことは重要であると答えた経営層は79%でしたが、AI倫理を共通原則として実践できている経営層は25%にも届いていません。

 

全社的にAIに取り組む上でAI倫理が重要だと答えた経営層は79%。一方、AI倫理の共通原則を実践できていると答えた経営層は25%にも届いていません

 

だからこそCEOがその指揮権を行使して、組織のために道を切り拓く必要があります。CEOがAI倫理を主導することが望ましいとする経営層の数は、取締役会や法務顧問、プライバシー責任者、リスク・コンプライアンス責任者などが望ましいとする経営層と比較して、約3倍にもなります。AI倫理に関する責任はテクノロジー・リーダーではなく、ビジネス・リーダーが負うべきであると回答した経営層は全体の80%にもなりました。

その責任の範囲は意思決定だけにとどまりません。CEOはまた、新たな倫理課題について他のリーダーを教育する責任も負っています。CEOは「信頼できるAI」に関する議論を、経営層や取締役会においても行うべきであり、彼らを蚊帳の外に置くべきではありません。CEOが積極的に動き、全員を巻き込むことで、その他のメンバーがリスクそのものや、リスクを管理するためのアクション・プランを理解できるようになります。そうすることで、リーダーたちの足並みが揃い、組織はより迅速に動けるようになるのです。

 

 

リーダーが実行すべきこと1ー 「戦略+生成AI」

倫理担当チームに対し、予算の付かない委任ではなく、正式な権限を与える形で仕事を任せます

 

意図していることと実際の行動とのギャップを埋めるためには、本気で取り組むことが大切です。倫理担当チームを強く支え、方針とモニタリングを徹底します。進捗状況は取締役会だけでなく、場合によっては外部の関係者にも報告します。
 

  • 社内に摩擦を起こしたとしても、CEOが主導します。最高AI倫理責任者など、全社的な取り組みを担うリーダーの設置を検討するほか、経営層の間で役割に応じた説明責任も明確にすることも考えるべきです。すべての事業部門や組織機能を横串にした、共通のAI倫理目標を立て、経営層の意思統一を図ります。リスクや情報セキュリティーの担当幹部など、責任を持つ人が意思決定プロセスに確実に参加するようにしなければなりません。
     
  • 「人間とテクノロジー」による、効果的なコラボレーションを実現します。Automation(自動化)とAugmentation(拡張)のバランスを取りながら、人間とテクノロジーの役割を調和させます。AIに関するデザイン・ガイドを策定し企業全体で採用、また、アルゴリズムに関する説明責任については独立した章立てにして、企業の倫理規定に盛り込みます。AIやデータに関する企業研修を行い、チェンジマネジメント(リーダーが率先して変革を成功に導くための管理手法)を推進します。AIを導入することで影響を受ける従業員には、尊厳と敬意をもって接します。
     
  • 「倫理的な相互運用性」を確立します。AI技術を得意とするテクノロジー企業や研究機関、スタートアップなどとパートナーシップを組み、イノベーションを推進するためのエコシステムを拡張します。企業アイデンティティーや組織文化を含めた自社の価値観を明確にして、すべてのパートナーと価値観を統一します。

 

 

リーダーが知るべきこと2ー 「信頼+生成AI」

自らの決定の一つ一つが顧客の厳しい目にさらされます。彼らとの信頼関係を損なう事態は避けなければなりません

 

企業が信頼を築くには数十年もかかりますが、信頼を失うには数日で十分です。データ漏えいがニュースを賑わし、企業への不信感が強まるこの時代、消費者や従業員、パートナー企業は、誠実さを欠いた企業に対して寛容ではありません。

消費者の過半数(57%)は、企業がどのように個人情報や企業情報を扱っているのかについて不安を感じていると回答しています。プライバシーを守る必要性から、購入先を別の企業に乗り換えた経験があると回答した消費者は37%でした。また消費者は「責任あるテクノロジーの使い方」に関して、小売りや保険、公益事業など従来型業界の多くに、最も低い評価を与えています。

パートナー企業や投資家、取締役会は企業の行動に厳しい目を注いでいますが、「責任あるAI」の取り組みについては支持する傾向にあります。取締役会から、生成AIの導入を「加速させるべきだ」とプレッシャーを受けていると感じるCEOの数は、「時間をかけて進めるべきだ」とプレッシャーをかけられているCEOの数の6倍以上にもなります。

働き手もまた、価値観を共有できる企業で働くことを強く望んでいます。被雇用者の69%は、「社会的責任を果たしている」と認められた企業から採用のオファーがあれば、優先して受けると答えています。また45%は、そうした企業で働けるなら給与が下がっても構わないと回答しています。

 

被雇用者の45%が、社会的責任を果たしている企業で働けるなら給与が下がっても構わないと考えています。

 

 

以上のことを総合してみると、データの取り扱いを強化している企業ほど、大きな価値を生み出していることが分かります。当社の2023 Chief Data Officer (CDO) Study」(邦訳:「データを価値創造の源泉に変える」)によると、こうしたデータの取り扱いに優れた企業のCDO(チーフ・デジタル・オフィサー)のうち、およそ10人に8人が、自社はデータ倫理や、組織の透明性および説明責任、サイバーセキュリティーの面で、他社より優れていると回答しています。

 

 

リーダーが実行すべきこと2ー 「信頼+生成AI」

顧客の期待に沿うことで信頼を獲得します

 

AI倫理とデータの完全性が組織における優先事項であることをトップダウンで周知します。一方、ボトムアップで信頼に基づく協調的な信頼の文化を築くことで、結束力を高めます。企業倫理を全員の責任とし、ガバナンスに組織全体で取り組みます。
 

  • 顧客が企業に期待する倫理とは何なのかを先んじて考え、行動します。顧客は毎日のように、生活のあらゆる場面で倫理的に不快な経験をしています。組織の倫理的価値を明確にすることで、顧客との信頼関係を築きます。その価値を、透明性を保ちつつ、広く顧客に伝え、それを何度も何度も繰り返し伝えることが重要です。
     

  • 最優先すべきなのは人です。従業員にリスキリングの機会を提供し、AIそのものや、その適切・不適切な使い方について理解を深めてもらいます。従業員とパートナー企業の社員を対象に、AI倫理とAIが生み出す偏見を特定するための研修プログラムを設け、「信頼できるAI」の重要性をあらためて強く訴えます。どのタイミングで専門家から助言を受けるべきかを明確に伝えます。自社のチームが組織の内外で倫理を司る“執事”として行動するよう促し、顧客の信頼を勝ち得ます。
     
  • 個人が主体的に責任を持つ心構えが必要です。各自が責任意識を持つべきであり、それはCEO個人だけでなく、経営層や他の従業員も同様です。ビジネス・リーダーとAIのリーダーにそれぞれ署名をしてもらい、個人としての名誉を賭する覚悟を求めます。その際は、CEOが率先して行うことは当然です。外部から調達を行う際は、テクノロジー倫理に重点を最優先とします。これらの決定内容は公表することが必要です。

 


リーダーが知るべきこと3ー 「コンプライアンス+生成AI」

当局によるAI規制の先行きが不透明な中、どう対応すべきかを決めかねている企業もあります

 

欧州連合(EU)は近々、AI規制法を成立させる予定です。また、中国では厳格な規制とガイドラインの策定が精力的に進められています。そうした中、世界中のビジネス・リーダーは、準備の必要性を感じているものの、具体的に何をすべきなのか分かっていないのが現状です。

自社はAI規制への準備が整っていると考えている経営層は、全世界で60%にも至っていません。また69%は、生成AIを導入すると、当局から何らかの罰金を課される恐れがあると考えています。こうした不確実性とリスクに直面し、CEOたちはAIの導入にブレーキを踏みつつあります。AIの基準や規制の内容が明確になるまで、大規模な投資を先送りすると回答した経営層は全体の半分を上回っています(56%)。また72%の組織が、倫理的な懸念を理由に、生成AIの活用はあきらめていると回答しています。 

 

72%の経営層が倫理的な懸念を理由に、生成AIの活用はあきらめていると回答しています。

 

このような規制の泥沼で身動きが取れない企業がある一方で、倫理的懸念へ積極的に取り組んでいる企業は、自信に満ちて前へ進んでいます。規制内容がどのように変わろうとも、優れたデータとAIのガバナンスは不可欠と認識しているからです。当初から責任と信頼のあるAIを導入しておけば、いずれはコンプライアンス追いついてくると考えています。実際に強力な倫理とガバナンス能力を備えた企業は、他社の一歩先を進む可能性が高く、経営層の4人に3人が、倫理が他社との差別化要因になると答えています。

たとえ規制の見通しが不透明であっても、倫理を優先させることにより、CEOは自信をもって行動できるようになり、本来の価値を損なうことなく、生成AIの早期メリットを享受できます。このことを分かっているからこそ、AI倫理への投資は増えているのではないでしょうか。AI倫理への投資は、2018年にはAI投資全体の3%でしたが、25年にはその割合が3倍にもなり、9%近くにまで伸びると予想されています。

 

リーダーが実行すべきこと3ー 「コンプライアンス+生成AI」

AIおよびデータ関連の投資には例外なく、規制に対する準備や対策を盛り込みます

 

新しい規制の対象は広範ですが、その内容はCEOが対応するのに十分明瞭でもあります。規制の詳細が確定した段階で、それまでの対応策を修正し、再調整することが可能です。規制がどうなるにせよ、「信頼できるAI」に焦点を当て、優れたガバナンスを実行することが鍵になります。
 

  • 最も重視すべきはコミュニケーションです。道理にかなった規制を自ら求めるべきです。そのためには、以下のことを明確にします。自らのユースケースが容易に説明できるようにすること。AIの創作物とその他の創作物を明確に区別できるようにすること。そして、AIのトレーニングが透明性を持って実施され、外部評価に対し開かれた体制を常に維持しておくことです。
     
  • すべてを記録し、管理を徹底する。リスクを管理するために、組織内でAIの利用と関連するガバナンスの状況を記録に残す組織文化を醸成します。AIを使用したインスタンスはすべてインベントリーを作成し、後から基盤モデルやデータ・セット、プロンプトなどのインプットに遡れるようにします。こうしたソース情報は、デジタル資産管理などのシステムに組み込みます。
     
  • 船が動いているときは、舵を取り続けます。規制の風向きが変わったり、新たな風が吹いたりしたら、対応できるように準備を怠らないようにします。

 

本ページに記載されているインサイトは、IBM Institute for Business Valueがオックスフォード・エコノミクス(Oxford Economics)社、およびMomentiveAI/SurveyMonkey社の協力を得て実施した独自調査(IBM IBV発行)に加え、Cisco社から得た外部データに基づいています。第1回調査は、生成AIとAI倫理をテーマに、米国企業の経営層200人を対象に2023年8月~9月に実施されました。第2回は、生成AIと人材の相互の関連性について、同300人を対象に23年5月に実施されました。第3回は、社会的責任と持続可能性について、10カ国・16,349人の消費者を対象に21年に実施されました。参照したIBM IBV発行の調査には「2023 CEO Study: Decision-making in the age of AI(邦訳:「AI時代の到来で変わるCEOの意思決定 」)」や「2023 CDO Study: Turning data into value, and AI ethics in action(邦訳:「データを価値創造の源泉に変える」)」(22年)が含まれます。


このレポートをブックマークする


発行日 2023年10月24日