ストラクチャーありきの組織は社会に害を与える可能性がある
―― ある意味「詰んでいる」ようにも見える状況ではありますが、そんななか、今回小林さんが翻訳された『AIの倫理リスクをどうとらえるのか』における考え方が、特にサービス事業者にとって重要になってくると言えます。
小林 本書では、倫理をストラクチャーとコンテンツに整理して、サービスを提供する側に本質的な対応をすることを求めています。CLIP STUDIO PAINTの例でもわかるように、現状はサービス事業者とユーザーとの間で共通理解ができていません。
本書で私が良いなと思ったのが、倫理を考え方で終わらせるのではなく「行動」に落とし込むために、どんな選択を採るべきなのか示している点です。
もちろん、本書に書かれていることが唯一ではないと思いますし、さまざまなアプローチはあるべきなのですが、一般的な企業で「考え方は決まったが、ではどう実行するか」という段階になったときに、途端にグダグダとなってしまうという、よくある挫折を未然に防ぐ可能性を高めてくれると思います。
現在、「AI倫理宣言」を打ち出す企業は増えています。しかし「AIはユーザーに不利益を与えない/人道に反さずバイアスや偏見を防ぐ」といった方針を定めたとして、それは確かに良いことなんだけれども、たとえば「顧客に害を為さない」とは具体的にどういうことかをブレイクダウン(細分化)しておく必要があるのです。つまり、ここがコンテンツの側面となります。
「こういうケースではAIはこのように活用/制限されなければならない」というコンテンツを想定したうえで、事業プロセスのなかで実現できる倫理の構造=ストラクチャーを作ろうという考え方のもと、本書ではチェックリストを提示しています。
事例として「クー・クラックス・クラン(KKK=白人至上主義を掲げる秘密結社)」が挙げられているように、理想や行動倫理といったストラクチャーがしっかりしている組織でも、コンテンツが黒人排斥といった危険な方向を志向していると社会に害を与えることが十分にあり得るわけです。
そのため、まずAIで何を実現したいのかというコンテンツを適切に定めることが重要になります。
ストラクチャーだけだと、実効性はあっても何をしたいのか不明確になりがちですが、「これを実現したい」というコンテンツとセットであれば、実現できているか否かを日々チェックしつつ運用できます。
―― 昨今のイーロン・マスク氏配下のXや、ビッグモーターなどが想起されますが、ストラクチャーが単純明快で極端であればあるほど、議論の余地なく組織はまとまりやすい。けれども、そういった事業者が提供する1つ1つのサービスのようなコンテンツがどうなるか、という話でもありますね。言わばカルトに近づいていくわけなので。
したがって、AIのような破壊的なゲームチェンジャーが現われたときこそ、「コンテンツが顧客と事業者、社会に利益をもたらしているか」からチェックしていくべきであると。
小林 その通りです。
ユーザーからの反発を企業はどう受け止めるべきか?
―― しかし、たとえばCLIP STUDIO PAINTも「クリエイターの利益をもたらすこと」を目指して画像生成AIパレットの搭載を進めた結果、ユーザーから想定外の反発を受けることになりました。
コンテンツをどう定めるのか、ユーザーとの共通の価値観を持つことも難易度の高い作業と言えるかもしれません。どうすれば良いのでしょうか?
〈〈後編はこちら〉
■Amazon.co.jpで購入
-
AIの倫理リスクをどうとらえるかリード・ブラックマン、小林啓倫白揚社
週刊アスキーの最新情報を購読しよう