AIビジネスと、経営者の意思決定と決断
~企業はAIとどう向き合うべきか⑬

 

学習戦略

GoogleのCEOサンダー・ピチャイは、2017年に「モバイルファーストから、AIファーストへ」と宣言しました。Googleは、これまで提供してきたユーザー経験の犠牲を厭わずに、「AIファースト」でデータの収集と学習を選びました。それによって長期的に得られる利益が大きくなると判断したのです。Googleと同様に、企業の経営者はどこかのタイミングで、AIとの向き合い方について必ず判断をしないといけなくなるでしょう。

データの収集と学習に資源を費やすことで、データを蓄積していくためのコストが上昇すると、Googleはプライバシー問題などを解決できないAIを社会に投入するかもしれません。これに、社会がどう反応するのか。その反応は、各国によって異なります。プライバシーを犠牲にするなら、Googleの行動を禁止する法律をつくる動きがでてくる国もあることは予想されます。そうしたリスクと引き換えに「AIファースト」を宣言したのです。

長期的な利益を確保するために行うAIの訓練は、人間が遂行能力を改善するための学習に似ています。企業は「これで十分だ」と判断できるレベルまで教育してから、新人を現場に送り込みます。AI も同じで、まず社内でトレーニングを繰り返し「社会に出してもよいだろう」という段階で投入します。ただ、この時点では完成品ではありません。

人間も社内教育だけでなく、実際の現場で学習しながら能力を改善していきます。予測マシンも同様で、社会に送り出せば実際に使われて、学習する機会が増えます。今まで予想していなかった不測の事態に、最初は判断を間違ったとしても、その失敗を学習し、次の機会には判断を間違えなくなります。予測マシンをどこまで社内で学習させ、どの段階で社会に投入するべきか。そこは重要な経営判断になります。逆に、予測マシンを社会には投入せず、社内だけで使い続けるという経営判断もあります。競争相手に予測マシンのテクノロジーを秘密にして、自社だけで恩恵を受け続けるほうがよい場合もあるでしょう。

予測マシンにはリスクもともないます。AIが間違って相手に損害などを与えた場合に、企業の信用を失ったり、場合によっては訴訟などを受けたりするリスクがあるからです。AIが間違える誤差を吸収できるものかどうかは、タスクの種類によって変わります。人間がやっても間違えることが多いタスクなら、機械が間違っても仕方がないと許容されやすいかもしれません。しかし、人間の生命にかかわる重要なタスクでは、人間が間違えても訴訟になりますから、機械が間違えても訴訟になるでしょう。そのようなタスクでは、誤差を許容する範囲を慎重に考えなければなりません。

自動運転で人が亡くなれば、非常に大きな問題となります。画像診断でガンの発見に失敗することも起こりうるでしょう。経営者は、どこまで人間が関与し、どこまでを機械に分業させていくかを判断しなければなりません。現実社会でデータの獲得は重要ですが、その重要性の度合いを、私たちは慎重に考える必要があります。

経験は新しい希少資源

AIの導入が進むと、人間の経験が新しい希少資源になる可能性があります。正しい判断を行うために、どれだけ場数を踏んでいるかが、モノをいうことになるからです。

私自身、過去にさまざまな経験をする機会がありました。最初に在籍していた研究所では、固定資産税を評価するシステムの開発に携わりました。東京都区内に存在する140万近い土地・建物の価値を測定していくという仕事です。当時、AIやビッグデータといった言葉は市民権を得ていましたが、やっていたことはAIを用いた大量評価でした。その際には、3,000件の不服審査請求と300件の訴訟が発生しました。

固定資産税に関する訴訟は、何が原因で起きているのか。問題は予測の精度なのか、データの精度なのか、人間の感情なのか、制度そのものの設計なのかを知ることができたからです。多くの問題は、予測の精度ではなく、固定資産評価システム全体の設計にあることが分かり、私にとって非常によい経験となりました。

人間が十分な経験を積んでいないと、機械との共存において大きな問題を引き起こす場合があります。自動運転と航空機事故のケースのように、訴訟のリスクがある仕事で人間の経験やスキルが低下すると、新たなリスクが生じるからです。機械と人間との共存で、人間がやりたい仕事までAIに取り上げられてしまうと、モチベーションが下がってしまうでしょう。やりがいのあるタスクを自動化すると、人間の能力が落ちるだけでなくモチベーションまで下がって、優秀な人材が採用できなくなるかもしれません。

一方、人間がやりたくない仕事が機械化されれば、非常に大きな推進力になります。機械が人間の苦手な部分を補ってくれれば、予測の精度が少々悪くても、機械を投入することで組織が強くなることがあります。経営者は、そうした判断をしながら予測マシンを開発していく必要があります。AIは、そこにデータがあるからという理由だけで導入されるものではありません。

AIのリスクを管理する

AIの予測は、人間が予期しない差別につながることがあります。例えば、ローンの自動審査、クレジットカードの審査、賃貸住宅の入居審査などで、予測マシンがデータを読み込んだときに、女性を差別する、母子家庭を差別する、外国人を差別することがありえます。これは社会的に許されることではなく、企業にとって大きなリスクです。

AIは、良質なデータが少ないと正確な予測マシンを作ることができず、信頼できるAIを開発することができません。データの質や量の変化により予測マシンの精度が落ちることで、AIの予測によって騙されたりすることも出てきてしまいます。

生物の多様性と同じく、予測マシンの多様性には、個人レベルの情報のトレードオフが関わってきます。詳細な予測をしようとすると、プライバシーにかかるデータを使わざるを得なくなるからです。第三者が予測マシンを情報源として利用する場合も考えられます。予測マシンがどう作られているかを解読して再現できるテクノロジーが開発されており、知的財産が盗まれたり、弱点を突いた攻撃を受けたりするリスクがあります。また、AIがフィードバックを学習して知能を改善する過程で、フィードバックが操作され、予測マシンが破壊的な行動を学習するリスクもあります。

私は、データをインターネット上からスクレイピングして集めてくる行為に対して「ノー」を言い続け、批判してきました。それによって、ものすごい攻撃を受けたこともありました。しかし、スクレイピングでは、データの質を担保できません。例えば、レバノン政府はスクレイピングしたデータを使って公的統計を作っていました。スクレイピングされた企業は、それをブロックしました。なぜなら、企業はスクレイピングによってサーバーにかかる負担に応じて、巨額の投資を行わなければならないからです。いくら政府でもフリーライド(タダ乗り)してよいわけはありません。レバノン政府もスクレイピングをブロックされたため、公的統計の報告が止まる事態に陥ってしまいました。

さらに、公開されている情報に、故意にノイズを入れる行為も出てきています。ノイズを入れることで間違った予測を行うように操作するのです。これは非常に怖いことです。モラルの問題だけでなく、予測マシンそのものが「使いものにならない」という社会の評価につながるからです。これまで長い時間をかけて綿々と培ってきた成果がすべて否定されることになり、人類にとって大きな損失です。短期的な利益だけを狙って不正な行為がなされることによって、AIにかかるビジネス、産業、研究領域が破壊されてしまうリスクも考えられるのです。

経営者は、もっと高い位置から社会全体を眺めなくてはいけません。自分たちの仕事が、社会においてどういう位置づけにあるのか。これが、『Prediction Machines』の著者であるトロント大学のアジャイ・アグラワル教授が述べている「Society」の意味です。最初にPrediction(予測)を行い、Decision making(意思決定)、Tools(ツール)、Strategy(戦略)があって、その先にはSociety(社会)があるのです。

リクルートの創業者である江副浩正さん(2013年死去)は、1963年に創業した当時から「リクルートは社会とともにある」と言っていました。社会とともにあることができない企業は、存在価値がない。裏を返せば、社会的な存在価値があるから、会社としての価値があるということです。

AIと人類の未来

2002年にノーベル経済学賞を受賞したダニエル・カーネマンは、「AIが人間よりも賢くなる」と予測しました。人間に比べて、ロボットが統計的な推論を得意とするのは、ストーリーや語りにそれほど心を奪われないからです。そのため、客観的な判断を常にでき、感情をコントロールする「こころの知能指数(EQ)」もロボットのほうが遥かに高いので、ロボットは人間よりも賢い判断を下すと言うのです。賢いから視野が広く、心の枠組みの広さもあると指摘します。確かに、人間は他人を羨ましい、妬ましいと思う心の暗い面を持っていて、それによって間違った判断をしてしまうのは確かでしょう。

アジャイ教授は、AIが社会や人類に及ぼす影響について、次のような疑問を投げかけました。
1)人間の仕事は、まだ存在するのだろうか。
2)人間は、さらなる不平等を生み出すだろうか。
3)一握りの大企業が、すべてを支配するのだろうか。
4)国は産業育成のために減税や規制緩和を他国と競って行うことで、労働環境や社会福祉などが最低水準へと向かっていく「底辺への構想」の傾向へ向かっていくのだろうか。国内企業に競争優位性を与えるために、私たちのプライバシーや安全を犠牲にすることも厭わないだろうか。
5)世界は終わるのだろうか。

一連の連載の中での大きな問いは、「人間の仕事は終わるのだろうか」ということです。私は、あるタスクがAIに奪われたとしても、新しいタスクが生まれてくると、以前に言いました。しかし、単純労働をしている人の仕事は、そういうわけにはいきません。18世紀の産業革命によるテクノロジー進化で、機械が「馬力」を提供するようになると、馬や牛の仕事は終わりました。AI革命で知力が与えられたことで、同じことが起ころうとしています。

ラッダイト運動は、産業革命で生まれてきたテクノロジーの進化で失業が生まれると予測した労働者が起こした社会運動です。確かに労働者の単純作業の仕事は奪われましたが、失業率は上がらずに、新しい代替的な仕事が生まれてきました。

活版印刷技術が発明されたとき、字がきれいな人が清書する仕事は奪われましたが、識字率が大きく改善されました。聖書が大量に印刷されて広く社会に行き渡ったことで、宗教革命が起こり、新しい社会が生まれてきました。

ロボットがあらゆるモノを生産する国を想像してみてください。労働者のいないロボット国と交易すると、どうなるでしょうか。経済学には、交易は人々を必ず豊かにするという「比較優位」の理論があります。絶対優位のロボット国が相手でも、比較優位性が存在する限り、交易によって必ず両国とも豊かになります。貿易に関する何十年にも及ぶ研究から、交易によって仕事が奪われても別の仕事が出てきて、全体的に失業率は悪化せず、国としては豊かになることを私たちは知っているのです。

しかし、農業生産や工業生産を他国に頼れば、国内産業は縮小していきます。私は岐阜県大垣市の出身ですが、父はかつて繊維の街として有名だった愛知県一宮市で銀行員として働いていました。当時、中国から大量に繊維製品が輸入され、繊維不況が起きて産業は壊滅的なダメージを受けました。多くの紡績会社が倒産し、その再建に父が奔走していたことを覚えています。

交易によって国は豊かになっても、企業の生命は別です。倒産に追い込まれる企業が出て、個人も失業します。その個人も、他の産業で新しい職を得ることはできますが、能力によって比較優位性が出てきます。そこに生まれるのが不平等です。

不平等は広がるか?

生産に占める機械のシェアが増えれば、労働者の所得は減少します。その一方で、AIの所有者にもたらされる利益は増加します。テクノロジーを使いこなすスキルには、概して偏りがあります。高学歴の人は、不相応なほどに所得が増加する一方で、教育水準が低い人の所得は減少してしまう。そこに格差が生まれてしまうことが予測されています。

私は、大学で機械学習の基礎となる統計学の授業をしています。米国スタンフォード大学には約7,000人の学生が在籍していますが、学部を問わずに全体の7分の1の学生は統計学の入門コースを受講しているそうです。私の統計学の授業にも多くの学生が集まってきていますが、その理由をアンケート調査してみると、「親に統計学を必ず受講するように言われた」「機械学習のスキルが重要になると言われたから受講した」という学生が毎年増えてきています。

「スキル偏向型のテクノロジーから最も被害を受けるのは、生涯学習への心の準備が整っていない人たちだ」アジャイ教授もそう指摘しています。自分が劣化したことが分かれば、そのスキルを身につければよいだけです。学習する能力を持っていれば、もう一度自分の価値を高められます。しかし、歳を取った企業の取締役には、生涯学習の意欲がない、心の準備をしていない、学ぼうとしない人たちもいます。そのような人たちにAI導入を抵抗する傾向が多く見られます。

もちろん、謙虚な人たちもいます。日本不動産鑑定士協会連合会で開催した社会人向けのプログラミング講座に、60歳を超えた当時の連合会副会長が参加してきました。若い人と混じってプログラムの技術を習得しようと努力していました。年齢ではなくパーソナリティ次第なのです。企業が新しいテクノロジーを導入する心の準備ができるように、経営者は取締役の人事を考えなければいけません。

先にあげた5つの問題について1と2について考えてきましたが、3と4と5は私自身まだ答えは見つけられていません。今後も、これらの問題に向き合っていかなければならないと思います。

5つの意思決定と決断

AIビジネスを進めていくうえで、経営者にはさまざまな意思決定と決断が必要になります。アジャイ教授の本では、5つの意思決定と決断が必要だと言っています。

1)AIとの会話を開始する時期はいつか。どういう担当者を置くのか。
2)AIに任せることができるのは何かを理解する。
3)自社内にあるデータ資源を「正しく」判断する。同時に外部データについても判断する。
4)AIの判断、決断、行動、その帰結から出てくる結果を会社にどうフィードバックするか。
5)AIと人間の役割を決め、企業の海図をつくる。

企業には長期的な戦略が必要です。一朝一夕に、大きな意思決定はできません。しかし、いま決断しなければ、競合企業や社会から後れを取るリスクから逃れることもできません。

経営者が最初に行うべきことは、まず自分の企業にDX事業部などの部署を作って、テクノロジーと向き合うときに、誰を任命するか、どう会話を始めればよいかを考えることです。次に、AIに任せることができるのは何かを理解し、その価値を判断することです。AIは高額ですから、投資判断が重要になります。

3番目に、自分の会社にどのような情報があるかを整理し、データ資源を正しく理解することです。使えるデータ資源がなければ、それを作っていくデータ戦略が重要な肝になります。4番目に、AIを使った業務フローを再編することです。予測マシンの精度、データの現状を踏まえて、AIの恩恵を受けられるように業務フローを再編し、ツールを開発します。

最後に、AIと人間の役割を決めて、企業の海図を作っていくことです。それによって、初めてAIビジネスは成立します。AIが大きなドライバーとなって、人類が豊かになるでしょう。しかし、その時々で、さまざまなリスクを持つことも確かです。企業が、どのような海図のもとで、未来に向かって航海していくのか。その舵取りが、経営者に求められていると思います。

この連載は、私の友人であるアジャイ・アグラワル教授が執筆した『予測マシンの世紀』に大きく依存しています。そして、彼との議論に基づいて整理してきました。彼はビジネススクールの教員ですが、私はビジネスというよりも、データサイエンスそのものを研究しています。その立場から、ビジネスについて眺めた世界を紹介しました。

経営者の皆様の一助になれば幸いです。

著者

一橋大学教授・麗澤大学学長補佐(特任教授)清水 千弘
清水千弘

1967年岐阜県大垣市生まれ。東京工業大学大学院理工学研究科博士後期課程中退、東京大学大学院新領域創成科学研究科博士(環境学)。麗澤大学教授、日本大学教授、東京大学特任教授を経て現職。また、財団法人日本不動産研究所研究員、株式会社リクルート住宅総合研究所主任研究員、キャノングローバル戦略研究所主席研究員、金融庁金融研究センター特別研究官などの研究機関にも従事。専門は指数理論、ビッグデータ解析、不動産経済学。主な著書に『不動産市場分析』(単著)、『市場分析のための統計学入門』(単著)、『不動産市場の計量経済分析』(共著)、『不動産テック』(編著)、『Property Price Index』(共著)など。 マサチューセッツ工科大学不動産研究センター研究員、総務省統計委員会臨時委員を務める。米国不動産カウンセラー協会メンバー。