「AIを使うとき」の落とし穴…。

Amazonもハマった、「AIを使うとき」の落とし穴
https://www.itmedia.co.jp/business/articles/2007/09/news022.html

※ まあ、実際の画像は、こういう「クッキリ、スッキリ」ばかりじゃ無いからな…。

『それは大手IT企業も例外ではない。おなじみの米Amazon.comは採用活動を支援するために、応募者から寄せられる履歴書を審査するAIを使っていた。ところがこのAIが、女性の応募者を不当に低く評価していた、つまり女性に“偏見”を持っていたとして利用を中止している。

 なぜそのようなことが起きたのか、それはAIにモデルを構築させるために、過去の社員や応募に関するデータを与えていたからだった。米国でも、IT技術者はまだまだ男性の方が多い。そのためAIは、過去のデータから「男性を採用すべき」というモデルを作ってしまったのだ。

 将来は、新しいAI開発手法が考案され、こうしたミスを避けられるようになるかもしれない。しかしそれまでは、現在のAIは与えるデータによってアウトプットが大きく左右されてしまうものだという大前提を肝に銘じておこう。

 また新しい手法が登場したとしても、それには別の長所と短所、そして別の前提条件が生まれるだろう。だからこそ、自分自身が開発者にならなかったとしても、「いま自分が使おうとしているAIは、いったいどのような仕組みで動いているのか」を理解しておく必要があるのだ。』
『その上で、次に必要になるのは「AIをどこに使うか」という判断力である。

 いまは第3次AIブームと呼ばれるほどAIへの注目が高まり、AIやそれらを使ったアプリケーションも進化しているが、残念ながらAIは万能ではない。というより、前述のようなAIを実現する仕組み、あるいはそれらが活用される環境では、得意なことと不得意なことが変わってくるのである。私たちには環境を変える力がないことが多いが、使うツールを選んだり、使い道を変えたりすることはできる。これらを考慮して、ツールの価値を最大限に引き出さなければならない。』
『一例を挙げよう。ある旅行会社で、スマートフォンで観光地の写真を撮ると、AIがそこに写っている被写体が何なのか(有名な寺社仏閣やモニュメントなど)を認識し、関連情報を表示してくれるアプリを作ってはどうかという計画が持ち上がった。
これなら外国に出かけたとき、現地語の説明が読めなくてもそれが何なのか理解できる。旅行ガイドを開くより手軽だし、適当に写真を撮っておいて、後からそれが何だったのかを確認することもできる。また、関連情報を表示する際、広告やクーポンなどの情報も表示すれば、旅行者にさらなるアクティビティーを促せる。それが新たなビジネスへとつながるだろう、というわけだ。

 幸い旅行会社なので、教師データとなる観光地の写真は多数用意できそうだ。早速、試験的なAIの構築が始まったが、精度の高いアプリケーションを実現することはできなかった。
理由は単純で、用意された教師データの大部分が、被写体を美しく撮影したものだったからだ。晴天の中、被写体がもっとも美しく見える角度で撮影された写真ばかり――PRが目的なのだから当然だ。しかしテストに協力してくれた一般の人々は、さまざまな天候、時間、角度で写真を撮っていた。バスで移動中に、急に気になる建物が視界に入ったので、ブレブレでピントも合っていない写真を撮ったという場合もあった。これでは思うような精度は出せない。

 最終的にこのプロジェクトは、精度が出せるように被写体と用途を限定するという方向へ進むことになった。あらゆる条件下で、達成したい価値の100%を実現できるAIを実現するのは難しい場合が多いが、AIを使用する範囲を一定に絞り込むことで、価値をある程度まで手にできることも多い。実現できなかった部分は、従来通り人間が担当したり、あるいは人間とAIが協力してタスクを実行したりすることができる。そうした判断を、AIを活用する側が下していくわけだ。
もちろんこうした判断を、誰もが正確に下せるわけではない。多くは試行錯誤を経て、あるいは過去の類似事例や経験に基づいて正解へとたどり着くことになる。これからAIを学ぼうというマーケターも、座学だけでなく、大小さまざまな実践と失敗を通じてスキルを磨くことになるだろう。』
『 実践する際には、失敗が致命傷とならないよう、AIが持つリスクを理解しておく必要がある。特にマーケティング活用では、AIの誤作動が顧客に直接的なダメージを与えてしまいかねない。そして前述のように、大手IT企業でも失敗する場合があるほど、AI利用に潜む落とし穴を把握することは難しい。AIの仕組みや利用法に関する知識を得るのと同時に、リスクについても確実に学んでおこう。』
『その際に参考になるのは、各国の政府や国際機関、業界団体が発表しているガイドラインだ。AIを利用する際の注意点についてまとめたもので、その多くは、非技術者にも理解できるような表現が使われている。
 例えば、総務省の情報通信政策研究所が2019年8月に発表した「AI利活用ガイドライン」では、「AIサービスプロバイダー、ビジネス利用者およびデータ提供者が留意すべき事項」として、10項目のAI利活用原則を定めている。

(1)適正利用の原則:利用者は、人間とAIシステムとの間および利用者間における適切な役割分担のもと、適正な範囲および方法でAIシステムまたはAIサービスを利用するよう努める。

(2)適正学習の原則:利用者およびデータ提供者は、AIシステムの学習などに用いるデータの質に留意する。

(3)連携の原則:AI サービスプロバイダー、ビジネス利用者およびデータ提供者は、AIシステムまたはAIサービス相互間の連携に留意する。また利用者は、AIシステムがネットワーク化することによってリスクが惹起(じゃっき)・増幅される可能性があることに留意する。

(4)安全の原則:利用者は、AIシステムまたはAIサービスの利活用により、アクチュエータなどを通じて、利用者および第三者の生命・身体・財産に危害を及ぼすことがないよう配慮する。

(5)セキュリティの原則:利用者およびデータ提供者は、AIシステムまたはAIサービスのセキュリティに留意する。

(6)プライバシーの原則:利用者およびデータ提供者は、AIシステムまたはAIサービスの利活用において、他者または自己のプライバシーが侵害されないよう配慮する。

(7)尊厳・自律の原則:利用者は、AIシステムまたはAIサービスの利活用において、人間の尊厳と個人の自律を尊重する。

(8)公平性の原則:AIサービスプロバイダー、ビジネス利用者およびデータ提供者は、AIシステムまたはAIサービスの判断にバイアスが含まれる可能性があることに留意し、また、AIシステムまたはAIサービスの判断によって個人および集団が不当に差別されないよう配慮する。

(9)透明性の原則:AIサービスプロバイダーおよびビジネス利用者は、AIシステムまたはAIサービスの入出力などの検証可能性および判断結果の説明可能性に留意する。

(10)アカウンタビリティの原則:利用者は、ステークホルダに対しアカウンタビリティを果たすよう努める。』
『ガイドラインによっては、AIの非軍事的な利用や公教育でのAI教育の必要性など、社会全体で行うべき取り組みを定めているものもあるが、多くは上に挙げた10項目のような、一つの企業や組織内で実践できる取り組みを解説している。信頼できる組織が発表したものを選び、自らの取り組みを検証してみると良いだろう。

 その際に重要なのは、関係各部との連携だ。AIはITシステムであり、開発から利活用までではシステム部とマーケティング部のやりとりが中心になるだろう。しかしプライバシーに関するリスクのように、コンプライアンスや法務が関係する部分もある。AIの利活用が生み出すリスクは、組織横断的に対応する必要があるのだ。その意味で、AIに関する知識やスキルを学ぶ段階から、他部門との連携や共同作業を進めておくべきだろう。

 AIへの正しい対応方法を修得するというのは、誰にとっても簡単な話ではない。テクノロジー自体が現在進行形で進化していることに加え、それを正しく利活用する原則や理論にも、アップデートが加えられている。しかしマーケティングの世界は、これまでも各時代における最新のテクノロジーや理論を積極的に取り入れ、進化してきた。自らが新たなマーケティングの世界を切り開くという気概で、AIにチャレンジしてほしい。』

AI利活用ガイドライン
~AI利活用のためのプラクティカルリファレンス~
https://www.soumu.go.jp/main_content/000637097.pdf