AI開発でも世界に亀裂 異なる道を行く中国

※ 上記は、Edraw Maxというソフトで、テンプレを利用して作成したものだ。3つの価値が三方から、せめぎ合っている…、という感じを出したかったんだが、そういう感じが出ているだろうか…。

※ 思考を図形化する作画ソフトは、いろいろあって、Edraw Maxはその一つだ…。10日間は、無料のお試し期間なんで、有料版を購入するかどうかは、その後で考えよう…。

※ 肝心なのは、思考、分析、考察を深めることで、「見栄えの良い図形」を作画することでは無い…。

※ 何のために図を描くのかと言うと、「イメージや発想・着想が、雲の如く湧いてくる」ということの助けにするためだ…。

※ そういう目的のためには、かえって「ラフなスケッチ」の方が、妙に「発想を刺激する」ことが、よくある…。

※ こういうものは、あまり整ってはいないが、囲んでいる線(黒の色鉛筆によるものだ…)や、ケチって印刷済みの紙の再利用による裏写りすら、妙に「発想を刺激して来る」…。

※ ただ、プレゼンなんかで、どうしても「整ったもの」が必要だというケースもあろうから、紹介しておく…。

AI開発でも世界に亀裂 異なる道を行く中国
編集委員 太田泰彦
https://www.nikkei.com/article/DGXMZO62380610W0A800C2I00000/

『人工知能(AI)にも「お国柄」がある。判断の基準をマシンに教える側の人間社会に考え方の違いがあるからだ。同じ問題を解くのでも、開発した国や組織が異なれば別々の答えを導き出すことがある。

6月末、米政府の独立機関であるAI国家安全保障委員会が「コロナ危機対応とAI技術の役割」と題する白書を公表した。全米の病院や企業が臨床データを共有し、AIでワクチン開発を急ぐ案など10項目の提言からなる。

同委員会によるAIと新型コロナウイルス対策に関する白書は、5月以来、実に3冊目だ。プライバシーやソフト開発者の責任など根本的な倫理問題の見解について、議会と国民に明確に示す必要があるからだ。政府の予算を使う以上、いくら切羽詰まった状況でも民主主義の手続きは省けない。

中国ではAI導入のスピードが速かった。人の流れを監視するための個人の識別や感染経路の予測など、現場で活用が進んでいるのは事実だろう。

人口100万人あたりの感染者数(8月15日時点)を比べると、米国とブラジルが1万5千人を超えている。数字に信頼性の問題はあるが、ウイルス発生地とされる中国は62人にとどまる。個人情報の保護より監視データの収集を優先する社会の方が、感染対策で有利であるのは明らかだ。

コロナは国ごとの価値観の差異を浮き彫りにした。「機械ではなく人間が中心のAI社会を、どの国が築けるか」。社会と技術の関わりを研究する青山学院女子短期大の河島茂生准教授は、世界史の分岐点が来たとみる。

違いは研究開発の姿勢にも如実に表れている。「XAI」と呼ばれる研究分野が象徴的だ。

「X」は「説明できる(Explainable)」の意味。人間の言葉や画像を使って推論の筋道を分かりやすく説明できる能力を備えた次世代型のAIだ。この分野では米国防総省の国防高等研究計画局(DARPA)が世界の最先端を行く。

機密が多いはずの軍事部門が透明性を高めようとするのは、自律的なロボット兵器や作戦行動の自動立案が、既に米国で実用化されているからだ。機械が人命に関わる判断を下すなら、その判断の理由を説明する責任が軍にはある。「AIが決めたから」では済まされないのだ。

機械学習の原理をみると、AIの「思考」の中身がブラックボックスであるという問題が浮かび上がってくる。

たとえば画像に映る動物が、猫なのか犬なのか判断するAIをつくるとしよう。それには人間が教師となり、1枚ごとにAIに正誤を教えていく。最初はハズレが多くても、教育を数千万回と繰り返せば、アタリの率は限りなく高まる。

だが、耳が三角だから猫と判断したのか、ヒゲが短いから犬なのか。理由は外部からは一切わからない。結果が正しいというだけである。機械学習とは、原理的に不透明な技術なのだ。

異なる社会では、異なるAIが育つ。膨大なデータによって、中国製のAIは今後さらに賢くなっていくだろう。人間にたとえればIQ(知能指数)だけが高くなるようなものだ。

中国では医療分野でのAI活用が進んでいる(写真は広東省・深圳の碼隆科技=マーロン・テクノロジーズ=の脳疾患診断システム

特許庁の7月末の調査によると、中国のAI特許の出願数は2017年に6858件に上り、それまで圧倒的な首位だった米国(5954件)を追い抜いた。毎年2倍のペースで増え続け、中国はAI大国の地位を着実に築きつつある。

中国での出願のほとんどは実用的な機械学習の特許だ。ブラックボックス化を防ぐ「XAI」の研究はみあたらない。思考の中身が分からない機械が医療や自動運転、裁判、組織人事などで、世界に先駆けて実用化されていくかもしれない。倫理と切り離して猛進する中国技術には、危うさがないだろうか。

欧州連合(EU)の欧州委員会は昨年4月、非差別、説明責任など7項目の「AI倫理指針」をまとめた。日米ではグーグル、ソニー、富士通などの企業が、競うように自主倫理規範を導入している。ユーザーに信用されなければAIビジネスが成り立たないからだ。

中国でも昨年6月、国家次世代AIガバナンス専門委員会が、8つのAI原則を公表した。プライバシー尊重も項目の一つだが、果たしてどれほどの効力があるだろう。

美しい言葉を並べて倫理規範をつくっても、形だけに終わる恐れがある。極言すれば、人間の尊厳を軽んじる社会からは人間を大切にするAIは生まれない。』