人工知能(AI)の問題点・デメリット5選と、人間が全然心配しなくていいこと

以前、映画『2001年宇宙の旅』の続編『2010年』の記事で、同作が人工知能(AI)を冷静に描いているところに好感を持ったと書きました。今回はあらためて、人工知能(AI)について「今すぐ対応が必要な問題点」と「全然心配いらないこと」が具体的にどのようなことなのかを扱います。

私はもともとコンピューターが好きなのですが、だからこそ最近AIがセンセーショナルに取り上げられがちなのを気にしています。熱い頭で現実を見誤るのを防ぐため、私は「人工知能・AI」という名称をできる限り避け、適宜「プログラム」「ソフトウェア」「機械」「コンピューター」といった「夢のない」呼び方をしたいと思います。

目次

前提―人工知能の定義

人工知能の研究が目指すのは「人間の知能を機械で再現すること」です。しかしこれだけ使われている言葉であるにもかかわらず、はっきりした定義はありません。

だいたいは「人間のような知能があるように見えるプログラム」を指していますが、この範囲は広く、またあいまいです。こういったプログラムの研究は20世紀中頃に始まりましたが、「人工知能とは何か」自体が今日でも議論されているところであり、定義は研究者によってまちまちです(『人工知能は人間を超えるか ディープラーニングの先にあるもの』45頁)。あとでじっくり述べますが、こんなあいまいな定義だからこそ、宣伝文句に登場させやすいわけです。

AIという言葉の響きからは、いかにも未来的な人型ロボットなんかを想像したかもしれません。あるいは、メディアで耳にはさんだ「人類を滅ぼす恐怖のマシン」に不安になったという人もいるのでしょう。しかし実際には、その定義に当てはまるソフトや機械の機能は、もうずいぶん前から、私たちの日常のあちらこちらに点在しています。たとえば、

  • ショッピングサイトでおすすめ商品を表示するプログラム
  • デジカメの顔認識やオートフォーカス機能
  • ゲームの敵キャラクターの動き
  • パソコンやスマホの顔認証
  • カメラで書類を撮影して文字におこすアプリ

など、私たちがごく日常的に触れてきたプログラムが、最近では「人工知能」「AI」と呼ばれる(あるいは、メーカーや運営者が呼びたがる)ことが増えました。

このように定義はあいまいだということを常に念頭に置きつつ、この記事では「人間のような知能があるように見えるプログラム」について論じていきます。

AIの問題点5選―今すぐ対応が必要なこと

差別―「AIがした差別」の全責任は、人間

人工知能は、人類とは異なる視点を持った新しい知的存在なのか――未知なる存在との出会いに胸躍らせるのはSFのだいごみですが、現実を学ぶときには頭を切り替えなければなりません。

まずは「AIが差別をした」事例を紹介し、その考察や私見などを述べていこうと思います。

アメリカの裁判所で「人種差別ロボット」が登場

2016年5月、アメリカで、コンパス(Correctional Offender Management Profiling for Alernative Sanctions: COMPAS)というソフトウェアが、黒人の再犯率を高く見積もったことが報告されました。白人の再犯率24%に対して黒人は45%と、2倍近くにのぼります。同ソフトウェアは、アメリカの何百もの裁判所で使用されています。

COMPAS を制作したのは Northpointe という私企業で、黒人の再犯率を高く見積もっていはいないと反論しました。しかし企業の利益を損なう可能性があるとして、結果を算出したアルゴリズムは明かしませんでした。

「ゴミをつめれば、ゴミを吐き出す」

この事件を報じたガーディアン紙が引いているのが、「ゴミをつめれば、ゴミを吐き出す(Garbage in, garbage out.)」というコンピューター工学の格言です。人間がろくでもないプログラムやデータを入れればコンピューターはそれをするようになる、という意味です。

「人間は差別をする、けれどコンピューターなら偏見や先入観を持たないのではないか」と期待する向きもあるようですが、残念ながらそれは夢物語にすぎません。

偏見を持たないAIは、事実上存在しえない。なぜなら、AIに取り込ませるデータのソース(出所)が、他でもない人間社会だからです。別の角度で見ると、「データとは偏見・差別の結果を集積したものだ」といっていいでしょう。データを取り込んだ瞬間、AIは人間社会を反映します。差別が蒸し返される可能性ならあっても、画期的なことは何も起こりません。

植民地主義による被征服文化・民族、また社会におけるマイノリティといった被差別属性には、「本来の姿」がすでに不明になっているという深刻な問題があります。たとえば、旧植民地のアフリカ系の人々は現在、旧宗主国の言語をしゃべり、名前を持ち、文化に染まり、植民地時代からの歴史的連続性のなかに生きている。「もとの文化」は、もうない。もしも差別がなかったとしたら、その人はどんな性格で、どれほどの能力を持ち、どのような立場でどういう人生を送り得たのか。言い換えると、過去の植民地政策の影響が及んでいるという条件を取っ払った「本来の自分」はどんなものなのか。こういったアイデンティティ・クライシスは、緊張感のある、緻密な思考が求められる課題です。

差別の本質的害悪は、差別される人の尊厳をすり減らしてしまうことにあります。異なる者に平等を、制度に公平さを求める気持ちは、人間として極めて正当かつ自然です。

ただ、中立性や公平さ、あるいは「本来の姿」を見て(あるいは見つけて)もらうことをAIに期待するのは、的外れと言わざるを得ません。AIは、客観的な視座に立つ新しい第三者ではないからです。

人間は差別をするから問題だ、というなら、人間が差別をやめる以外に解決策はないのです。人間以外の存在が空からやってきて願いを叶えてくれる、なんていうことはありません。

差別は新しいコンピューターうんぬんではなく、純粋に人間の問題です。たとえ歩みはのろくとも、一歩一歩努力を重ねて、差別をなくしていくことが必要です。

どんな道具を使っていようが、差別は行為者の責任

コンピュータープログラムが関わる差別は、企業の採用の場面などでも問題になります。ソフトウェアが過去のデータに基づいて「見込みある候補者」を抽出したら、特定の人種、性別、健康状態などの人が自動的にはじかれた、といった事例です。

作業の自動化は、差別の言い訳になりません。行為主体はあくまで当該業務を行った人間だからです。

たとえば、企業の採用担当者がどんなボールペンでメモをとっていようが、差別をしたならその人の行為ですよね。ボールペンのせいではありません。採用担当者がどんなモデルのパソコンを使っていたかも一切関係ありません。

同じく、どんなAIを使っていようが、差別をしたのはその人です。差別の全責任は、当該行為をした人間にあります

コンピュータープログラムの利用が差別の問題を複雑化し、わかりにくく、反論しにくく、不透明にすることはあるかもしれません。しかし冷静に考えれば、事実は案外シンプルです。

冤罪―すでに起こりました

無実の人が犯人と間違われ、ある日突然「犯罪者」にされてしまう――「足利事件」などでよく知られる「えん罪」は、私たちの社会でもっとも忌まわしいことの一つです。

AIを使って犯罪の予測をする、という提案や実験が出てきています。犯罪が起こりやすい場所をデータからはじき出したり、防犯カメラの映像から不審な動きをしている人物を見つけたりできるというのです。しかし、これによって冤罪の危険性はないのか? 実は、未来に起こるかもしれない、ではなく、すでに起こりました。

FBIの顔認識ソフトで強盗犯と間違われ、逮捕された

2014年、金融ブローカーのスティーブン・タリーさんが住むアメリカのデンバーという町で、銀行強盗事件がありました。犯人は逃走。そんなある夜、タリーさんは自宅でごく普通の一日を終えようとしていたところ、ドアのベルが鳴り、軍人のような男数名に襲われました。「強盗だ、殺される!」……と思ったら、彼らはFBI捜査官だった。タリーさんは逮捕されました。警察に、「防犯カメラに映った銀行強盗と似た人を知っている」というタレコミがあったからでした。何か月も拘留されたのち、タリーさんは事件の日時に職場にいたと、アリバイを証明することができました。さんざんな目に遭いましたが彼は釈放され、日常生活に戻りました。

ところがこの一年後、彼は再び逮捕されました。FBIの顔認識ソフトウェア(つまりAI)が、ビデオに映った強盗犯と、おそらく1回目の逮捕で警察が撮ったのであろうタリーさんの顔写真が同一人物だという分析結果を出したからでした。

たまたま強盗犯と顔が似ていたために、ついにはホームレス

2回目の逮捕後も、彼は無事釈放されました。

しかし冤罪により、彼の人生はどうなったか。金融ブローカーだったタリーさんは職を失い、ついにはホームレスになってしまいました。

当然ですが彼は1000万ドルの損害賠償を求める訴訟を起こし、係争中だということです。

人間によるチェックもあったのに、この結果

手書き文字や書類をデータに起こすソフトの活用が、オフィスなどでしだいに広がっています。こういったソフトウェアが念頭に置かれると、一般には「AIだけでは融通が利かないので、人間によるチェックも必要だ」といわれます。

ところが本件では、人間――しかも、FBIで顔の分析に関する特別な訓練を受けていた捜査チーム――による十分なチェックがあり、プロ中のプロが間違いないと太鼓判を押したにもかかわらず、人違いでした。それどころか、顔認識ソフトウェアが出した分析結果は、捜査官の「タリーさんが犯人で間違いない」という思い込みを強くしてしまった。

本件により、「人間によるチェックで補足すれば、AIの判断は完全になる」わけではないことが浮き彫りになったといえるでしょう。AIに半ば依存する捜査手法と心理が冤罪を生んだと考えられます。人間は間違いますが、コンピューターだって間違う。また、コンピューターは間違うけれど、人間もまた間違うのです。

機械には、絶対依存するな

警察は、最も強力で恐ろしい国家権力です。国家に必ず必要な力である一方、ひとたび犯罪捜査にかかれば、対象となった市民の権利を著しく侵害するからです(警察官がドアをけ破る、家宅捜索に入る、押し入れの中身を全部調べる、通帳を押収、などを想像してみればいいでしょう)。その危険性ゆえ、憲法33、34、35条がそれぞれ逮捕、抑留・拘禁、住居および所持品への侵入・捜索・押収に条件を課して歯止めをかけ、刑事訴訟法という大法典が一つ作られているくらいです。

その重みがある犯罪捜査の場面で、データ分析をAI(=機械)に委託するなどという軽はずみなことがあってはなりません。

ちょっとしたしぐさや行動がたまたまプログラムに「不審者らしい」と判定された。あるいは、犯罪の被疑者と偶然顔が似ていた。そんなことからある日突然転落人生に陥る人は必ず出てくる……ではなく、すでに出ました。その割に、私は人工知能の使用による冤罪への危機意識は低いなと感じています。

治安という意味での「安全」と、私たちに降りかかる冤罪(と後に述べるプライバシー侵害)からの「自由」は、どちらかに重きを置けばどちらかが軽くならざるを得ない関係にあるのだ、という世の法則を頭に置かなければなりません。新しいテクノロジーの研究者なら、他分野の専門家とも積極的に意見交換や協力をしていくべきでしょう。

同時に、犯罪捜査や防犯関連事業にたずさわる者は、必ず考えなければなりません。仮にAIの判断をもとに嫌疑をかけ、無実の人に濡れ衣を着せてしまったら、その後どんなことになるのか。自分が破壊した冤罪被害者の人生をどう背負い、つぐなっていくのか。警察や企業の法的責任はいかなるものか。警察なら、えん罪被害者に与える損害ははなはだしいものとなります。国家賠償責任が生じるのはもちろん、歴史に残る汚点となるでしょう。私企業であっても莫大な損害賠償責任が生じる上、会社の信用は失墜、社会からの批判もただではすみません。早い話、不祥事のなかでも重大な不祥事です。謝ってすむ問題ではありません。それを押してまで「そんなもの」に寄りかかりたい人なんていませんよね。

世論の誘導―人々の心理を裏から操作

テクノロジーと名のつくものには、必ず、悪用する方法があるものです。そして近年発達したコンピュータープログラムには、「世論の誘導」という悪用法がある。そしてその悪用は、一部ですでに起こりました。

また、仮にプログラムの製作者や使用者に悪意はないケースでも、過失によって生じる被害の甚大さ、そして時間を追うごとに生じてくる不気味な現象は、現代を生きる上でしっかり頭に置いたほうがいいでしょう。

政治:ボット(Bot)を使って人の心理を遠隔操作、選挙結果を誘導した事例

Twitterなどで、 bot(ボット)という言葉を耳にしたことはあるでしょうか。ボットとは、主にインターネット上でタスクを自動的に行うプログラムのことです。実は、いまやインターネット上で活動している主体(?)のうち半数以上はボットだといいます。人間のように見える以上、ボットも一種のAIです。

ツイッター用のボットができることといえば、毎朝7時に「おはようございます」とツイートする、きれいな画像を自動でリツイートする、映画の名ゼリフを一日三回投稿する、など。きわめて無害で、便利だったりおもしろかったりするものですね。

しかし、悪意を持った人間なら、ボットにどのような活用法を見出すのでしょうか。

2017年12月、トランプ政権下のアメリカ連邦通信委員会(FCC)で、ネットワーク中立性(Net Neutrality)撤廃の議決がなされました。詳細には立ち入りませんがかんたんに説明すると、各国政府はインターネット上のあらゆる情報に対して中立の立場をとっているところ、FCCがインターネットプロバイダー(「○○光」のような業者や携帯電話会社)に新たなビジネスチャンス(たとえば、インターネットプロバイダーが、自分に金を払ってくれた企業等のサイトはつながりやすく、払わなかったサイトのロードはひどく遅くする、など)を提供するため、このルールを撤廃した、という事件です。

この、自由で開かれたインターネットが存続するか否かという重要な投票に、ボットが影響したというのです。投票前、連邦通信委員会のサイトには、ボットが何百万にも及ぶコメントを自動で投稿しました。投稿者にはルーク・スカイウォーカーという名前まであったというのだから馬鹿げています。しかしこの結果、ネットワーク中立性撤廃の議決がなされ、アメリカでは現に、インターネット上での自由が著しく制限されることとなりました。一般人への影響は甚大です。笑い事では済まされません。

ボットの裏には、それを使用した人間がいることを忘れてはなりません。これは言い換えれば、ボット(AI)を使った人間が人々を意のままに誘導した、ということなのです。

ボット(AI)が自動投稿した文に人間が踊らされ、政治が動いた――それが現実に起こる時代です。これはもちろん、アメリカに限ったことではありません。

ネットの情報は、全体として質が悪すぎるといいます。人間がいいかげんな情報やデマを流していることはもちろんですが、ボットもその一因です。目玉情報、最新情報……本当は、ボットが自動生成、自動投稿した文にすぎないかもしれません。そしてそのボットの背後には、必ず誰か、人間がいます。おそらくは、悪意ある……。念を押しておきますが、踊らされている人に踊らされている自覚はありません。

ネット上の議論(?)や誰かのブログのコメント欄を見て、自分の投票先を決めた。とあるツイートに共感した。あるいは次で紹介するような、「あなたへのおすすめツイート」を参考にしている。……それは、本当に、あなたの意見ですか?

購買:「おすすめ」の連鎖が生む、世にも不気味な現象

ショッピング系サイトには必ず出てくる「こちらの商品もおすすめ」「これを買った人はこちらも見ています」「あなたへのおすすめ」――このような、個人の閲覧履歴、買い物履歴、また全ユーザーの行動パターン分析から一人ひとりへの「おすすめ」をはじき出して表示するプログラムは、最近では「人工知能」と呼ばれ得るプログラムの代表格となっています。もっとも「おすすめ」表示ならオンラインショップの黎明期からずっとあったわけですが、プログラムの開発が進んだり、AIが一種のブームになったりしたことで、最近呼び名が変わった、という感じでしょうか。

しかしこの「おすすめ」プログラム、何度も何度もくりかえしていくと、世にも不気味なことが起こってくるのです。

きっかけは、ほんのささいな検索です。たとえばモデルケースはこんな感じ。――健康体操の本が世間で話題になっているけど、どんなものなんだろう。お風呂の後に、たまたまちょっくら検索してみた。そうしたら商品ページの下のほうに、ダイエット関係の本が載っていた。おもしろそうだな、と思ってそちらの商品ページを見ていたら、「この商品を見た人はこちらも見ています」と、コレステロールを下げるサプリメントが出てきた。そうそう、コレステロールが気になってるんだった! すぐさまクリックして、流行りの健康体操本といっしょにカートへ入れ、そのままレジへ。数日後、ショップから「あなたへのおすすめ」メールが届いた。載っていたのは「メタボは気にしなくていい」という趣旨の本と、育毛剤と、幼児向け知育玩具と、「副業でお金持ちになることは誰にでもできる」というビジネス書。副業か、いいな、やってみたいな。――

……どこまでが自分の意志だったと断言できますか?

このように、「おすすめプログラム(=AI)」の連鎖によって自分の欲しいものが決まってしまう、自分の価値観さえも流されていってしまう、という不気味な現象が起こってきています

コンピュータープログラムによる「おすすめ」は、検索ワードの履歴、閲覧した商品の履歴、そのアカウントで買ったものの履歴、そして他の人の行動履歴をもとに算出されています。

上の例だったら、過去に、ダイエット本を閲覧・購入した誰かがコレステロールサプリにも興味を示したケースがあったのでしょう。買った物の性質によっては、プログラム側はユーザーの年齢や性別、職業などを推測できます。その属性データが加わると、「コレステロール」と「副業」など、最初の検索とはまったく関係ない事柄が次々と、プログラムによってドッキングされていきます。さらに、あなたの行動は次のおすすめをつくる基礎データとなるので、今度は見も知らぬ誰かのところで、コレステロールサプリと副業本がいっしょにおすすめされている。さて、その人は、コレステロールを下げることと副業を始めることを望んでいたでしょうか。

このように「おすすめ」が暴走していくことで、「主体」の存在を欠いたまま、世の中規模で「人間の行動パターン」が形成されていってしまうのです。もっとも、裏から見えない糸を引いて世の人々に「欲しい!」を生じさせる心理誘導はとうの昔からあるのですが(代表例といえば「マイホーム神話」)、「おすすめ」プログラムの暴走には一部、新しい問題点が含まれているわけです。

こうした心理誘導は、プラットフォーマー(出店形式の大手ショッピングサイト)、さらには歴史上の独裁者のごとき悪に精通した人間の目からしたらどうでしょう。自分の所有物であるおすすめプログラムにほんの少しの細工を加えれば、自分の望み通り、人々を特定のものへ「誘導」することは技術的に可能です。

あなたが欲しいと思っているもの、それは本当にあなたの意思ですか?

関連記事:心理誘導の今昔:人の欲望は、作り出せる

裏には必ず、誰か人間がいる

以上のように、政治にせよ価値観やショッピングにせよ、「自分の頭で考える」習慣が、今あらためて大事になってきています。自分で主体的に判断できず、他の人がどうしているかを気にしたり、周りにずるずる流されたりしていれば、ボットやおすすめプログラムに……ではなく、それを使用している人間にまんまと心を誘導され、「自分」というものまで失ってしまいかねないからです。

ボットに関して言うなら、現段階では、ボットが生成した文はぱっと見だけで判別できることが多いです。たとえば、迷惑メールで「あなたがががが」などと明らかに不自然だったり、あるいは意味が通らなかったりする文を見たことはありませんか? あれはボットにより生成、自動送信されたものです。ランダムなユーザーネームも、たいていボットです。しかし今後、人間と見分けがつかないほどの文を生成・投稿するボットが増える可能性はあります。

人々の心理を、見えない糸を引いて操る。AIと呼ばれるコンピュータープログラムを利用した「世論の操作」は、目に見えにくく、不気味で、恐ろしく、とりわけ政治的決定の誘導となれば、私たちの国家や社会、そして一人ひとりの実生活へのダメージが深刻です。しかしここまで読んでくればもうお分かりですね。これをやっているのはすべて、人間です。

政治ボットの危険性は、国際的に議論になっています。国によっては、すでに法律による規制ができてきます。

プライバシー―機械は忘れない

人間の記憶からは、多くのことがこぼれ落ちていきます。あの人がいつ何と言ったか。あそこへ行ったのはいつだったか。我々人間は、自分が見聞きしたほとんどの出来事を思い出すことができません。

しかし、機械は違います。目や耳に入ったことは、物理的な破損でもない限り、いつまででも覚えています。たとえば一か月前の今日の今、あなたはどこで何をしていましたか? 正確な緯度・経度、秒単位まで正確な時間、買った物すべての正確な商品名や個数まで、機械なら知ったら最後、全部忘れません。

プライバシーというと、意味がよくわからずにいる人や極端な話のように受け取る人が、日本にはまだずいぶんいるようです。「自分のデータ? 別に使ってくれていいよ」とか「そんな隠さないでもいいじゃん」「隠すことなんてないよ」くらいに思っている人もいるとか。……甘すぎです。

あとで取り返しのつかないことにならないよう、「この世で最も悪い人間ならどうするか」を常に考えることが大切です。いつの時代も悪人は、ただでなく頭がいいのですから。

「データ取引」や「データ分析会社」の存在を知っていますか?

「データ取引」というのを聞いたことがあるでしょうか。これは、犯罪としての個人情報売買のことではありません。正当なビジネスとして、今、データの売買は急成長しています。

データ分析会社には、あちらこちらから売られてきたデータ(たとえば顧客情報など)が集まります。それらの断片がどこかでつながってしまったら最後、あなたの氏名、住所、電話番号、メールアドレス、家族構成、毎日の行動パターン、通った道路と正確な時間、学校や職場の正確な情報、事細かな趣味・嗜好まで、まるごと分かってしまうのです。あなたに関する、生涯の大親友や配偶者でも知りえないほど細かで莫大な情報を、見も知らぬデータ分析会社が勝手に閲覧・分析している(ちなみにこれにはAIが使われている)。そして分析結果をまとめ直し、別の誰かに売りさばいている。それが現実に起こっている時代です。

では、なぜ企業はそんな悪趣味きわまりない取引をしたいのか? 理由はいたって単純で、金になるからです。データ取引産業はこれを「ビッグデータの活用」とか「21世紀の資源」などと呼びますが、「データマイニング」で掘られるのは鉱山の石炭でも海底の石油でもなく私たち人間なのですからたまったものではありません。さらに、データが悪意ある者の手に渡れば、恐ろしい犯罪などに利用されるでしょう。

データ取引はただ気持ち悪いだけでなく、多大な危険性をはらんでいます。

それを象徴するのが、米トランプ大統領です。データ分析会社がFacebookから流出したデータを利用してアメリカ大統領選の結果を動かしたとみられるSNS史上最悪な事件について、以下の記事で徹底解説しました。とても重要な補足なので、併せてお読みください。(利便性のため、リンクは新しいタブで開くようにしてあります。)

関連記事:FacebookからCambridge Analyticaへの個人情報流出事件を徹底解説!

危惧する人や団体は、たくさん出てきています。法による規制の動きも各国で盛り上がっており、一部ではすでに実現しています。

プライバシー侵害とは、人が物扱いされることである

物は、人からじろじろ見られても、中身を分析されても、持ち運ばれても、分解されても、何の問題もありません。理由はそれが「物」だからです。

しかし人間は、尊厳ある存在です。頭の中身を勝手に閲覧されたり、体の組成を勝手に分析されたり……といったことは、物扱いに等しい。これが、プライバシーの出発点なのです。

この記事を読んで青くなった方はまず、SNSなどオンラインサービスの使い方やアカウント設定を見直すといいでしょう。なにも、絶対誰にも何も教えてはいけないということではありません。根拠なく疑心暗鬼になるなら、むしろ精神衛生に悪いです。

「プライバシーを守る」とは、「自分に関する情報を自分の管理下に置く」という意味です。相手企業にどこまでなら教えていいか。相手企業はあなたに関する情報をどう利用しているのか、第三者の手にわたることはあるのか。そのあたりを意識するようになった時から、プライバシー環境は飛躍的によくなります。

プライバシーについては、SNSのビジネスモデルやポイントカードに集まる情報といった、別の角度からも解説しました。実用的な対策も載せてあります(別のタブで開きます)。

関連リンク:「Twitter/LINEとは何?」と聞かれて、答えられますか?

関連リンク:ポイントカードから集まる個人情報は?

楽しい会話の相手は、AIキャラクターではない

ここまで読んできてうすうす感づいたかもしれませんが、最初に忠告しておくと、次に紹介する問題点は、スマホのAIアプリとの会話を日々楽しんでいる人にとってはショックで青ざめるような内容に違いありません。しかし、自分がしてきたことの危険性に今気付くことができたなら、それは幸運。気づくのが早ければ早いほど、傷は浅くてすむからです。

さて、最近、人間と会話するのと同じようにおしゃべりを楽しめるAIのスマホアプリが人気になっていますね。たいていは、基本無料。アプリとしてはエンタメ扱いで、スマホ本体に最初から入っていたり、ダウンロード数がかなり伸びていたりします。

……スマホ画面の向こうにいる、アプリの運営会社について考えたことはあるでしょうか。

こうした会話AIアプリでは、「あなたの気持ちや嗜好、価値観を知りたがるので、答えてあげると仲良くなれる」「悩みを相談すると、それに沿った受け答えをしてくれる」「話したことを記憶して、会話すればするほどあなたに沿った提案をしてくれるようになる」などといったことが「魅力」として紹介されています。たいていスクリーンには親しみのわくマスコットや人物が登場し、「キャラクターと会話する」ことになっていますね。

しかし、冷静にその意味を考えたらどうでしょう。

かわいらしいキャラは、表面的なグラフィックにすぎません。現実には、あなたとAIとの「会話」は、全部、外部に、アプリの運営会社に送られているのです。

自分の氏名、年齢、性別、家族構成、学校名や職業(会話した内容によっては細かな内情まで)、スケジュール(カレンダーアプリとの連携から)、趣味嗜好(検索ワードやしゃべった内容などからわかる)はもちろん、体重や健康状態といった普通だったら友人にさえ見られたら恥ずかしいデリケートな個人情報、さらには同僚の誰それの愚痴や体形の悩みといったきわめて個人的な心の内側に至るまで。これだけリッチな情報を差し出してもらえれば、見ず知らずの他人でも、あなたという人間がどんな人かを恐ろしく正確に描き出すことができます。もう一度言いますが、ひとたび話してしまったら最後、機械(正確には、相手企業のコンピューター)は、自力では忘れてくれません。

インターネット上のサービスを使うとき、スクリーンの向こうには必ず企業が存在しています。常に「相手企業と向き合っている」意識を持っていることが大事だと、私はSNSなどについて書くたびいつも強調してきました。この意識をもっていれば、「(自分について質問してくる)会話AIアプリ」と聞けば身構え、相手企業について調べたり、利用規約やプライバシーポリシーを熟読したりするはずなんですよ。ちょっとした遊びのつもりでアプリとおしゃべりしているということは、相手企業を意識するどころか、相手企業の名前すら知らない、なんていうユーザーも決してめずらしくはないのではないでしょうか。

アプリストアにおけるチャットAIの評価
あるチャットAIアプリ。ダウンロードしている10万人は、おそらく自分がしていることの本当の意味に気付いていない。

相手企業は、アプリを通して送られてきたあなたの健康状態や個人的な悩みにまでいたる細かな情報を、一体どのように管理し、使っているのでしょうか。それは企業それぞれとしか言えませんが、一般論として、個人情報の売買や利用価値・悪用価値は先に述べた通りです。「遊び」のサイトから集まった人々の個人情報をまんまと「世論の誘導」に利用した人といえば、まっさきにトランプ大統領の顔を思い出してもらえればいいでしょう。

現に、アプリを使った「会話AI」からの深刻な個人情報流出は、海外ですでに報告されています。“Cloud Pet”というふわふわなユニコーンのぬいぐるみは、Bluetoothでスマホに接続し、専用アプリからインターネットにつなぐことで会話が楽しめるという子ども向けのおもちゃでした。ところが、おもちゃ会社は音声が送られてくるクラウド上のデータベースにパスワードひとつかけていなかった、ということがあとから判明。セキュリティのひどい甘さを突かれ、50万人を超える持ち主のメールアドレス、パスワード、プロフィール写真などといった個人情報、そして220万にのぼる音声データ(幼い子どもやその親が「ユニコーン」にしゃべった一言一言の音声すべて。典型としては、ここから家族メンバーの名前や家族構成がわかる)が流出したとみられています。ほか、まったく同じ仕組みの子ども向け会話AI人形が、ドイツでプライバシー法に違反する「監視機器」とされ、所持した場合には日本円で約250万円以上の罰金が科されることになった、という例もありました。

これらのケースは、会社側が最初から個人情報を収集するつもりで会話AIにふわふわなぬいぐるみをかぶせた、というわけではなかったようですね。しかし、悪意がなかったからといって、その物が安全になるわけではありません。危険な物は危険です。こうした会話AIでは、一見かわいらしくて愛着がわくし、遊んでみるとおもしろいので、人間(とりわけ幼い子)はそれがまさかそんなに危険なものだとは想像だにしない、という問題点が浮かび上がってきます

最初から監視と個人情報収集が目的で「エンタメアプリ」を人々につかませている、後ろ暗い企業。悪意はないけれど意識が足りず、管理が甘い企業。集まった情報の利用方法を公表して透明性を確保している、比較的良心的な企業。まずはスクリーン越しに相手企業の存在を意識して、付き合い方を判断するのが大事です。

……と、ここまではずっと、客観的な語り口で説明してきました。それは私がセンセーショナルに書くことを避けているから、そして、読者であるあなたの自律と尊厳を尊重してのことです。

しかし世の中の現状をみれば、このまま読者を「判断は自分で」と突き放してしまえば、かえって公平性を欠く。そう判断します。

ちょっとした楽しみのつもりで、全然必要ないアプリから、莫大な、取り返しのつかない代償を払ってしまっている何十万の人たちに、私はぜひともこの場で注意を喚起したいのです。その会話AIアプリ、愛きょうある友達の皮をかぶった、個人情報収集用スパイではありませんか? 気軽なおしゃべりからデリケートな悩み相談にいたるまで、すべての会話は相手企業に分析・利用され、見も知らぬ第三者に売られている――付き合いを見直すなら、今です。

AIとインターネットとプライバシーの関係

コンピュータープログラムとインターネットとプライバシー。この三者は、密接にかかわり合っています。

AIには、情報が集積します。どんな種類のデータを取り込むかは、プログラムによります。SNSにアップロードされた全世界の顔写真。防犯カメラの映像。先の「人種差別ロボ」にアメリカの裁判所が読み込ませたのは、犯罪歴や再犯のデータです。「おすすめ」プログラムだったら、全ユーザーの閲覧履歴、購入履歴、ユーザーの属性や時間帯など。GoogleアシスタントやSiri、Alexaだったら、あなたのウェブ検索履歴、閲覧履歴、話しかけた内容、アプリの使用状況、位置情報……。などなど。

直ちに危険だとは言いません。安全が確保されていればいいわけですが……。

企業や公的機関がどのソフトウェアをどのように使っているかは、不透明と言わざるを得ません。私たち人間がAIというテクノロジーに見合ったルールをつくることに失敗すれば、恐怖の監視社会につながる可能性は十分あります

あなたがスマホや家庭用のAIを使っているなら、機器や通信に脆弱性はありませんか? 利用規約やプライバシーポリシーには何と書いてありますか? 相手企業は? 信用できますか? 機械は、忘れない。遊びのつもりで手を出せば、ひどく後悔することになりかねません。

兵器―今すぐ国際的法規制が必要【最新】

人工知能を不安に感じ、俗語的にいう「デメリット」はないのかと知りたがっている人は多いようですが、やはり真っ先に気になるのは兵器・軍事への利用でしょう。人を検知して殺すプログラムを搭載した機械や、家庭用AI機器がハッカーに通信を乗っ取られてスパイカメラや盗聴器、殺人マシンと化すなどといった恐ろしい話は、どこかでちらりと耳にしたことがあるかと思います。

事実を知らないことにははじまりません。「AI兵器」とは具体的にはどのようなもので、現時点で実在しているのでしょうか? 開発はどこまで進んでいて、何より、実際に使用されているのか。ここでは、人工知能の兵器への搭載や軍事利用のいまを解説しようと思います。

無人型・AI兵器の種類

無人型兵器やAIの軍事利用は、火薬、核兵器に次ぐ「第3の軍事革命」とも言われています。

これらの兵器は、次の3種類に大別することができます。すなわち、

  1. 準自律型
  2. 人間監視自律型
  3. 完全自律型

の3種です。1番目の「準自律型」とは、人間が出した指令で標的を選んで攻撃する兵器です。2番目の「人間監視自律型」は、人間のオペレーターの監視下で兵器が標的を選び攻撃します。そして3番目の「完全自律型」は、人間が介在することなく、AI=プログラムが自らの判断で標的を攻撃します。

これら3種類のうち、とりわけ問題となるのが3番目の「完全自律型」です。人間を介さず独自に判断し行動するAIロボットと他のタイプとの間には、明確な違いがあります。

AI兵器の開発と使用の現状

AIが搭載された兵器は、一部の国ではすでに活用されています。

……と聞いたらぎょっとするのは無理ありませんが、現時点で完全自律型のロボットが戦場を駆けまわり人を探して撃っているわけではありません。軍事大国・アメリカでは準自立型が主流で、たとえば米軍の「プレデター」は人間が攻撃を指示する無人攻撃機です。

本題に入る前に、近年の人工知能の軍事利用は何の目的でどのように進んできたのか、その「流れ」を整理してみましょう。

すべての起点となっているのは、「戦闘における人的損失をできるだけ少なくしよう」という発想です。可能な限り兵士を危険にさらさず、犠牲者を減らしたい、ということです。この発想自体は戦闘・戦争の黎明から存在する人類の古典かつ戦争の常識であり、新しいものではありません。現代にはロボットやAI搭載ロボットというものがあるので、「ロボットを活用できたら」という話になっているのです。

戦闘にロボットを導入していこうと決まれば、次には「ロボットをどこでも使用できるよう改良したい」という要請が出てきます。大きなロボットは、半壊した建物には入っていくことができません。大きく重ければ、遠く離れた戦地まで運搬するのは困難です。また、使用場所に運ぶところまではクリアしたとして、戦地は岩場や沼地の場合も多くあります。せっかくのロボットも、現場で使えないなら、ないのと同じです。こうした理由でロボットの小型化・軽量化が目指され、足元が不安定な場所でも進めるように開発が進められていくのです。

では、AI兵器の開発や使用は、現状どこまで進んでいるのでしょうか? 2019年にフランスのBonne Pioche Televisionが優れた取材をしているので、ここではそれを参照しながら事実の確認に集中し、問題点の指摘はあとでまとめて行おうと思います。

操縦がいらないAI搭載ドローン開発のいま

フランスの特殊警察では、人質事件やテロ事件の現場の偵察にカメラ付きドローンが導入されています。現在は隊員がスクリーン付きのリモコンで操縦していますが、将来的にはドローンが人間の操縦なしに自律して飛べるようになることが期待されています。

人工知能の活用により、ドローンの自律飛行は可能になってきています。

スイスのチューリヒ大学では軍事用のAI開発が進んでいて、AIに「ゲート」とはどのようなものかを学習させ、次にそれを「くぐる」ことを教えることで、「ゲートをくぐる」よう自分で進路を調整できるドローンが開発されました。

また、無人飛行ロボットで最先端を行くアメリカ・ペンシルベニア大学のチームは、国防総省の資金提供を受け、外部からの補助や事前情報なしにリアルタイムで見取り図を作れる自律型ドローンの開発に成功。念頭に置かれているのは「ある建物にテロリストが潜伏しているとわかっている」といった状況で、人間が捜査範囲を指定すると、ドローンが自律飛行してターゲットを見つけ出し、犯人の潜伏場所を教えてくるというものです。このドローンは以上に加え、障害物があれば次の行動を自ら判断できるところまできており、未完成ですが特定人物を探し出す研究も進行中だといいます。

小型化、そして超小型化

現場からの希望や意見により、ロボットは小型化・軽量化が進んでいきます。テロの現場や戦場で使われるロボットには、相手に見つからないことが求められるからです。

アメリカやイギリスの軍は、ポケットサイズまで小型化されたカメラ付きヘリコプター型ドローン「ブラックホーネット」を、すでにアフガニスタンで偵察に導入しています。これをテストしたフランス陸軍技術部によれば、「ブラックホーネット」は全長わずか10cmなので場所をとらず、2km・25分間継続飛行でき、昼夜問わず使用可能、敵に見つかる恐れはまずないといいます。ブラックホーネットは数百メートル離れたところにいる隊員に情報を送信できますが、タイプとしては人がスクリーン付きのリモコンで操縦する機械です。つまり、人工知能は搭載されていません。

そしていま世界中で研究開発されているのが、ポケットサイズよりさらに小型な「昆虫型ロボット」です。

フランスのマイクロエレクトロニクス・ナノテクノロジー電子研究所が開発中の「ハエ型ロボット」は、幅はわずかに3cm・重さ22gで、羽を動かす、ハエの羽ばたきを再現するところまで実現しており、現在は飛び立たせる実験をしているということです。また米・ハーバード大のチームは、トンボ型ロボットを水面から羽ばたかせること、ゴキブリ型ロボットにドアの下をくぐらせることに成功しています。

こうした超小型ロボットの開発で最終目標に掲げられているのは、カギ穴やドアの下から音を立てずに部屋へ侵入し、中に人がいるかどうか、内部の構造はどうなっているかを調べる偵察機能、煙や毒物などの探知機能、集めたデータを送信する通信機能などを搭載することです。現時点では機体の部分が完成していないのですから、カメラや人工知能などを搭載するのはまだ先の話となります。

「ロボットたち」の共同作業

以上のような小型化・軽量化のほか、現在盛んに進められているのが「ロボット同士の連携」です。

たとえば、アメリカの国防総省が進めているのは、航空機から自律型のドローンを「群れ」で発進させ、敵の通信を電磁波で拡散するなどの任務をさせるという構想です。現在の目標は、GPSがない未知の場所でドローン同士が交信し、見取り図を作ることだとされています。

先のスイス・チューリヒ大学では、自律型の地上ロボットと上空ロボットを連携して働かせることに成功しました。地上ロボットは現場を移動することはできますが、視野が1~2mしかないという難点があります。そこで、視野の広い上空のドローンが地図をつくり、地上ロボットに障害物の位置などを知らせます。地上ロボットは上空ロボットが送信してきた情報を集約して走行し、実験室では「複雑な地形でケガ人にたどり着き、救命キットを届ける」という目的を達成しました。

こうした「ロボットの連携」は、災害対応等だけでなく、軍事利用の可能性で注目されています。戦地に複数のロボットを放って地図を作らせ、茂みに隠された爆弾や隠れている人を見つけ、別のロボットや人間に攻撃を呼びかける、などができるようになれば革新的だということです。

人間を攻撃するのか?

以上を見てくると、AI兵器の多くは「偵察」を期待されていることがわかります。こうしたAI搭載ロボットには、未知でGPSもない場所、地形的に人間が立ち入れない場所、煙・毒ガス・放射能などがある危険な場所にも入れるというメリットがあります。

では、偵察ではなく攻撃はどうなのか。つまりAI兵器が人を攻撃するのかどうかは、最も気になるところではないでしょうか。

現在のところ、無人型兵器といっても主流なのは準自律型、つまり人間が指示を出すタイプです。米軍の無人攻撃機「プレデター」が人間が攻撃を指示するタイプでしたね。また、イスラエルのゼネラルロボティクス社が開発した武装化した小型偵察ロボット「ロゴ」は、高い殺傷能力を持ちますが、銃撃は人間がスクリーン付きのコントローラーで指示しています。これらは人間の手元、管理下にあるのだからまだ道具の範疇で、武器の新モデルといった感じでしょう。

ただし、なんだ、完全自律型の攻撃機はまだ存在しないのか……と胸をなでおろしてはいられません。イスラエルは、人間が介在せず自ら目標を探して突入、自爆攻撃する無人攻撃機「ハーピー」を開発、そして配備しました。中国やインドが購入したともいわれています。

AI兵器が人道上問題な理由・現実には当面暴走しない理由

以上、ここまでは、AI兵器開発と使用の現状を並べてきました。以下では、問題の所在を明らかにしていこうと思います。

まず倫理上なんといっても問題となるのは、完全自律型のAI兵器に人命を奪う判断をさせるのかということです。機械がある人を生かすか殺すか、どの人を殺すかを決める権限を持つとしたら、公正さがありません。もしそれを認めれば人間が機械と同列の存在に格下げされてしまう、という人間存在への根源的な危惧も主張されています。

さらに、人的損失が減ることで戦争へのハードルが下がりかねない、という指摘もあります。

こうした人命にかかわる倫理だけではありません。小型ロボットは、プライバシーの方面で重大な危険性をはらんでいます。とりわけ、昆虫型ロボットに将来AIが組み込まれた場合です。先ほど紹介した時に勘づいたかもしれませんが、カギ穴やドアの下から音を立てずに侵入するカメラ付きロボットがもし野放しにされたなら、すべての人のプライバシーは完全消滅してしまいます。この類が悪意ある物の手に渡れば非常に危険だということは、何年も前から指摘されてきました(『人工知能は人間を超えるか ディープラーニングの先にあるもの』240頁)。

小型・超小型ロボットは、権力の手に渡った場合、民間人の手に渡った場合、どちらにも重大な危険があります。銃の所持は銃刀法により違法、日本刀にも銃刀法、薬品には薬事法の規制があるのと同じように、製作や入手自体に厳しい法規制をかけなければならない新たな物品だといえるでしょう。

人工知能特有の問題点としては、それをずっとコントロール下に置いておけるかという論点があります。自ら学習するプログラムは、人が予期しなかった行動を編み出すことがすでに多々あるからです。想定外を防ぐことが重要です。

以上のように、AI搭載の自律型兵器には、人道上重大な問題点がいくつも内在しています。

ただ、このようなAI兵器がいますぐにでも暴走するかといえば、そうではありません。

仏警察特別介入部隊の元司令官、つまり現場で戦闘を指揮してきた人物は、武装化されたロボットの導入はそうかんたんには進まないと話しています。なぜなら、人質事件やテロ事件において、犯人逮捕までのプロセスにはさまざまな規則があるからです。彼が一例として挙げるのは「正当防衛」です。日本の刑法では「急迫不正の侵害に対して、自己又は他人の権利を防衛するため、やむを得ずにした行為は、罰しない(36条1項)」と定められているこの法理により、たとえば相手が撃ってきたときに自分の命を守るため撃ち返した隊員は罪に問われません。ということは裏を返せば、ロボットはただの機械=モノなのだから、正当防衛は成立しないのです。これでは事件現場では使えませんよね。

さらに、仏国防省国防イノベーション庁長官は、戦場の兵士がロボットを心から信頼できるようにならない限り、指令は人間が出すと話しています。

こうした言からは、事件現場や戦地で実務に携わる人々にとって、AI兵器は現状そう使い勝手の良いものではないことが見えてきます。

「木を見て森を見ず」ではありませんが、現実社会はとても複雑です。AI兵器について世の中では恐怖をあおったり興味本位で語られているところを見かけますが、SF映画のようなイメージ映像は必ずしも現実化するとは限りません。新しいテクノロジーにも、広く複雑な社会での位置づけというものがあるからです。

兵器に人工知能が組み込まれた場合に生じる危険性は言うまでもないので、あらかじめ可能性を予測して、確実に手を打っておかなければなりません。他方、もしかしたらああなるかもしれない、こんなことって起こるのかな、といった根拠のない空想なら、それは理性と事実確認によって手堅く排していくべきです。

AIの兵器・軍事への利用は、個別のロボットや兵器それぞれについて「事実」をねばり強く確認し、ならびに、人工知能以前から存在してきた戦争における国際人道法など、現実社会との関係をきちんと把握して論じていくことが大事でしょう。

政府と民間企業・大学とカネ―危険な人間たち

私がここでもう一点ぜひ指摘しておきたいのは、テクノロジーの面ではなく、開発をめぐる問題です。

兵器の開発には、巨大な利権がからみます。

9・11同時多発テロ以来、アメリカは莫大な資金を投じてロボットや監視システムの開発を進めてきました。20会計年度には、無人型兵器の開発に約37億ドル(約4000億円)、AI関連に約9億ドル(約960億円)の予算を計上しています。中国やロシアも、AI兵器の開発に毎年巨額の予算を投入しています。

上記で現状を整理したなかでは、AIを研究・開発しているさまざまな大学や民間の企業が登場しましたね。では、その実態は具体的にどういうことなのか。各国政府は、民間企業や大学に巨額な資金を提供したり、共同開発をしたりしているのです。

こうした官と民の蜜月はかねてより、汚職や、国家権力による学問の自由抑圧の温床となってきました。

国家権力は民に対し、政府の望む研究をすれば資金を出すし「のってこない」なら出さないと、カネをちらつかせる。企業や大学の側は「カネを得るためには政府の意向にのるといい、のっていかなければ」と官に迎合・追従していき、やがてはその独立性を失う。科学者の倫理、そして政治への批判を含む学問の自由(憲法23条)は隅に追いやられ、カネによって民が兵器開発へ懐柔、誘導されてゆきかねないのです。

汚職や自由抑圧は、AIのせいで起こるのではありません。危ない人間たちが巻き起こす、カネがらみの泥沼です。私たちの暮らす社会が取り返しのつかないことにならないよう、官民の癒着、国家権力による大学への支配、学問内容への介入は、研究者自身も一般市民も、細心の注意を払って監視していかなければなりません。

国際法規制の動き

これまでも新たなテクノロジーが出現するたび、悪用を未然に防ぐための法整備は行われてきました。インターネットはおびただしい規則にのっとって利用されているし、古典的なところでは銃の所持は銃刀法で違法とされています。同じく、AI搭載ロボットにそれ相応の法規制がなされるのは当然の流れであり、もとより戦争と密接な人工知能には国際的な法規制が必要です

科学界、そして多くの国々が、完全自律型殺傷兵器の禁止を求めています。

2017年には、人工知能やロボット工学の科学者ら100人超が国連に「自律型致死兵器システム(頭文字をとってLAWS。キラーロボットとも呼ばれる)」の禁止を求める書簡を公開しました。

LAWSを禁じる国際条約創設の主張もなされています。ただ米・英・ロシア・イスラエルなどは条約づくりに反対しており、もともと人工知能は定義があいまいなこともあって、LAWSの定義すらはっきりとは定まっていません。

2019年には、スイスで開かれた政府専門家会合で、「すべての兵器システムに国際人道法が適用される」「兵器の使用責任は人間にある」など11項目の指針が採択されました。法的拘束力はないものの、指針の内容は合理的といえるでしょう。

人類は、もっともらしい理由をつけては戦争を繰り返し、止まらない止まれない軍拡競争を繰り広げては、自らにこの世の地獄を招いてきました。

軍備を減らそうと言っている時に、新手の兵器を増やす方向へ世界が進んでいる――。総体としての人類は、頭がいま一歩な種だと言わざるを得ないでしょう。

そんな人類が考えるべきなのは、頭が良くないなりにはなんとかやっていく方法です。たった一つの世界でともに生きていけるよう社会を整備しなければならないし、その程度の知恵はしぼれるはずです。

AIの可能性と未来―全然心配いらないこと

ここまで、AIについて今すぐ対応が必要な問題点を5つみてきました。どれも私たちの生活や権利に被害が及ぶ事例ばかりです。

しかし私が言いたいのは、裏を返せばこれら5つ、すなわち

  1. 差別
  2. 冤罪
  3. 世論の誘導
  4. プライバシー
  5. 兵器

以外のことは全然心配いらないということです。人工知能に関する情報は玉石混交……というより、率直なところを言えば、白昼夢レベルの話が平気で闊歩している状況に私はうんざりしています。世には「人類は滅ぶ」などというSF映画のような話まで出回っていますが、冒頭で挙げた例のように、人工知能はそんなたいそうなことができる代物ではないというのが現実です。

すべてテクノロジーは、使い方によって良いものにも悪いものにもなります。それは、AIでも変わりません。人工知能がある未来は、可能性に満ちているといえるでしょう。

人間がAIを利用する新しい時代
人工知能をパートナーに。

AIを使って仕事

職業事情は常に移り変わっている―仕事がなくなる心配はいらない

現在の仕事の種類・分類は、決して絶対ではありません。職業事情は、時代とともに変化するものです。

AIの出現で仕事がなくなる(もっとセンセーショナルな言い方だと「人間がAIに仕事を奪われる」)という流説がありますが、これは心配いりません。

過去の一時代を例にとってみましょう。江戸時代の職業事情は、すっかり様変わりしましたよね。たとえば、飛脚という職業は自動車というテクノロジーの出現で消えました。しかし運送業なら、今でもれっきとして続いています。

もっと身近な例として、私たちが実際経験してきたインターネットの黎明期を思い出してみましょう。インターネットは、第三次産業革命だといわれます。この記事では立ち入りませんが、インターネットは華々しい可能性をもたらしました。また、インターネット関連の仕事・職種が大量に増えました。たとえばウェブデザイナーという職業は今ではメジャーですが、90年代にはまだ存在すらしていませんでした。当時も「インターネットによってなくなる仕事」系統の話はいくらもありましたが、ふたをあけてみればインターネットのせいで仕事を失ったなんていう人はいない。それが現実です。

さて、人工知能は、あまたの技術がかつてそうであったのと同じく、新しいテクノロジーです。第四次産業革命になるともいわれます。人工知能により仕事のやり方が変わるとか、新しい職業が生まれるといったことは起こるでしょう。しかしだからといって、私たちの仕事がなくなるというわけではありません。人類が今まで幾度となく(時には意識すらせず)経験し、乗り越えてきたことがまた起こるというだけです。

注意すべきものがあるとしたら、それは金儲けをする人間

以上の通り、人工知能によって仕事がなくなる心配はありません。

なのに世の中にはAIへの恐れをあおるような言葉が、むやみやたらと出回っている。また恐怖とは逆に、AIと呼びうるものなら何でもすごいもののように言い立てる風潮も気になります。

もしあなたが「人工知能が出てきたら、自分の人生が暗転してしまうのではないか」と将来への不安を感じていたなら、それは以下のような文句を目にしたからではありませんか?

  • 「人工知能にとってかわられる仕事ベスト10」
  • 「人工知能が仕事を劇的に変える――不要な人材にならないためのスキルを身につけよう」
  • 「AI時代を生き抜くノウハウを教えるコンサルタントです」
  • 「ライバル社はもう人工知能を導入している!? 乗り遅れた企業は、淘汰される」
  • 「AIに負けない子を育てるメソッドを紹介します」

こういった本や記事などは「人工知能についての(正しい)情報」のように見えて、そうではありません。では何なのかといえば、宣伝(マーケティング)です。まともな本や記事、テレビ番組などといった姿形は化けの皮。巧みに隠されているかもしれませんが、それはあからさまなCMの形をとらない宣伝なのです。

「まずは脅して不安感をあおる→商品/講座/本/サービスなどを持ち出す→『これを買えば安心ですよ』とせまる」という「不安解消型」の宣伝は、詐欺や悪質商法の典型的なパターンです。

例をいくつか挙げてみましょう。大学の新入生に「これからの時代は英語ができないと就職できないんですよ」とすり寄って、高額な英会話教材を買わせる悪質業者。最近この手でよく聞くのは、投資関連の教材です。将来にお金の不安がある時代だからでしょう。この類は性質悪いですが、法律的には詐欺ではなく、正当な売買だというケースもあります。あと前よくあったのが、白アリ駆除業者。テレビでやっていたシロアリ被害の話題に便乗して(あるいは自ら裏で動いて白アリのおそろしさを世に垂れ流して)家々を訪問し、「今話題のシロアリ被害、無料検査実施中」だと言って軒下や屋根裏にもぐりこみ、「お宅の柱もシロアリにボロボロにされてます! このままでは家が倒壊しますよ!」と写真を見せて住人を青ざめさせ、駆除の申込みをさせる。

……悪質商法のこういうパターン、なるほど、と思いませんか?

上にリストしたのは、このパターンの新しいバージョンにすぎません。まずはAIへの恐怖と不安感をあおることで、書籍やスキルアップ講座、子供向けの教材などを直接または間接的に買わせるわけです。

まったく、あくどい商人の考えることはいつの時代もあまりに変わらなくて、むしろ感慨すら覚えるほどです。

もっとも、うさんくさい商人だったらとうの昔からいました。AIスピーカーをすごいすごいと言い立てる宣伝広告は、江戸時代に大げさな実演販売をしたガマの油売りや、大正時代に派手な口上で客をよせたバナナのたたき売りの現代版。ちょっとしたうさんくささやオーバーな表現だったら、商売の世界ではご愛嬌かもしれません。

しかし、情報過多で大衆化が進み、フェイクニュースが世を荒らしまわる現代では、根拠なき不安をあおるのは「ご愛嬌ですよ」ですむでしょうか。

人工知能自体は怖くありません。しかし、いいかげんなことを吹聴して人々の不安感をあおり、世を混乱させてでも自分がカネを儲けようとする人間には、戦慄します。

見下げ果てた「商人」は批判に値します。しかし、私たちがだまされなければ、実害は生じません。AIに関する話題を耳にしたときは、話が水面下で金儲けにつながっていないかどうか、考えるくせをつけるといいでしょう。

以上のような「商人」に出くわしたら、文字通りに受け取って「大変だ……」と真剣に悩むのではなく、ガマの油売りや、バナナのたたき売りや、投資の教材や、白アリ駆除業者なんかを頭に思い浮かべつつ、「てえへんだっ!」くらいの軽いノリで受け流すことをすすめます。

AI活用で、仕事がうんと楽に!

「てえへんだっ!」くらいのノリで「商人」を追っ払ったら、いよいよAIの可能性について語りたいと思います。仕事の場面では、これまで人間がしてきた作業をAIによってうんと楽にできる日が、もう視野に入ってきています。ここでは私がなかでも期待している活用法をピックアップします。

まずは、農業や畜産。温度管理をAIが行ったり、ロボットが農薬を散布したりという活用法が考えられています。そういったプログラム搭載ロボットが人間の代わりに働くことで、拘束時間、労働時間を劇的に減らせます。これは農業や畜産以外の重労働でも期待できます。

それから、製造業。単調な作業を機械が自動化すれば、人間の手作業をうんと省ける上、生産性アップも見込めます。

事務員の作業では、今私たちが仕事にインターネットやアプリを使っているのと同じような感覚で、それぞれがAIを使用する時代が来そうです。とりわけ自動翻訳は目覚ましく発展しています。書類作成や取引上の会話なら、機械による翻訳で十分です。国際取引の敷居が今よりうんと低くなり、広がっていく可能性があります。

拘束時間が長く、地道で機械的な作業はつらいのに、生産性は少ない……そんなブラックともいえる労働を、AIによって目覚ましく変えられる。すばらしいじゃありませんか!

AIによる自動化・機械化をうまく活用すれば、私たちはより人間らしい生活へと踏み出せます。私はその可能性に、とても期待しています。

アートは永遠にアート

人工知能が絵や音楽、小説や映画などアート作品を作れるようになってきています。アートにたずさわる人のなかにはそんなAIを脅威と感じ、拒絶反応まで起こす人もいるようですが、これもまったく心配いりません。(もっとも現段階では、「ベンジャミン」というAIが作った映画の脚本はおそまつな出来だったというのが現実なのですが。)

表現は、人間の根源的な欲求

そもそも、人はなぜアートを作るのでしょうか。

自分が表現したいから。つきつめれば、それに尽きるでしょう。10年かけて緻密に組み立てた叙事詩であれ、自分だけに宛てて書いたつらい体験の手記であれ、ちょっとフォロワーに見せたいなと思ったパフェの写真であれ、すべての表現は「やろうという気持ち」が出発点です。作品という「ブツ」は、必ずしも最終目標ではありません。

表現することは、人間であることと切っても切り離せない、根源的な欲求です。

いつの日かAIが人間のアーティストとまったく同じ作品を生成した、と仮定しても、それは創作をやめる理由にはなりません。アートは、表現したいという気持ちと、表現する行為・行動に意味がある営みだからです。

作品を機械的に作る「人間」が、昔から大勢いる

アートの根本を確認したところで、まずはアートを受け取る側の視点に立ってみようと思います。

テレビ番組のAI特集で、アナウンサーが「機械が作ったものなんかに感動させられたくない~」と言っているのを目撃しました。

しかし、私はなんだか気の毒になってしまいました。

というのも実は、小説や漫画、映画の脚本、歌などを「機械的に」作っている人間の作家・アーティストなら、すでに大勢いるからです。アートの分野それぞれには、作品のパターンが人間によって抽出されています。たとえば映画だったら、登場人物を「パターン」から選んで組み合わせ、ストーリーの「テンプレート」にはめていくだけで、うけるストーリーは簡単に作れます。エンタメ業界には「ヒット作を作るのは簡単だ」という格言があるそうです。機械的に「うけるストーリー」を生成したら、あとは人気の俳優や歌手を起用して、宣伝費をかければ、客は一定数集まるのでヒット作になるのです。

こういった人間の「作家・アーティスト」がする「創作」は、機械的な作業にすぎません。このタイプの「作家」については、他でもない本人たちが「芸術家ではなく職人だ」とよく言います。

あなたがうんと感動した小説や漫画、映画、歌なども、実は想像しているほど芸術的なものではなく、「作者」がテンプレートにあてはめて生成し、売りに出した「コンテンツ」にすぎない可能性はあります。言い換えると、機械的に作られたものに感動させられたことは、人工知能がない時代から、誰にでもすでにかなりの回数あるでしょう。人工知能がアートを作るのは、農薬散布などと同じく、人間の職人型作家・アーティストがやっていた「作業」をAIが部分的あるいはすべて代行するようになる、というだけの話です。

作品を機械的に作る「アーティスト・作家」の存在をこの記事で初めて知った方は、おそらくひどく幻滅して、アートに不信感を募らせたことと思います。夢を壊してしまってなんだか申し訳ないので、あまり深くは立ち入れませんが、だったらどうすればいいのかについて言及しておきます。

すべてアートに触れるとき、いちばん大事なものは、主体性です。

その作品が機械的に作られたものか否かは、一応意識しておいたほうがいいでしょう。作者はどんな人物で、何のためにそれを作ったのか。それを確認すれば、確証まではないとはいえだいたい判断できます。(ちなみに、作者の権威や知名度はまったく参考になりません。ヒット作を作るのが簡単なのと同じように、「権威ある作家」もビジネスのテンプレートに沿って「作る」ことができるからです。)そうやって「大人」な広い視野をもっていれば、時の権威・権力のプロパガンダに踊らされる危険をうんと減らすこともできます。

仮にそれが機械的に作られた「コンテンツ」だったにせよ、だから直ちにだめということではありません。好きだったら胸を張って好きでいい。アーティストの在り方は自由かつ多様で、こう在らねばならないというただ一つの答えがあるわけではありません。人を楽しませたい一心で作品を作ったエンターテイナー型の作者に対して、「楽しませてくれてありがとう!」というやさしい気持ちは貴重です。

どう感じたか。どこに感動したのか。そういう気持ちや考え方は、他の誰とも違う、あなたの完全オリジナルです。アートに触れるとは、他者と出会うことです。好みや感じ方から自分が見えてくる、ということでもあります。

では、その作品(ないしコンテンツ)に価値はあるのか。その問いに、自分以外の誰かが用意した解答はありません。評論家やヒットチャートなど、いかなる権威やデータにも賛同する理由はありません。それは自分の頭で考え、自分で決めることだからです。

「AIが再現した故人」は「本人」ではない

近年、「AIがすでに他界した有名なアーティストを再現する」という趣旨のテレビ番組が見受けられます。2019年にはNHKが、歌手の「美空ひばりをよみがえらせる」という年末番組を組みました。こうした「人工知能で故人を再現」の類について、ここで事実をまとめておこうと思います。ここまでずっと読んできた人にとっては全部当たり前だと承知はしているのですが、念のため、です。

まず、コンピュータープログラムに美術、音楽、小説等の歴史上の人物をまねさせる試みは、かねてよりありました。レンブラント風の絵画を生成させる、ショパン風の曲を生成させる、といったことは一部ですでに可能となっています。

今日では偉大な画家や作曲家にも、その道への第一歩を踏み出した日はありました。彼らは美術学校などの門をたたいて技能を勉強し、磨き、自分なりの考え方を確立していったのです。ソフトウェアがその技術や思考法をなぞっているだけなのだから、とくに不思議な点はありません。

「美空ひばりをよみがえらせる」番組について言うなら、音声合成ソフト(ボーカロイド)の研究・発展は、かれこれ十余年前より盛んになっています。ボーカロイドと聞くとアニメのようなキャラクターを思い浮かべる人もいるでしょうが、音楽ソフトという観点で見れば、あれは一つの娯楽向け企画商品にすぎません。運のいいことに私は音楽を趣味としているので、音楽の世界における「音楽ソフト」の全貌について説明しておきましょう。音楽制作には、録音、音響効果、録音した音源の編集、自動作曲、楽譜の作成、そして楽曲の制作などさまざまなソフトがあり、楽器店やパソコンソフトの売り場に行けば誰でも買うことができます。うち、パソコン上で楽曲の各パートを「打ち込む」ソフトは、多くの音楽愛好家に使用されています。たとえば歌とギターをやるミュージシャンだと、あらかじめ音楽制作ソフトでピアノとドラムとバイオリンのパートを作っておき、その音源を流しながら自分がいっしょに歌うことで、バンドを組まずとも一人で5パート分の壮大な音楽を演奏できる、という具合です。こう考えれば、音声合成ソフト=ボーカロイドは「ボーカルのパートを作れるソフト」という位置づけになりますね。

人工的な声を作るだけではありません。近年音声データを解析するソフトも発展していて、最近ではヒトラーの膨大なスピーチを分析するなど、画期的な研究を可能にしました。先の番組で美空ひばりの歌唱技術やくせを解析するのには、こうした音声解析プログラムが使用されています。

以上のようなソフトウェアによる「亡き人の再現」は、コンピュータープログラム事情を正しく理解している人には少しも驚くようなことではないでしょう。また、音声解析により美空ひばりの歌唱法を研究するのは、とりたてて後ろ暗いことではありません。

「故人の再現」に関して注意点があるとすれば、それはあくまでソフトが合成・生成したものであって、本人とは一切関係ない、ということでしょうか。

「よみがえらせる」などという言葉の表現からは、「死者を復活させる禁断の技術……」とか「死んだ人が生き返ってあなたの前に現れる」といったホラーファンタジーのような印象、あるいは「亡き人のコピーを人工的に作ったのだ」といったSF映画のようなイメージが連想されるかもしれません。しかし、できあがったものは、あくまでデータ解析に基づいた新しい作り物。当たり前すぎて書くのがはばかられるくらいなのですが、映像や音声、しゃべり方などがたとえどんなに似ていても、それは本人とはまったく別の物体です。本人の手は一切加わっていません。同意もありません。視野を広げて見ればわかりやすいでしょう。人間がこれまでもやってきた「分析」作業に最近のソフトウェアを導入した、ということです。

テレビの娯楽番組は、物事を「おもしろく」語らなければなりません。視聴者の興味を引き付け楽しみを提供するために、「死んだ人をAIでよみがえらせる」などと刺激的な表現をするのです。こうした番組と付き合うときには、「ファンタジー風の慣用表現を言葉通りに受け取らないように」という点だけは必ず頭に置いておくべきです。冷静な頭で現実を見据えればとてもかんたんなので、心配はいらないと思うんですけどね。

自分は自分。アートに他人は関係ない

すべての人は一生のうちで、表現の受け手・作り手の両方を、とっかえひっかえ、星の数ほど経験するもの。次には、アートを作る側の視点に立ってみます。私には、一部のアーティストがAIに脅威を感じる理由が理解できません。だって、自分の創作に他人のことは関係ないじゃないですか

他にもアーティストがいるから、という理由でアートをやめてしまう人などいませんよね。私たちは、他に何万人いようが自分も作家になったり、伝説の奏者がいようが「好きだから」と楽器を演奏したり、他の人がすでに投稿していようが自分もパフェの写真を加工してアップロードしたり、といったことをごく普通にしてきました。その「他人」がコンピューターであれ、何ら変わりはありません。他人は他人、自分は自分です。

「職人型の作家」が仕事がなくなる心配をしているなら、この記事をさかのぼってもらえばいい。職業事情は、常に移り変わっています。今とまったく同じ形ではなくなるかもしれないけれど、その時代には似たような仕事があるはずだから、問題ありません。

個人的な思いを語らせてもらうなら、「AIの進出」を心配している作家にとって、自分の作品はAIがやるならやめてしまう程度のものなんでしょうか。自分の意志で作品を作ったことがある人ならわかると思うんですけど、できあがったのがどんなものであれ、作者には誇りがあるはずです。心もないのに肩書き欲しさで作家になったからそんな心配に迷い込むんじゃないか? 自分が機械みたいな人間だから「別の機械」の出現が脅威なのでは? 最初に書いたけど、アートは心です。

また、「言論」は人類が終わるまで不滅です。たとえば、人工知能が「人種差別に反対する」内容の小説を作ったと仮定します。AIがすでにやったのだから、人間はもう人種差別に反対する必要はないでしょうか? とんでもないですよね。大事なことは、大事さに応じた量、世の中で語られるべきです。また、声を上げることで自分を、そして周りの世界を変えられるということは、人間にとっていつの時代も変わらぬ真実です。

私は作家です。言いたいことを言う。自分が表現したいと思ったものを作る。それはいつまでも変わりません。人間並みの作品を作れるAIが出てくるのが、私はむしろ楽しみです。

結びに―テクノロジーの問題は、人間の問題

差別、冤罪、まちがった情報、世論の誘導や理性を欠いた投票、プライバシーの侵害や恐怖の監視社会、そして戦争。これらの問題点はすべて、AI以前から存在しています。新しい話など、一つたりともありません。

私が特に強調したいのは、センセーショナルな情報を流して人々を右往左往させているのは、ほかでもない人間であるということ。ここにAI機器は少しもかかわっていません。

自分の頭で考え、自分で決めることが大事だと言いました。しかし、これは新しいコンピュータープログラムが出てきたからそうなったのではありません。昔も今も将来も、主体性は人間にとって核心です。

人工知能の問題は、新しいテクノロジーにも反映された、人間の諸問題なのです。

私はもともとゲーム好きなので、コンピュータープログラムはずっと身近なものでした。インターネットには助けられ、可能性を感じ、こうして今、自ら存分に活用しているくらいです。そういうわけでインターネットと関係の深い人工知能のことも、自然と知るようになりました。だからこそ、地に足のつかない夢は見ない。根拠なき不安や恐怖も抱かない。あるがままの人工知能を見つめ、私たちの未来を考えているところです。

この記事で扱った各論題は、語り出したらきりがありません。本当は、あれについてもっと書きたい、これについて言及すべき、それについては例がほしい、個人的な実感も話したい……という部分が多々あるのですが、今回はここまで。冷静な頭で考え続け、新しい時代を一緒にすばらしいものにしていきましょう。

参考資料・リンク

著者プロフィールTwitterではブログ更新のお知らせ等もしていますので、フォローよろしくお願いします。

『マンガでわかる人工知能』三宅陽一郎監修、備前やすのり・マンガ(池田書店、2018年)

もし人工知能についてその道の専門家からきちんと学びたいなら、この一冊でいかがでしょうか。マンガで解説系の本だと内容は薄っぺらいのかな……なんていうのとは逆で、ちょうど我々が知りたかったことを網羅した良書です。ガマの油売り形式でもシロアリ駆除業者型でもなく、現実のAIに立脚している点でも良書です。

『人工知能は人間を超えるか ディープラーニングの先にあるもの』松尾豊著(KADOKAWA、2015年)- こちらもAI研究者が開発の歴史、可能となったこと・まだ実現していないこと、予測される問題などを解説した、一般によく読まれている書です。

Rise of the racist robots – how AI is learning all our worst impulses – 「人種差別ロボット」を報じたガーディアン紙の記事です。

Face Value – 冤罪事件のスティーブン・タリ―さんへのインタビューが載っています。顔認識ソフトでは、製作者に悪意があったか否かは別としてこれまた人種差別が問題になることがあり、そのことも論じられています。

I Spy With My Digital Eye – ネットにつなぐとおしゃべりできるユニコーンのぬいぐるみの事件はこちら。

「Science vs Terrorism」 – フランスのBonne Pioche Televisionが2019年に制作した、密度の濃い良質なドキュメンタリーです。日本ではNHKが放送しました。AI兵器に直接携わっている特殊警察や軍人、大学や民間企業の懐に飛び込んで取材する姿勢は、ジャーナリズムの鏡です。

攻撃の最終判断、人間かAIか 「自律型」米中ロが開発急ぐ – 2020年6月20日の朝日新聞の記事です。無人型兵器・AI兵器の開発状況や各国が計上している予算の額、倫理上の問題点や国際法規制のいまが報じられています。

関連記事―こんなところにも登場する人工知能

私は他にも多くの人工知能にかかわる記事を書いてきました。今回論じたことを別の視点から見ることができるので、ぜひ併せてお読みください。

個人情報流出事件から考える、インターネットの使い方と私たちにできる対策 – SNS史上最大最悪といわれるFacebookとデータ分析会社ケンブリッジ・アナリティカの事件を解説しました。トランプ大統領の誕生は、データ分析を駆使した心理操作の結果である――まるでSF映画を見すぎた人の白昼夢のようですが、これは現実です。私は近年で最も重要な事件だと考えているので、全容を徹底解説しました。

ポイントカード今昔:Tカードの個人情報第三者提供拒否ガイド付き – この記事で論じたプライバシーの問題点を、ポイントカードという別の視点から説明しました。最近、電子マネーやスマホ決済を便利だ便利だと持ち上げ、まるで「キャッシュレスは進んでいて現金払いするのは遅れている」かのように言い立てる者が現れていますが、読者の皆さんにはその裏事情がもう見えていると思います。大事な補足もあるので、併せてお読みください。『マンガでわかる人工知能』でも述べられていますが、呼び名がAIとなろうとも「それら」はコンピュータープログラムにすぎず、ドラえもんのように人間と何ら変わらないロボットは現段階では夢物語にすぎません。

GAFA独占の問題点と日本の現状・課題 – アップル製品のSiriやGoogleアシスタント、アマゾンのAlexaによる「会話盗み聞き」事件を解説しました。処置が早ければ早いほど、傷は浅くてすむもの。もしスマホ等の「AIアシスタント」を利用しているなら、青ざめるかもしれませんが必読です。

映画『2001年宇宙の旅』あらすじ・解釈・感想―人の個性は本当にいろいろ – 有名なSF映画で、超高性能コンピューター・HAL9000(通称・ハル)の「人間への反乱」が描かれています。そのストーリーや事実関係などを知りたい方はこちらの記事でどうぞ。

『2001年宇宙の旅』続編は理路整然!―映画『2010年』レビュー – 映画に関する記事だったので深入りはしなかったのですが、『2010年』が冷静に描いたAIと昨今氾濫する悪質な情報とを引き比べました。そしてあらためて「深入り」したのが今回の記事です。

純文学とエンタメ作品の定義と実情 – 人間が機械的に作り出す「コンテンツ=エンタメ作品の極」について解説してあります。AIのアートについて論じるなら、まずそもそもアートとは、というところから。

(記事公開:2018年8月3日。加筆・編集:2019年7月25日、冒頭の定義を加筆し、おすすめプログラムと会話アプリについて新たに書き下ろしました。2019年12月31日、「故人の再現」の箇所を新たに書き下ろしました。2020年7月18日、「兵器―今すぐ国際的法規制が必要」の項のほとんどを書き下ろし、表題に「デメリット」の語を加えました。)