人工知能が一般に普及すると、真っ先になくなるであろう職種

 今週は “人工知能” に関するニュースが世界で取り上げられた1週間だったと言えるでしょう。

 日本では人工知能による創作小説が「星新一賞」の一次審査を通過したことが報じられましたし、アメリカではマイクロソフト社の人工知能がツイッターに問題発言を投稿したことがニュースとなりました。

 どちらの人工知能も要改善であることは確かなのですが、精度が上がれば、人間が行っている職業に取って代わることとなります。どういった職業が候補と言えるでしょうか。

 

 日本で開発中の人工知能は2パターンあり、次のようなプロセスで「星新一賞」に応募した作品を作り上げていたとのことです。

  • 登場人物の設定、話の筋などの『部品』は人間が用意。AI(人工知能)はそれを基に小説を執筆
  • 人狼という推理ゲームをAIにプレーさせ、面白い展開となったものを人間が文章化

 

 人工知能というイメージでは、1つめの開発手法の方が当てはまるでしょう。この開発が進んだ場合、記者・デスクといったメディアで人間が携わっている仕事のほとんどがAIに置きかわることを意味していると言えるでしょう。

 ニュース報道の根幹である「いつ・どこで・だれが・なにをした」という『部品』を人工知能に入力すれば、(改善点が多く存在する)現在の人工知能でも新聞用の記事やニュース番組用の原稿を作り上げることが可能であると思われます。

 朝日新聞が求める “角度を付けた記事” をアウトプットするなどは朝飯前ですから、高給取りの論説委員から失職することを意味しているのです。

 インターネットの発達により、本物の専門家も万人に対して情報発信ができる時代になったのですから、ちょっとした物知り程度の論説委員による解説の価値は下がりつつあります。専門ニュースを噛み砕ける解説力と文章力がなければ、ますますAIに職を奪われることになるでしょう。

 

 ただ、人工知能が学習機能をうまく活用できるようになるまでには少し時間を要すると思われます。

 マイクロソフト社が開発中の人工知能『Tay(テイ)』はネットユーザーたちの格好のオモチャとして遊ばれ、公開が中断されることになりました。ニュースの内容から、『Tay(テイ)』に存在した “脆弱性” を突かれた可能性が高いと言えるでしょう。

 おそらく、アメリカ社会でタブーとして扱われているテーマには言及しないよう初期設定されていたはずです。ところが、「Repeat after me. (私に続いて繰り返してください)」という方法で、タブー視されている発言をさせることが可能であることが発覚し、ユーザーたちのオモチャと化しました。

 シンプルに述べますと、日本のメディアが政治家に向けて行う誘導尋問や揚げ足取りと同じことを、ネットユーザーたちが人工知能『Tay(テイ)』に対して行ったのです。

 問題発言であることを学習する機能も備わっていたと思われますが、一般ユーザーが意図的に「問題発言ではなく、すばらしい発言だ」と称賛すれば、人工知能は “すばらしい発言” をしたと認識することでしょう。

 

 発言主に対してプライオリティ付けをしなければ、数の上で優位な立場にあるポピュリストの代弁者になることは目に見えているでしょう。信頼できる専門家の意見をどう反映させることができるのかが、鍵になるのではないでしょうか。