“意志”こそが人間の独自性なのかもしれない

 

感情はコンピュータとしての脳が起こすエラーかもしれない

  
クラウドからAIへ
  

こちらの書籍を読みました。内容としては、AIの研究の歴史や現状など、大枠をざっくり理解するのにとても良い本、といった感じです。
そちらに関しては他の方の書評や、是非実際に本を読んでみるのが良いと思います。
 
今回のタイトルは、この書籍の最後の方で言われている、

人工知能が人間のようになるなら、きっとそれらは働かずにFacebookやTwitterに興じるはずだ

という話を見て思ったことです。
 
「賢い人工知能」ってなんやねん?と聞かれると、「人間の脳みそと同じことができる機械」と答えることに、特に違和感がない人が大半な気がします。
が、よく考えると人間ってとてつもなく非合理的で、戦争はするしゲームはするし、基本だらだらしてるし、仕事中でもすきあらばFacebookを見てしまいます。
これって、本当に賢いんですかね?
もし、人間をそっくりそのまま模倣しようとすると、そんな何にも使えないロボットが出来あがってしまう、ということです。
 
ちなみに書籍内では、「そんな怠惰な人間を完全に模倣するようなAIは作る必要がないし、必要がないから実現もしない」と述べられています。なるほど。
 
 
が、ここで僕が思ったのは、むしろ「なんで人間にはそんな意味不明な機能が備わってしまったんだろう?」ということでした。
 
もっとストイックに、種の繁栄だけを追求するようにできてれば、みんなせっせと働いて、せっせと豊かになって、せっせと子供をたくさん作る、みたいに脳ができてれば、それこそ超優秀だし、種の繁栄にも良い気がするんですよね。
 
で、よく考えると、人間は種の繁栄のためにならなそうないくつかの余計な機能を備えていることがわかります。
・何度訓練してもうっかりミスをする(コンピュータは、一度アルゴリズムが組めれば、おなじ事はほぼ100%実行できる)
・忘れてはいけないような大事なことをたまに忘れる(コンピュータからしたら、情報の保存はもっとも楽勝な行為)
・何度か反復しないと記憶ができない(コンピュータには入力すれば即覚えてくれる)
等、これらの特徴は、古典的なコンピュータでもできるのに、人間には何故か当たり前のように不得意になっているわかりやすい例かと思います。
 
 
なぜこんなことになってしまっているのか。
僕の少ない知識からの推測なのですが、「より賢くなるためには,一見バカになってしまう機能を取り入れた方がいい」というのが知能には当てはまるのかもしれません。
 
例えば最近流行りのベイズ統計による解析は、
・100%正解することを捨てることによって、より多くの不確かなパターンに対応する
ようになっています。1:1で物事を逐一教え込めば、知っていることに関しては100%正解できます。しかしそれでは知らない問題に対応できません。そこで、何かに関して完璧であることは諦め、ざっくり多くの物事に適用できるように、全部で8割の正解をだすようにしたのがベイズ理論によるて統計的な処理です。
 
現代の人工知能は、100%正解を捨てることにより賢くなりました。100%正解ができない、というのは一見バカに見えますが、現実世界ではむしろそちらのほうが賢くなります。
それと同様に、
・やたら暗記が下手
・不必要に感情的で怠惰
という機能も、より賢さを得るために、脳みそが享受したダメな部分なのかも、と思ったのです。
 
そうなると、これからある目的のためにつくられた超優秀なコンピュータが、超優秀になるために、元々は意図していなかったバカな機能として「感情」を持ち始める可能性は十分にあるな、と思いました。以上が書籍を読んだ感想文になります。

人工知能搭載おもちゃは絶対おもしろい

 
トイザらス、人工知能ラジコン・スロットカーを発売
 

おもちゃであれば、人間ほど複雑な動きをする必要もないし、”自動で遊んでくれる”という点ではスマッシュブラザーズや三國無双ですでに実用化されている技術でも有る。
かつてのミニ四駆のアニメのように、ミニ四駆が人間と一緒に走ってくれたり、遊戯王カードがアニメみたいになったら死ぬほどおもしろくて病みつきになりそうだ。

人工知能のための課題を探さない

 
「人工知能を悪魔にしてはいけない」Evernoteが始めた“AIデザイン”という仕事が面白い
 
 

本論とは直接関係ないかもしれないですが、

「何かを改善することと、新しい体験を作ることは、似ているようで違います。AIを用いたデザインでいうと、AIを使うために新たな課題を見つけるのはナンセンス。あくまで『現在のユーザー経験を高めていく』目的でデザインするべきだと考えています」

これ、確かに大事だなと思いました。
 
僕のような作り手は、画期的な技術を見つけるとついついそれを使って何かをしてくなってしまいますが、あくまで大事なのはユーザーにメリットを提供すること。
AIに拘るあまり、あまりに強引な手法な走ったりしてしまっては本末転倒です。
 
「AIを上手く使える」というのは、「AIを使わないべき」タイミングもしっかり見極められることなのだと思いました。

サービスに「人間らしさ」は必要ない気がする

 
人の感情を読み取ることができるマイクロチップデバイスがいよいよ完成(英研究)
 

エモシェープ社のオリヴィア・ジマーマンは、「このデバイスはロボットがより人間らしくなれるように作ったものです。将来的にロボットは、人間に似た存在になるべきだと考えています。」と語る。
ーーー中略ーーー
最後にエモシェープのCEO、パトリック・レヴィ・ロゼンサル氏はこう語った
「ロボットが人間と接して、人間の為に動くという事は、人間の感情に共感してからでしかできませんよ」。と。

 

これ、半分は共感できるけど、半分は違うと思う。
すごく簡単な話、僕らはネコに癒されるけど、ネコは全然人間らしくない。だから、人を癒すのに「人間らしさ」なんて必要ないしピカチュウみたいな可愛さが重要。
 
ただその一方で、なんでピカチュウがあそこまで可愛いかというと、ピカチュウは人間の気持ちを理解できる優れた知性を持ってるからだと思う。つまり、「人の感情を理解する」ことは必要。 
 
他にも、接客業って基本的にサービス提供側は人間らしさを排除してるように思う。
 
「人の気持を理解した上で、人にはできない何かを提供する」
これが接客ロボットの究極系な気がするなー

大半の「パーソナライズ スタートアップ」が失敗した理由

 
Why have most personalized news startups failed?
 
「大半のパーソナライズニューススタートアップが何故失敗したのか?また、それはニュースに限らずパーソナライズサービス全般に言えるのか?」
みたいなquora上での質問に対する回答です。

もはや4年以上前のものらしいですが、大変興味深かったので、いくつかピックアップして日本語でざっくり翻訳・解釈してみました。もちろん全部回答者個人の見解なのでどれが正しいとかはないと思いますが、参考までに。
 
※英語の翻訳がっつりミスってる可能性が十分にあります。ご指摘頂けたり、解釈を議論してくれる人がいたら嬉しいなー
 
 

Outbrain Founder Yaron Galai氏の回答

 
私達は、ニュースレコメンドサービスからスタートし、現在はニュースサイト内での記事のレコメンドサービスを展開している。ニュースレコメンドエンジンに関して困難だったのは以下の点だ。
 
・ニュースは毎日新しいコンテンツが増えすぎて、それらに関してレコメンドできるほど詳しくなるのに時間がかかる。アマゾンやネットフリックスに新しいDVDが加わる量はそれに比べればとても少ない。何度も更新され続けるニュースに対して同様の仕組みを適用するのはとてもむずかしい。
 
・ニュースはすぐに古く無価値なものになってしまう。もしそれが映画のDVDであれば、1年前のものでもまったく問題ないだろう。単なるキュレーションなら新鮮さを保つことができるが、それでは”パーソナライズ”まではいかない。
 
・ほとんどのパーソナライズドニュースシステムは、ソーシャルグラフがよいレコメンドの助けとなると思い込んでいるが、それは間違っている。友達は、大して良いレコメンドはしてくれない。
 
・最後に、パーソナライズドニュースは複数の矛盾した課題により苦しめられる。パーソナライズドニュースサービスが勝つための唯一の方法は、ユーザーがそれ以外全てのニュースサービスを使わないようになることだが、パーソナライズのフィルターが高精度になればなるほど、ユーザーは「取りこぼし」を探しに他のニュースサイトを見るようになってしまい、結果としてパーソナライズドニュースサービスは使われなくなってしまう。
 
これらがパーソナライズドニュースサービスへの挑戦により得た経験である。これらの課題がニュース固有の問題であり、これらは技術によりいずれ解決されるだろう。
 
 

TechmemeFounder Gabe Rivera氏の回答

 
最も重要な要因としては、複数のニュースサービスを同時に使う方が既存のパーソナライズドされたプロダクトより優れていることが考えられる。特に、それらにFacebookやTwitterでの”発見”が加わってしまえばパーソナライズドされたプロダクトは必要ないだろう。
 
さらに付け加えると、そもそもユーザーの興味が常に一定であるとは限らず、何が要因で変わるかわからない”興味”にたいしてアルゴリズムで対応することはすごく難しい。
 
 

f Thoof Founder Ian Clarke氏の回答

 
個々にパーソナライズされるあまりに、同じものを見ないから「コミュニティ感」を育めないところに問題があるように思う。
映画館や家で集まって同じ映像を見るのが楽しいことを考えると理解できるはずだ。
もう一つの問題は、「人々の本当に好きなこと」に関するデータを集めるのが難しい、という点だ。
もし、ユーザーがある記事をクリックしたとして、それを”ユーザーの好み”として学習すべきかどうかはなかなか難しい。その後に記事を読まない可能性もあるし、タイトルがおもしろいが内容がつまらない場合もある。
 
 

続きはまた今度…

データの爆発が起きている場所に着眼する

 
<湯川鶴章>著名投資家が提言「急展開し始めた人工知能を利用せよ」
 

まずはどの領域で、データ量の爆発が起こっているのか、起ころうとしているのかを見極めることが大事だ。

とのこと。まだアルゴリズムは多分そこまで進化してないけど、それ以上に今取得できるデータ量が増えていることがビッグデータの盛り上がりの要因なんだと思われます。

「経験の積み重ねによる学び」を人に伝えるのは難しい

 
今の人工知能に解ける問題と解けない問題
 
僕はそもそもこの偉大な知能の膨大なエネルギーを「東大受験」に使う事自体には反対だが、この記事自体はとてもおもしろかった。
(ちなみに東大受験自体が役に立たなくても、結果として面白い発見があるから良い。というのは成り立たないと思う。それは他の実験をしても同様に面白い発見は得られるはずだから)
 
社会は暗記科目だし、コンピューターなら余裕だろ、とか思ってたのですが、そうでは無いらしいです。あと英語も。
受験の問題は、人間向けに作られているため、どうしても「普通の人間なら持っているであろう知識や経験」を前提にした問題構成になっていて、それがロボットを苦しめた、とのことでした。
 
あーなるほど、って感じですが、これをコンピューターに学習させるのはとてもむずかしいです。なぜなら、「経験により得た知識」は人に伝えるのがすごく難しいからです。
例えば、
・デブな友達にデブと言うと何が起きるか?
という問題の答えは、その状況にかなり依存します(笑いで終わるか、相手を傷つけるか、とか)。
かなり依存するから、いまここで答えをいうのは難しいですが、殆どの人は、実際にその状況に入れば、その相手がデブと言って良い相手かどうかはすぐに判断がつくと思います。
 
ところが、これをコンピュータに教えるとなるとどうすればいいかわかりません。
・もともとガリガリだった友達が標準体型になって、それに向けて”デブ”と言うのは基本的に冗談として解釈される
みたいなのを逐一教えていたら一体いくつのパターンがうまれるのでしょうか。
 
 
以上、こういった「経験による積み重ねの学び」はとにかく教えにくいし、経験させて学ばせるしかないんだな、という感想でした。
途中で語尾が変わっている・・・

実行力勝負な世界

 

科学的に衝動買いを解析!欲しいを引き出すショッピングアプリ「Goods」リリース

 

例えば友達から教えてもらったり、ツイートで見かけたりで書籍や家具等を衝動買いすることは間違いなくある。あるし、その商品が本当に良いものだったら次もその友達に”おすすめ商品は何?”と聞くと思う。

 

こういった、「ニーズが明らか」なプロダクトは実行力が全てで、本当にその体験を実現できたら間違いなく一気にスタートアップの階段を駆け上るんだろうなと思う。

 

”ニーズの明らかさ”と”実行の難しさ”は基本的に反比例する。ただ、明らかでないニーズにアプローチするのはかなり難しい。基本的に優れたスタートアップは明らかなニーズを圧倒的な実行力で満たしているように見える。(dropboxは、明らかではなかったニーズを、明らかにした上でさらに圧倒的な実行力を見せてるから、かなりすごい)

Goodsのリリース、楽しみだしちょっとこわい。