先日NewsPicksを見ていたら、Googleが2017年に発表した製品「Google Clips」の記事が上がってました。
Clipsは、AIが”最高の瞬間”を判別して自動撮影する小型のデバイスです。Clipsという名のとおり、デバイスに付属のクリップでモノを挟んで使うことができるようです。(Google Clipsのプロモーション動画を下の方に載せてますが、動画では小麦粉の袋に挟んでます。)
GoogleはClipsを使ってどんなことをしようとしてるのか?勝手に考察します。
冒頭でも触れたように、Clipsの大きな特徴はAIが搭載されているという点です。しかもAIが自動でシャッターを切ってくれます。
ClipsはAIによる機械学習を通して、被写体の表情や動き、光の当たり方などあらゆる面から総合的に”最高の瞬間”を判別しているようです。なので、撮り時を逃すことがないよ!って感じですね。ミスチルの「蘇生」のワンフレーズにあるような状況を心配する必要はなくなっていくかもしれませんね。
光ってて大きくて透けてる三色の虹に
ピントがうまく合わずに やがて虹は消えた
日常生活のワンシーンを切り取るということが誰でもできちゃうようになりますね。
Clipsをひとことで表わすと”ライフログカメラ“。なぜ今ごろ?という部分についてまとめてある記事がありましたが、どうやらキーワードは「人間中心」のようです。
このブログでも何度かAIに関する記事も書いてますが、AIもひとつのツール。そのツールが”悪”のように論じる記事も多くありますが、Clipsは人間を中心に、人間の役に立つ、しかも誰でもの役に立つという人間くさい部分を持ってるようです。
Clipsは静止画だけでなくショート動画(音のないモーションフォト)も撮影でき、撮影した写真はWifiやBluetooth経由でスマホに自動転送してくれるようです。Googleフォトとも連動できるようなのでクラウド上でいつでも見返すこともできます。
アメリカでは249ドルで発売されており、即売り切れの入荷待ちのようです。残念ながら日本での発売はまだ未定のようですね。
さて、GoogleはClipsを通して何をしようとしているのか。
こっからは完全に個人の勝手な考察です。既知の情報もあるかもしれません。
個人的に思うのは、Googleは人間の感情を表情や動きを基に理解しようとしているじゃないかと点です。ちなみに、テキストを通した感情分析のツールは既にあります。
今回のClipsは表情を判別するとあるように、笑ってる、怒ってる、泣いてるなどの表情理解はある程度はもうできてるわけです。個人的におもしろいと思ったのがモーションフォトの部分です。
モーションフォトということは表情に至るまでの前後の動きも手に入ることになります。その感情(表情)にはどのような動きが関係しているのか、その感情に至ったときどんな動きを取りやすいのか、など。これに加え、Googleは昨年末話題になったロボットの生みの親であるBostom Dynamicsを始め、ロボット関連の会社の買収も進んでいます。
2004年の映画「アイロボット」に登場するAIロボット「サニー」のような物体が生まれる日も近いかもしれません。
Google Clipsを通してGoogleの狙いを勝手に考えてみました。
当たってる、外れてるは未来にならないとわかりません。わかりませんが、メタップスの佐藤 航陽さんの著書「未来に先回りする思考法」を読んで未来を先回りする重要性を学びました。
勝手に考察したり、妄想したりするのは言ってしまえば自己満です。ただ、ある程度仮説を立てたり、調べたりすることで能動的にこれからを考えることができるので、今後もやっていこうと思ってます。何より自分から始めたことは自分に残りやすいですし!
にしても、いろいろとワクワクしますね。では!