コンピューターの「目」はどこまで「見え」ているか!? 【絶対ためになるTEDプレゼン⑭】

見る

スポンサードリンク



どうも。ダイチです。

happiness project では、「絶対ためになるTEDプレゼンシリーズ」として、みんさんにオススメのプレゼンテーション動画を厳選して紹介しています。(TEDとは?)

 

目的は一つ。

Contents

みんなで「世界を変えるアイデア」を共有すること!

 

あなたの貴重な時間を無駄にさせないことをここに約束します。

是非お楽しみください。

 

今日は、テクノロジーのお話。

そして、ちょっとだけ哲学のお話。

 

「見る」ということ

 

そもそも「見る」とはなんでしょうね。

 

  • watch / see / look
  • 視細胞への光の刺激が視神経を通って脳に達すること。
  • 物体を認識すること。

 

大体こういう意味かと思うんですが、僕らは日常生活のなかで「見る」という動作をもっと広い意味において使っています。

ただ、視界にあるモノを認識するだけでなく、そのモノが何かを「知覚する」こと。

そこまでのことを「見る」と言っているような気がします。

 

目の前の赤くて丸くてヘタがついている物体を視界に入れる、のが「見る」ではなくて、もう一歩進んでそれがリンゴだ!と判断をするところ。

リンゴ

ここまでが「見る」ということですな。

 

エガちゃんが言った深い話

 

生まれたときから目が見えない人に、

空の青さを伝えるとき何て言えばいいんだ?

こんな簡単なことさえ言葉に出来ない俺は芸人失格だよ

by 江頭2:50

 

こんなイイコトをいっているエガちゃん、良い人なのかな。

ここには、「A]と思っているものを「A」と認識できることは、当たり前ではない、という強烈なメッセージがあります。

 

何かを視覚で捉え、それをある特定のモノだと認識し、カテゴライズし、タグ付けすること。

これは、僕らが普通にやっていることです。

しかし、これはその「A」というモノに対する経験を積んでいるからこそできる芸当です。

 

色盲の人は、「青」という経験がありません。

だから、「青空」を正しく知覚することはできないのです。

 

コンピューターの「見る力」

 

では、コンピューター場合はどうなのでしょうか?

結論から言うと、10年前までコンピューターに上記で定義したような「見る力」はほとんどありませんでした。

もちろんカメラ機能を使って、目の前にあるリンゴを「丸い物体X」として認識することはできましたが、それをリンゴだ!と認識することはできなかったのです。

犬と猫、サッカーボールとバスケットバール。

そんな違いさえ見えていなかったのです。

では、現在はどうか!!??

 

気になりますよね?

じゃ、本日の動画、いってみよう(^^♪

 

絶対にためになるTEDプレゼン⑭ How computers learn to recognize objects instantly ~どうやってコンピューターは物体認識を学んだのか~

 

 

自動運転、iPhoneXのfaceID機能は、どうやって生まれ出たのか

 

「A」のものを「A」と認識するためには、「経験」が必要だと先に述べました。

とどのつまり、その経験とは、知識の集合体です。

人工知能を駆使して、膨大な種類の膨大な量の物体の画像データや映像データをインプットさせることで、コンピューターは「見る」ことができるようになったと言えます。

僕らが、記憶の引き出しからデータを引っ張り出して、瞬時にリンゴを判別するのと同じことを、コンピューターもその膨大な画像映像データを参照して行っているのです。

この膨大なデータ蓄積とそのデータのタグ付けを可能にしたのが人工知能です。

恐るべし、です。

 

エピソードを「見る」ということ

 

僕らは、運転中、子どもの姿を見ると、「あ、子どもだ」と認識するだけにとどまりません。

飛び出すかもしれない、信号無視するかもしれない、だから、気をつけよう。と思います。

それは、子どもという存在の特性を知っているからです。

このように僕たちは、あるエピソードとともに記憶を保存しています。

人工知能が進化した今、コンピューターもそれが可能になってきているようです。

パターン認識というやつです。

将棋のソフトなんてまさにそうです。

「ここでこう指せば、こうなりやすい」

みたいなパターンを信じられないくらいの量、データ化して持っているんですね。

これができるようになると、コンピューターにできることが一気に増えますよね。

 

絶対に事故が起こらない社会

 

たまに、自動運転車なんて怖い、自分の運転の方が安心、なんて人がいますが・・・

自信過剰をこじらせて、来年の冬まで寝込めばいいと思います(パクッテゴメンサナイ)。

 

僕は、もう20年もすれば、人間が運転とは、なんてクレイジーなことをしていたんだ!!!

となるに決まっていると思います。

事故って死んだら、終わりですからね。

運転することの「死」に対する期待値は、他の行動と比較すると、現代ではダントツ高いと思いますね。

 

もし、コンピューターのエピソードとして「見る」機能がグングン伸びていったら何が起こるか。

自動運転の場合で考えてみます。

 

  • 車種によって事故率を弾き出して、特定の車種の前ではより安全に運転する
  • 通行人の性別・年齢・体格・体温などから運転を変える
  • 交差点の形状によってあらゆる事故パターンを認識し、それを全て回避する運転を選択する
  • 人間には覚えきれないほど細かい道路標識がスタンダードになる
  • 周りの車の数、速度、込み具合によって最も安全な運転を選択する

 

まぁ、などなどです。

 

最後に 「見る」ことのできるコンピューターで何を作るか

 

みなさんなら、何を作りたいですか?

「見る」ことのできるコンピューターで。

僕はアレですね、ロボット型ボディガードとか欲しいですねw

あと、なんでも家事やりますロボット。

これらは、また「見る」だけでなく、筋肉、関節などなどの「動き」をクリアしなければなりませんが。

でも、「見る」ことはクリアできたわけで、グッと未来に近づいているんじゃないですかね(^^♪

 

ちなみに、動画にもありましたが、darknetというプログラムは、オープンソースらしいので、誰でも使えます。

一応、貼っておくので興味がある方は、自己責任のもと、ご使用くださいな。

これ⇒⇒Darknet

 

 

では、今日はここらへんで。

またね!

 

オモシロ科学といえばこれ↓↓

遺伝子工学で恐竜がペットになるらしい 【絶対ためになるTEDプレゼン⑤】 

 

スポンサードリンク








コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です