どうも。ダイチです。
happiness project では、「絶対ためになるTEDプレゼンシリーズ」として、みんさんにオススメのプレゼンテーション動画を厳選して紹介しています。(TEDとは?)
目的は一つ。
Contents
みんなで「世界を変えるアイデア」を共有すること!
あなたの貴重な時間を無駄にさせないことをここに約束します。
是非お楽しみください。
今日は、テクノロジーのお話。
そして、ちょっとだけ哲学のお話。
「見る」ということ
そもそも「見る」とはなんでしょうね。
- watch / see / look
- 視細胞への光の刺激が視神経を通って脳に達すること。
- 物体を認識すること。
大体こういう意味かと思うんですが、僕らは日常生活のなかで「見る」という動作をもっと広い意味において使っています。
ただ、視界にあるモノを認識するだけでなく、そのモノが何かを「知覚する」こと。
そこまでのことを「見る」と言っているような気がします。
目の前の赤くて丸くてヘタがついている物体を視界に入れる、のが「見る」ではなくて、もう一歩進んでそれがリンゴだ!と判断をするところ。

ここまでが「見る」ということですな。
エガちゃんが言った深い話
生まれたときから目が見えない人に、
空の青さを伝えるとき何て言えばいいんだ?
こんな簡単なことさえ言葉に出来ない俺は芸人失格だよ
by 江頭2:50
こんなイイコトをいっているエガちゃん、良い人なのかな。
ここには、「A]と思っているものを「A」と認識できることは、当たり前ではない、という強烈なメッセージがあります。
何かを視覚で捉え、それをある特定のモノだと認識し、カテゴライズし、タグ付けすること。
これは、僕らが普通にやっていることです。
しかし、これはその「A」というモノに対する経験を積んでいるからこそできる芸当です。
色盲の人は、「青」という経験がありません。
だから、「青空」を正しく知覚することはできないのです。
コンピューターの「見る力」
では、コンピューター場合はどうなのでしょうか?
結論から言うと、10年前までコンピューターに上記で定義したような「見る力」はほとんどありませんでした。
もちろんカメラ機能を使って、目の前にあるリンゴを「丸い物体X」として認識することはできましたが、それをリンゴだ!と認識することはできなかったのです。
犬と猫、サッカーボールとバスケットバール。
そんな違いさえ見えていなかったのです。
では、現在はどうか!!??
気になりますよね?
じゃ、本日の動画、いってみよう(^^♪
絶対にためになるTEDプレゼン⑭ How computers learn to recognize objects instantly ~どうやってコンピューターは物体認識を学んだのか~
自動運転、iPhoneXのfaceID機能は、どうやって生まれ出たのか
「A」のものを「A」と認識するためには、「経験」が必要だと先に述べました。
とどのつまり、その経験とは、知識の集合体です。
人工知能を駆使して、膨大な種類の膨大な量の物体の画像データや映像データをインプットさせることで、コンピューターは「見る」ことができるようになったと言えます。
僕らが、記憶の引き出しからデータを引っ張り出して、瞬時にリンゴを判別するのと同じことを、コンピューターもその膨大な画像映像データを参照して行っているのです。
この膨大なデータ蓄積とそのデータのタグ付けを可能にしたのが人工知能です。
恐るべし、です。
エピソードを「見る」ということ
僕らは、運転中、子どもの姿を見ると、「あ、子どもだ」と認識するだけにとどまりません。
飛び出すかもしれない、信号無視するかもしれない、だから、気をつけよう。と思います。
それは、子どもという存在の特性を知っているからです。
このように僕たちは、あるエピソードとともに記憶を保存しています。
人工知能が進化した今、コンピューターもそれが可能になってきているようです。
パターン認識というやつです。
将棋のソフトなんてまさにそうです。
「ここでこう指せば、こうなりやすい」
みたいなパターンを信じられないくらいの量、データ化して持っているんですね。
これができるようになると、コンピューターにできることが一気に増えますよね。
絶対に事故が起こらない社会
たまに、自動運転車なんて怖い、自分の運転の方が安心、なんて人がいますが・・・
自信過剰をこじらせて、来年の冬まで寝込めばいいと思います(パクッテゴメンサナイ)。
僕は、もう20年もすれば、人間が運転とは、なんてクレイジーなことをしていたんだ!!!
となるに決まっていると思います。
事故って死んだら、終わりですからね。
運転することの「死」に対する期待値は、他の行動と比較すると、現代ではダントツ高いと思いますね。
もし、コンピューターのエピソードとして「見る」機能がグングン伸びていったら何が起こるか。
自動運転の場合で考えてみます。
- 車種によって事故率を弾き出して、特定の車種の前ではより安全に運転する
- 通行人の性別・年齢・体格・体温などから運転を変える
- 交差点の形状によってあらゆる事故パターンを認識し、それを全て回避する運転を選択する
- 人間には覚えきれないほど細かい道路標識がスタンダードになる
- 周りの車の数、速度、込み具合によって最も安全な運転を選択する
まぁ、などなどです。
最後に 「見る」ことのできるコンピューターで何を作るか
みなさんなら、何を作りたいですか?
「見る」ことのできるコンピューターで。
僕はアレですね、ロボット型ボディガードとか欲しいですねw
あと、なんでも家事やりますロボット。
これらは、また「見る」だけでなく、筋肉、関節などなどの「動き」をクリアしなければなりませんが。
でも、「見る」ことはクリアできたわけで、グッと未来に近づいているんじゃないですかね(^^♪
ちなみに、動画にもありましたが、darknetというプログラムは、オープンソースらしいので、誰でも使えます。
一応、貼っておくので興味がある方は、自己責任のもと、ご使用くださいな。
これ⇒⇒Darknet

では、今日はここらへんで。
またね!
オモシロ科学といえばこれ↓↓
遺伝子工学で恐竜がペットになるらしい 【絶対ためになるTEDプレゼン⑤】
コメントを残す