2013年6月2日日曜日

2次元画像からの、3次元意味空間の生成

現在、ある複数のパラメータや、自分で空間を認識しながら移動するロボットの開発に注力しています。

その中で、空間の意味構造を自動的に生成する機能を検証しています。

kinectや、Xtionなどでいろいろ試していたが、それより、もっと簡単な機構が必要だと考えて、2次元画像から3次元情報の抽出をする機能の開発をしている。

その情報にさらに意味を付けて、空間を構造化している。

つまり、WebCamの画像で、3次元の空間情報をつくっちゃう。



上の写真から、緑のトマトを、葉を抽出します。下の写真には約600本のトマトの苗があるけど、上の写真で抽出した実や、葉は、どの苗のものか紐づけます

空間の意味構造は、地図ベースのGISなんかは、簡単に作れる。地図化された時点で意味かされているし、幾何学構造が整理されている。
しかし、上のような写真(植物の葉、茎、そして実などが入り乱れている状態)では、作るのは簡単ではない。

空間の意味構造は、双方向リスト構造になるので、O(N^3)問題になる。

それを、O(N logN)で、処理できるように、それもRaspberryPiのような、非力なマシンで可能になるアルゴリズムの開発に集中しています。

ほぼできてきたので、とっても、楽しい時間です。

トマトの世話をしながら、頭をロボット化(アルゴリズム化)して、アイディアを絞りだしています。

ちなみに、うえのようなハウスが4つあって、それぞれ、ロボットがすこしづつ動き出しています。

そして、もうひとつハウスを作っています。それは、違うロボットの開発用です。

Roboticsと、IT、生物学の融合です。農業は、消えるけど、この3つの組合せは、永遠です。

農学は、結局、日本の農業をダメにしたけど、この3つで食糧生産を復活させます。

なんちゃって!でも、できるよ!それも、低予算で。。。

今の問題は、ロボットの盗難対策。農場に置きっぱなしにできない。

それがあるので、発表は、ちょっとタイミングを見てします。

Peace!

0 件のコメント:

コメントを投稿