その中で、空間の意味構造を自動的に生成する機能を検証しています。
kinectや、Xtionなどでいろいろ試していたが、それより、もっと簡単な機構が必要だと考えて、2次元画像から3次元情報の抽出をする機能の開発をしている。
その情報にさらに意味を付けて、空間を構造化している。
つまり、WebCamの画像で、3次元の空間情報をつくっちゃう。
上の写真から、緑のトマトを、葉を抽出します。下の写真には約600本のトマトの苗があるけど、上の写真で抽出した実や、葉は、どの苗のものか紐づけます
空間の意味構造は、地図ベースのGISなんかは、簡単に作れる。地図化された時点で意味かされているし、幾何学構造が整理されている。
しかし、上のような写真(植物の葉、茎、そして実などが入り乱れている状態)では、作るのは簡単ではない。
空間の意味構造は、双方向リスト構造になるので、O(N^3)問題になる。
それを、O(N logN)で、処理できるように、それもRaspberryPiのような、非力なマシンで可能になるアルゴリズムの開発に集中しています。
ほぼできてきたので、とっても、楽しい時間です。
トマトの世話をしながら、頭をロボット化(アルゴリズム化)して、アイディアを絞りだしています。
ちなみに、うえのようなハウスが4つあって、それぞれ、ロボットがすこしづつ動き出しています。
そして、もうひとつハウスを作っています。それは、違うロボットの開発用です。
Roboticsと、IT、生物学の融合です。農業は、消えるけど、この3つの組合せは、永遠です。
農学は、結局、日本の農業をダメにしたけど、この3つで食糧生産を復活させます。
なんちゃって!でも、できるよ!それも、低予算で。。。
そして、もうひとつハウスを作っています。それは、違うロボットの開発用です。
Roboticsと、IT、生物学の融合です。農業は、消えるけど、この3つの組合せは、永遠です。
農学は、結局、日本の農業をダメにしたけど、この3つで食糧生産を復活させます。
なんちゃって!でも、できるよ!それも、低予算で。。。
今の問題は、ロボットの盗難対策。農場に置きっぱなしにできない。
それがあるので、発表は、ちょっとタイミングを見てします。
それがあるので、発表は、ちょっとタイミングを見てします。
Peace!
0 件のコメント:
コメントを投稿