やばい。
これはやばい。
割と古くからあるので知ってる方多いかもしれないですが、私は昨日聞いたばっかりです。
そう。
いつかこうなるはず。
いつかはこうなるとは思ってたけど、実際のビジュアルで見せられると胸が熱いです。
まずはコンセプト動画から。1分半くらいなのでご存じない方は必見です。
いい。これはいい。
自分で作りたいときは自分で作り、面倒なときはキッチンロボにやってもらう。
最高です。
楽しみとしての料理、自分で相手のために手間暇かけて調理することの意味はある。
でも、単に料理が作業であるケースも多く、そういう場合はキッチンロボにやらせればいいと思いますね。たとえば、すげー風邪ひいてる時に無理して料理作るくらいならキッチンロボに作らせて、人間は寝てた方がいろんな意味で健康的かつ時間の有効活用と言えると思う。
だってこれ最後、拭き掃除までしてますよ。。。かわいい。。。
最近仕事にからめてもAI周りを勉強してるんですが、興味あるのは、画像認識が発達すると、こういうロボティクス系がブレークする可能性がどんどんあがるよね、という話。
コップになにかを注ぐ、というときに従来のようにセンサーつけて重さとか測らなくても、カメラで状態認識して判断するという能力がアドオンされると、汎用性が増す。で、そういう汎用性をつきつめてくと、このキッチンロボみたいなのできるよね、と。
そういう意味では、洗濯機も総合洗濯ロボへと進化できますね。
洗濯して、そのあと干してたたむところまでいけるはず。まあでもスペースの問題が、、、そうなると統合は無理で、洗濯ロボと畳むロボは分割されるのかな。
そういえば洋服を畳む事例はどっかで見たな。
さて、キッチンロボへと話を戻しますが、これが実際のプロトタイプ。
なんかバターがあやうく落ちそうだったけど、多分カメラでバター認識して落とそうと動いてる、、、のでしょう。
それともこの2015年時点ではアームがどこにどういう角度、スピードで動くというようにプログラムされたデモに過ぎないのかなあ?まあ、そうかもしれない。
なにぶん、ついさっきこれ知ったので全然調べてないです。
まあこの2015年のがどうだったのかなんてのはもはやどうでもよいですね。
目指してるのはカメラで状況認識して動くことです、どこにバターがあるかなんてのは現状の画像認識の技術で普通にできる。というわけで、現時点あるいは近い将来にはバターが思った位置になくても対応するでしょう。
といっても、実際の画像認識からロボットアームの制御を具体的にどうするのか、というのは全然わからない。それに場面場面での判断はできても、料理に必要な何工程ものプロセス、状況判断をすべて統合していくのはかなり難易度が高いだろう、多分。
いやー、これもう理想的に面白い。自分が若い理系な人間だったら、こういうロボティクス系のベンチャーで働くとか起業とかしてみたいですね。私の頃は何と言ってもインターネットそのものがあついところでしたが、今はやっぱAI x ロボあたりがいい。
なにはともあれ、こういうキッチンロボが普通に買える価格で普及するのを楽しみに待ってます^^
—–
コメント