Kinect+Windows PCとタッチスクリーンで何しよう
来年初頭にKinect for Windowsの向けの商用アプリが作れるSDKが公開される予定なんですが、それに合わせてPC用のKinectのハードウェアも発売されるらしいです(という記事を掲載しました)。
Kinect for Xbox 360のセンサーもUSBでそのままPCにつないで使えるらしいんですが、あれはアメリカの広いリビング用にできているので、数メートル離れた人の動きを認知するのは得意でも、50センチくらいの距離の物体を見るのは苦手なんですって(老眼の人みたい)。
そうすると、デスクトップPCにつないでジェスチャーでコマンドを入力したいときに、わざわざ遠くに行って手をばたばたさせたりというなさけないことになっちゃうので、近くでジェスチャーしても認識できるように改良したそうです。
おお、そりゃあ便利だ、と思ったんですが、はて。2Dで済むジェスチャー入力であれば、タッチスクリーンでいいじゃん。Windows 7からは、タッチスクリーン対応なんだから、わざわざKinectのカメラ経由で命令しなくても、画面に指をぺったりくっつけていろいろできる。3Dの物体を扱うことはタッチスクリーンじゃできないけど。
きっと、クリエイティブな人にかかれば、すごい応用アプリができるんだろうな。Kinectってジェスチャーの印象が強いけど、Siriみたいな音声入力もできるので、ブレードランナーの画像解析アプリのような音声による操作と、マイノリティリポートのジェスチャー入力の両方が使えます。だから、可能性はいっぱいあるんだろうと思うんですよ。凡人なので思い付かないけど。
あと、日本の狭い部屋で使う場合はPC用KinectをXbox 360で使えるといいかも。