本研究では, ビッグデータ時代に向けた環境可視化システムのラピッドプロトタイピングを実施した。そこでは, 実社会で日夜生成され続けている映像データに隠されている半構造情報に着目し, その抽象化階層を入れ子グラフ構造に変換する。そして, オーディエンスの視線やジェスチャを深度付きカメラを用いて追跡し, そこから情動の変化を無意識的に捉え, レイヤを上下移動する人称変換の適応的制御を可能とする。この階層的ブラウジングと簡易立体視表示を利用すれば, デジタルサイネージ前やSNS越しにいるオーディエンスに対しても, 的確に対象世界の全体像を把握し, 即時に効果的な行動を起こせるような強力な支援を実現できると考えられる。
In this study, a rapid prototyping was conducted to develop an ambient visualization system towards the big data era. We focused our attention to semi-structured information embedded in a set of imagery datasets produced routinely, to convert its abstraction hierarchy to the corresponding nested layered graph. Then we employed a depth camera to keep track of the gaze and gesture of a viewer to detect changes in his/her affect in an unconscious way, in order to make it possible to adaptively transform his/her person view through the up-and-down movement over the layers in the abstraction hierarchy. By taking full advantage of this hierarchical browsing together with simple naked-eye stereovision functions, a strong support can be provided for audience in front of digital signage or through SNS to comprehend a given universe of discourse wholly for subsequent prompt and effective actions.
|