| アイテムタイプ |
Article |
| ID |
|
| プレビュー |
| 画像 |
|
| キャプション |
|
|
| 本文 |
KAKEN_16H05870seika.pdf
| Type |
:application/pdf |
Download
|
| Size |
:87.3 KB
|
| Last updated |
:Dec 23, 2024 |
| Downloads |
: 155 |
Total downloads since Dec 23, 2024 : 155
|
|
| 本文公開日 |
|
| タイトル |
| タイトル |
没入型バーチャルリアリティ環境における表情認識技術の構築
|
| カナ |
ボツニュウガタ バーチャル リアリティ カンキョウ ニ オケル ヒョウジョウ ニンシキ ギジュツ ノ コウチク
|
| ローマ字 |
Botsunyūgata bācharu riariti kankyō ni okeru hyōjō ninshiki gijutsu no kōchiku
|
|
| 別タイトル |
| 名前 |
Development of facial expression recognition technology in immersive virtual environments
|
| カナ |
|
| ローマ字 |
|
|
| 著者 |
| 名前 |
杉本, 麻樹
 |
| カナ |
スギモト, マキ
|
| ローマ字 |
Sugimoto, Maki
|
| 所属 |
慶應義塾大学・理工学部 (矢上) ・教授
|
| 所属(翻訳) |
|
| 役割 |
Research team head
|
| 外部リンク |
科研費研究者番号 : 50517399
|
|
| 版 |
|
| 出版地 |
|
| 出版者 |
|
| 日付 |
| 出版年(from:yyyy) |
2022
|
| 出版年(to:yyyy) |
|
| 作成日(yyyy-mm-dd) |
|
| 更新日(yyyy-mm-dd) |
|
| 記録日(yyyy-mm-dd) |
|
|
| 形態 |
|
| 上位タイトル |
| 名前 |
科学研究費補助金研究成果報告書
|
| 翻訳 |
|
| 巻 |
|
| 号 |
|
| 年 |
2021
|
| 月 |
|
| 開始ページ |
|
| 終了ページ |
|
|
| ISSN |
|
| ISBN |
|
| DOI |
|
| URI |
|
| JaLCDOI |
|
| NII論文ID |
|
| 医中誌ID |
|
| その他ID |
|
| 博士論文情報 |
| 学位授与番号 |
|
| 学位授与年月日 |
|
| 学位名 |
|
| 学位授与機関 |
|
|
| 抄録 |
本研究課題では,外部からの光学的な観測が難しい頭部装着型ディスプレイ内部での計測が可能な組み込み型光センサと機械学習を用いた表情認識技術を高度化することを目的に研究を推進した.基本表情のクラスを識別する手法を発展させ,表情の表出強度を推定し,合成した表情をアバターに反映できることを示した.また,基本表情クラスを識別するのみでは無く,低次元の光センサ情報から,高次元の顔表面の特徴点の位置を3次元再構成できることを確認した.更に,表情の多様性を考慮した機械学習として,視線や頭部方向を考慮した学習データセットを構築することで表情識別精度を頑健にできることを示した.
The aim of this project was to develop facial expression recognition technology using an embedded optical sensor array and machine learning, which enables facial expression recognition in a head-mounted display (HMD). Facial expression recognition in an HMD with an ordinal camera system is challenging due to occlusions. We developed a method for detecting basic facial expressions and extended it to estimate the intensity of each facial expression. We have shown that synthesized expressions can be rendered on avatars in a virtual environment. In addition to identifying the basic expression classes, we confirmed that it is possible to reconstruct high-dimensional 3D positions of feature points on a facial surface from the low-dimensional sensor values. Furthermore, we demonstrated that facial expression recognition accuracy was improved by making a training dataset that incorporates gaze and head direction as a machine learning method robust to the diversity of facial expressions.
|
|
| 目次 |
|
| キーワード |
|
| NDC |
|
| 注記 |
研究種目 : 若手研究 (A)
研究期間 : 2016~2019
課題番号 : 16H05870
研究分野 : バーチャルリアリティ
|
|
| 言語 |
|
| 資源タイプ |
|
| ジャンル |
|
| 著者版フラグ |
|
| 関連DOI |
|
| アクセス条件 |
|
| 最終更新日 |
|
| 作成日 |
|
| 所有者 |
|
| 更新履歴 |
|
| インデックス |
|
| 関連アイテム |
|