シラバス情報

授業科目名
知覚情報処理
(英語名)
Human Perception and Recognition
科目区分
電子情報工学専攻科目
対象学生
工学研究科
学年
1年
ナンバリングコード
HETMN5MCA1
単位数
2単位
ナンバリングコードは授業科目を管理する部局、学科、教養専門の別を表します。詳細は右上の?から別途マニュアルをダウンロードしてご確認ください。
授業の形態
講義 (Lecture)
開講時期
2024年度前期
担当教員
山添 大丈
所属
工学研究科
授業での使用言語
日本語
関連するSDGs目標
目標9
オフィスアワー・場所
月曜12:10〜13:00 書写6205研究室
 (メールによる事前連絡が必要)
連絡先
Email:yamazoe@eng.u-hyogo.ac.jp

対応するディプロマ・ポリシー(DP)・教職課程の学修目標
二重丸は最も関連するDP番号を、丸は関連するDPを示します。
学部DP
研究科DP
1◎/2〇/3〇
全学DP
教職課程の学修目標

講義目的・到達目標
講義目的:人とロボットのインタラクションにおいて,意図や感情といった内部状態を互いに理解できることが重要である.本講義では,人・ロボットの内部状態の認識・表出に着目しながら,画像・センサを用いた人の行動計測(顔・ジェスチャ・視線など),ロボットとのインタラクションにおける人の知覚の計測,それらを踏まえたロボットの行動生成について理解することを目的とする.

到達目標:画像・センサを用いた人の行動計測手法,人の知覚の計測手法,それらを踏まえた人とコンピュータ・ロボットのインタラクションについて理解し,説明できること.
授業のサブタイトル・キーワード
サブタイトル:人の行動・知覚の計測・評価手法を理解し,人とコンピュータ・ロボットとのインタラクションの基礎を理解する
キーワード:人物行動推定,内部状態推定,ヒューマン・コンピュータ/ロボット・インタラクション

講義内容・授業計画
講義内容:前半は画像・センサを用いた人の行動計測とその応用について説明し,後半は人とロボットのインタラクションにおける人の知覚計測・ロボットの行動生成について説明する.

授業計画
1. イントロダクション
2. 顔表情と感情
3. 顔画像処理 (1)
4. 顔画像処理 (2)
5. 姿勢・ジェスチャの計測
6. 視線の計測 (1)
7. 視線の計測 (2)
8. 歩行運動の計測
9. 人の行動と内部状態の推定
10. 知覚・感性の計測・評価 (1)
11. 知覚・感性の計測・評価 (2)
12. 人とロボットのインタラクション (1)
13. 人とロボットのインタラクション (2)
14. ロボットによる内部状態の表出
15. まとめ

生成系AIの利用:
生成系AIの利用については教員の指示に従うこと。
教科書
特になし(適宜資料を配布する)

参考文献

コンピュータビジョン —広がる要素技術と応用—,米谷 竜,斎藤 英雄(編著),共立出版 

ヒューマンインタフェース,志堂寺和則(著),コロナ社 


事前・事後学習(予習・復習)の内容・時間の目安
【復習】配布資料等の読み直し(30h),レポート作成(30h)
アクティブ・ラーニングの内容
採用しない
成績評価の基準・方法
成績評価の基準
「講義目的・到達目標」に記載する内容への到達度に応じて,S(90点以上)、A(80点以上)、B(70点以上)、C(60点以上)の成績評価の上,単位を付与する。

成績評価の方法
課題・レポートに基づき評価する。
課題・試験結果の開示方法
課題・レポートは,原則次の講義内で解説する.
履修上の注意・履修要件
特になし

実践的教育
該当しない
備考
英語版と日本語版との間に内容の相違が生じた場合は、日本語版を優先するものとします。