English
法政大学 
情報科学部 
ディジタルメディア学科 

教授 
伊藤 克亘 
イトウ カツノブ 
ITOU Katunobu 


個人ウェブサイトはこちら  

出力する項目だけ表示しています。
更新日:2019/07/16 

学歴
東京工業大学  理工学研究科  情報工学専攻  博士後期  1993/03/31  修了  日本 

学位
博士(工学)  東京工業大学 

研究分野
音・言語メディア 

論文
研究論文(研究会,シンポジウム資料等)  共著  ポピュラー歌唱における高音域の声区と発声状態の判別手法  平山 健太郎, 伊藤 克亘  研究報告音声言語情報処理(SLP)  一般社団法人情報処理学会  2012/ 16, 1-6  2012/01/27  URL  近年の日本のポピュラー音楽では,一つの声区のみで歌えないような高い音域を含む楽曲が数多く存在する.実際に一つの声区のみで歌おうとすると声が枯れてしまうという結果が多い.このような状況はしばしばカラオケで見受けられる.従来より,歌唱力の自動評価は様々な手法で行われてきたが,高音域の発声における発声状態の評価を行っているものは少ない.本研究では,基本周波数成分やフォルマント,倍音構造,残差スペクトルなどの特徴量から声区と発声状態のトレーニングデータを35次元で作成し,自動でユーザの音声データから高音域の発声評価を行うシステムを構築した.歌唱音声に対する音符単位の識別率は 93.18% であった. 
詳細表示...

研究発表
口頭発表(一般)  Classification of Emotional Speech in Anime Films by Using Automatic Temporal Segmentation  CONTENT 2010, The Second International Conference on Creative Content Technologies  2011/11/21  This paper describes emotional speech classification in anime films. An emotional speech corpus was constructed by using data collected over 8 h. The corpus consists of emotional speech material of a total of 984 utterances. Five emotions, namely, joy, surprise, anger, sadness, and the neutral case, were labeled and divided into training and test data. In a previous study, Attack and Keep and Decay were adopted as parameters to describe temporal characteristic of the power transition. This paper proposed an improved method of A-K-D unit, and evaluated it. As a result, acoustic features of the proposed method were more effective than the conventional method when we used for GMM. 
詳細表示...

受賞
FIT船井ベストペーパー賞  2013/09/04 
詳細表示...

所属学協会
情報処理学会  1997/04/01-現在 
日本音響学会  1990/04/01-現在 
詳細表示...