TR-I-0197 :1991.3.4

苫米地英人

MONA-LISA: Multimodal Ontological Neural Architecture for Linguistic Interactions and Scalable Adaptations

Abstract:自然言語の認識過程において、入力言語の認識系と言語解釈による知識構成系とが相補的に作用しあうモデルが考えられる。このモデルを構成する手法について報告する。記号化されない経験的な過程を想定することにより認識系を構成し、グラフに基づく制約伝播ネットワークにより知識構成系を構成する。前者は再起型ニューラル・ネットワークで実現でき、後者は超並列ネットワークで実現できる。両者の情報受渡しを行うエンコーダとデコーダを用意し、これら非記号系と記号系を統合する。この統合により、知識構成系からの予測を使った認識系の実現と、認識系からの入力に従った知識構成系の動的な言語理解状態の実現とが可能になる。

This paper describes an architecture for symbolic and subsymbolic interactions during massively-parallel processing of natural language recognition. The model is centered around a graph-based constraint propagation network which is connected to a recurrent neural network which provides contextually sensitive predictions. The integration of symbolic massive parallelism and subsymbolic neural net PDP processing provides a smooth a posteriori learning to the symbolic system and a focused guided learning as well as strong constraints during recognition to the neural network. As the result, the architecture provides the ability to handle strict and structured symbolic constraints during recognition while attaining a smooth contextual prediction applied with a least rigidity and learning sentential regularities from actual dialog samples.