某シンポジウム(T大)
T大で自然言語処理関係の某シンポジウム.駅から適当に歩いたら,T大のつもりがなぜ上野公園に???…というわけで,少々遅刻してしまった(苦笑).
昔の文法ベースの処理から昨世紀末には統計や学習を用いた処理に移り変わっていき,さらに今世紀からは特にWeb上の大規模データ(ブログやWikipedia,Webの普及と計算機能力の向上により現実的になってきた)をコーパスとして活用することで,それらの理論が現実に使えるものになりつつある.それと同時に,大容量のデータを扱うためのシステム(K大の某とか)や,さまざまな辞書データが出てきそうで期待は高い.ただ,現時点の問題は,大規模データから自動的に抽出されたものが本当に信頼してよいのか?ということで,質問で分析的に真でないものは区別して欲しいという要求が出ていたし,自動評価の確立手法も提案されていた.一つ気が付いたのは,今回の話の中にはソーシャルなアプローチがないことか.それで生成されたデータを利用するという話はあるのだが,それはやはり解析的・選別的であり,そこにソーシャルなアプローチが適用できないか考えてみるのも面白いかもしれない.
また,N大のS藤教授の「自然言語処理が辛いところは,出口産業がないところ」という発言が興味深い.つまり,車のように自然言語処理技術そのものを一般消費者に直接売るようなことはないために,アピール力に欠ける(あまりうまい説明ではないが…)ということのようだ.これは,以前M井氏から聞いた,国際化エンジニアはあるプロジェクトを直接指揮するよりも,横断的に関係することが多いので,どうしても影響力が弱いということにも関連していると思う.
なお,K浦准教授(教授?)のインターネットのボランティア翻訳支援の話が少々挑戦的.実際には翻訳メモリさえ使っていない現実から,従来のアプローチが適していないことを指摘している.彼の提案では,辞書,コーパス,アーカイブのように,コーパスとアーカイブを分離したところに特徴があるらしい.必ずしも彼らの提案が即座に解決策に結びつくとは思えないが,確かに,我々は一度立ち止まって,本当に私達が欲しいシステム・アーキテクチャ・データは何か,考え直してみることが必要なのかもしれない.この辺は,某J報D航海のデモ直前でこれなかったM田氏の意見を聞いてみたいところである.
さて,私にとって言語関係は少し分野違いだが,それでもT技科大のU村教授,T大のT田助教やY社のS々野氏,K戸氏らの知り合いと会って話をする.私もがんばらねば….