forked from taku910/cabocha
-
Notifications
You must be signed in to change notification settings - Fork 1
/
Copy pathindex.html
570 lines (454 loc) · 26.2 KB
/
index.html
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.01//EN"
"http://www.w3.org/TR/html4/strict.dtd">
<html>
<head>
<link rev="made" href="mailto:[email protected]">
<title>CaoboCha: Yet Another Japanese Dependency Structure Analyzer</title>
<link type="text/css" rel="stylesheet" href="default.css">
</head>
<body>
<h1><a href="http://taku910.github.io/cabocha/">CaboCha/南瓜</a>: Yet Another Japanese Dependency Structure Analyzer</h1>
<h2>
<a href="http://taku910.github.io/cabocha">CaboCha/南瓜</a>とは</h2>
<p><a href="http://taku910.github.io/cabocha">CaboCha</a> は, Support Vector Machines に基づく日本語係り受け解析器です。</p>
<h2>
特徴</h2>
<ul>
<li>Support Vector Machines (SVMs) に基づく, 高性能な係り受け解析器</li>
<li>SVM の分類アルゴリズムの高速化手法である PKE (ACL 2003 にて発表)を適用.</li>
<li>IREX の定義による固有表現解析が可能</li>
<li>柔軟な入力形式. 生文はもちろん, 形態素解析済みデータ, 文節区切り済み データ, 部分的に係り関係が付与されたデータからの解析が可能</li>
<li>係り受けの同定に使用する素性をユーザ側で再定義可能</li>
<li>データを用意すれば, ユーザ側で学習を行うことが可能</li>
<li>内部の辞書に, 高速な Trie 構造である Double-Array を採用</li>
<li>C/C++/Perl/Ruby ライブラリの提供</li>
</ul>
<h2>
更新履歴</h2>
<ul>
<li>
<p>2015/01/24 0.69</p>
<ul>
<li>Chunk::(head_pos|func_pos|token_size|tokens_pos) を size_t に変更</li>
<li>FreeListのバッファオーバーフロー問題の修正</li>
</ul>
</li>
<li>
<p>2014/03/10 0.68</p>
<ul>
<li>トーナメントモデルの削除</li>
<li>-u オプションの追加 (MeCabの -u と同一オプション)</li>
</ul>
</li>
<li>
<p>2013/12/31 0.67</p>
<ul>
<li>解析速度を20%程度高速化</li>
<li>OSX上でのビルドエラーの修正</li>
<li>Windows版でただしくバージョン番号が表示されないバグの修正</li>
</ul>
</li>
</ul>
<h2>
ダウンロード</h2>
<p><a href="https://drive.google.com/folderview?id=0B4y35FiV1wh7cGRCUUJHVTNJRnM&usp=sharing#list">こちら</a> から最新版をダウンロードします。</p>
<ul>
<li>
<a href="http://taku910.github.io/cabocha">CaboCha</a> はフリーソフトウェアです。LGPL(Lesser GNU General Public License), または new BSD ライセンスに従って本ソフトウェアを使用,再配布することができます。</li>
<li>付属のモデルファイル(model 以下のファイル)にはBSDライセンス は適用されません。BSDライセンス は, 付属のプログラムや学習ツールのソース・コード, ドキュメントのみに適用されます。</li>
<li>付属のモデルファイルは, 株式会社毎日新聞社の御厚意により 配布されている毎日新聞記事CD-ROM版を基に学習, 作成されたものです。付属のモデルファイルは, 毎日新聞データ使用許諾に関する覚書に記載の利用条件内で その使用及び, 複製,改変,頒布が認められます. そのため配布しているモデルをそのままの形で使うことは, 研究目的, 個人利用に限られます. 誤解ないように言っておくと, これは, <a href="http://taku910.github.io/cabocha">CaboCha</a> の利用が研究目的に限定されていることを意味しません。 ご自身で用意なさったコーパスを基に, 独自にモデルを学習, 作成した場合は研究目的以外の利用が可能です。</li>
<li>奈良先端科学技術大学院大学ならびに工藤 拓は, <a href="http://taku910.github.io/cabocha">CaboCha</a> のプログラム 及び付属のモデルファイルの保証, および特定目的の適合性の保証を含め いかなる保証をも行うものではなく, <a href="http://taku910.github.io/cabocha">CaboCha</a> のプログラム 及び付属のモデルを使用,複製,改変,頒布により生じた損害や賠償等については, 法律上の根拠を問わず一切責任を負いません. ご注意ください。</li>
<li>将来的には, 著作権やライセンス上の問題から, モデルファイルとプログラムを分割 して配布する予定です。</li>
<li>
<a href="http://taku910.github.io/cabocha">CaboCha</a> を参照する場合は, 以下の文献を参照していただけると幸いです。</li>
</ul>
<pre><code>@article{cabocha,
title = {チャンキングの段階適用による日本語係り受け解析},
author = {工藤 拓、松本 裕治},
jorunal = {情報処理学会論文誌},
volume = 43,
number = 6,
pages = {1834-1842},
year = {2002}
}
@inproceedings{cabocha,
title = {Japanese Dependency Analysis using Cascaded Chunking},
author = {Taku Kudo, Yuji Matsumoto},
booktitle = {CoNLL 2002: Proceedings of the 6th Conference on Natural Language Learning 2002 (COLING 2002 Post-Conference Workshops)},
pages = {63-69},
year = {2002}
}
</code></pre>
<h2>
インストール</h2>
<h4>
UNIX</h4>
<p>あらかじめインストールすべきプログラム</p>
<ul>
<li>
<a href="http://crfpp.sourceforge.net">CRF++</a> (0.55以降)</li>
<li>
<a href="http://mecab.sourceforge.net">MeCab</a> (0.993以降)</li>
<li>mecab-ipadic, mecab-jumandic, unidic のいずれか</li>
</ul>
<p>注意: <a href="http://chasen-legacy.sourceforge.jp/">ChaSen</a> では動作いたしません。</p>
<blockquote>
<p>インストール手順</p>
<pre><code>% ./configure
% make
% make check
% su
# make install
</code></pre>
</blockquote>
<p>--with-posset オプションにてデフォルトの品詞体系及びモデルを変更することができます。</p>
<pre><code>% ./configure --with-posset=juman
</code></pre>
<pre><code>% ./configure --with-posset=unidic
</code></pre>
<h4>
Windows</h4>
<p><a href="http://mecab.sourceforge.net">MeCab</a>のWindows版を事前にインストールしておく必要があります。
自己解凍インストーラ cabocha-X.XX.exe を実行します。インストールウイザードに従ってインストールしてください。Windows版は IPA品詞体系のモデルのみが含まれています。</p>
<h4>
cabocharcの設定</h4>
<p><a href="http://taku910.github.io/cabocha">CaboCha</a>をインストールした後でも、/usr/local/etc/cabocharc を編集することで、異なる品詞体系のモデルを用いることができます。</p>
<pre><code>....省略
# posset = IPA
# posset = JUMAN
# posset = UNIDIC
...
# Parser model file name
parser-model = /usr/local/lib/cabocha/model/dep.ipa.model
# Chunker model file name
chunker-model = /usr/local/lib/cabocha/model/chunk.ipa.model
# NE model file name
ne-model = /usr/local/lib/cabocha/model/ne.ipa.model
</code></pre>
<h4>
Modelの解説</h4>
<p>JUMANモデルは京都大学テキストコーパス 4.0 から直接学習したモデルです。IPA・Unidicモデルは京都大学テキストコーパス4.0をMeCabを使い形態素解析部分だけ自動解析した結果から学習しています。そのため、IPA・Unidicは解析精度がJUMANのものと比べると落ちます。また、Unidic品詞体系は、短単位であり係り受け解析に必ずしも有効な単位・品詞情報が付与されていないため、JUMANモデルに比べ、1%程度解析精度が落ちることが確認されています。</p>
<h2>
使い方</h2>
<h3>
とりあえず動かしてみる</h3>
<p>cabocha を起動して, 生文を標準入力から入力してみてください。デフォルトで, 簡易 Tree 表示により結果を出力します。</p>
<pre><code>% cabocha
太郎は花子が読んでいる本を次郎に渡した
太郎は---------D
花子が-D |
読んでいる-D |
本を---D
次郎に-D
渡した
EOS
</code></pre>
<p>-f1 というオプションで, 計算機に処理しやすいフォーマットで出力します</p>
<pre><code>% cabocha -f1
太郎は花子が読んでいる本を次郎に渡した
* 0 5D 0/1 1.062087
太郎 名詞,固有名詞,人名,名,*,*,太郎,タロウ,タロー
は 助詞,係助詞,*,*,*,*,は,ハ,ワ
* 1 2D 0/1 1.821210
花子 名詞,固有名詞,人名,名,*,*,花子,ハナコ,ハナコ
が 助詞,格助詞,一般,*,*,*,が,ガ,ガ
* 2 3D 0/2 0.000000
読ん 動詞,自立,*,*,五段・マ行,連用タ接続,読む,ヨン,ヨン
で 助詞,接続助詞,*,*,*,*,で,デ,デ
いる 動詞,非自立,*,*,一段,基本形,いる,イル,イル
* 3 5D 0/1 0.000000
本 名詞,一般,*,*,*,*,本,ホン,ホン
を 助詞,格助詞,一般,*,*,*,を,ヲ,ヲ
* 4 5D 1/2 0.000000
次 名詞,一般,*,*,*,*,次,ツギ,ツギ
郎 名詞,一般,*,*,*,*,郎,ロウ,ロー
に 助詞,格助詞,一般,*,*,*,に,ニ,ニ
* 5 -1D 0/1 0.000000
渡し 動詞,自立,*,*,五段・サ行,連用形,渡す,ワタシ,ワタシ
た 助動詞,*,*,*,特殊・タ,基本形,た,タ,タ
EOS
</code></pre>
<h3>
文字コード変更</h3>
<p>特に指定しない限り, euc が使用されます. もし, shift-jis や utf8 を 使いたい場合は, 辞書の configure オプションにて charset を変更しモデルを再構築してください. これで, shift-jis や, utf8 の辞書が作成されます.</p>
<pre><code>% ./configure --with-charset=utf8
</code></pre>
<h4>
UTF-8 only mode</h4>
<p>configure option で --enable-utf8-only を指定すると. <a href="http://taku910.github.io/cabocha">CaboCha</a> が扱う 文字コードを utf8 に固定します. euc-jp や shift-jis をサポートする場合, <a href="http://taku910.github.io/cabocha">CaboCha</a> 内部に変換用のテーブルを埋めこみます. --enable-utf8-only を 指定することでテーブルの埋めこみを抑制し, 結果として実行バイナリを 小さくすることができます。</p>
<pre><code>% ./configure --with-charset=utf8 --enable-utf8-only
</code></pre>
<h3>
解析レイヤ</h3>
<p><a href="http://taku910.github.io/cabocha">CaboCha</a> には, 解析レイヤという概念があります. 解析レイヤは, 以下に示 す 4つの解析単位の事を指します. <a href="http://taku910.github.io/cabocha">CaboCha</a> は, これらのレイヤを UNIX pipe のように取り扱います. つまり, 個々の解析レイヤは完全に独立した空間で動作し, ユーザは, 任意のレイヤを入力として与え, 任意のレイヤの出力を得ることができます。さらに, これらのレイヤとは独立に, IREX定義に基づく 固有表現解析機能があります。</p>
<p>解析レイヤは, -I, -O オプションにて変更します。-I は 入力のレイヤ, -O は出力のレイヤです。</p>
<pre><code> -I, --input-layer=LAYER set input layer
0 - raw sentence layer
1 - POS tagged layer
2 - POS tagged and Chunked layer
3 - POS tagged, Chunked and Feature selected layer
-O, --output-layer=LAYER set ouput layer
1 - POS tagged layer
2 - Chunked layer
3 - Chunked and Feature selected layer
4 - Parsed layer (default)
</code></pre>
<ul>
<li>形態素解析のみ</li>
</ul>
<pre><code>% cabocha -I0 -O1
</code></pre>
<ul>
<li>文節切りのみ</li>
</ul>
<pre><code>% cabocha -I0 -O2
</code></pre>
<ul>
<li>係り受け解析まで行う</li>
</ul>
<pre><code>% cabocha -I0 -O4
</code></pre>
<ul>
<li>cabocha 自身を組みあわせる</li>
</ul>
<pre><code>% mecab | cabocha -I1 -O2 | cabocha -I2 -O3 | cabocha -I3 -O4
</code></pre>
<ul>
<li>素性選択は 自分で作成した perl プログラム</li>
</ul>
<pre><code>% cabocha -I0 -O2 | perl myscript.pl | cabocha -I3 -O4
</code></pre>
<h3>
フォーマットの解説</h3>
<h4>
文節区切りレイヤの出力フォーマット</h4>
<p>形態素解析済みデータに対し, 文節の区切り情報が付与されます. 具体的には, アスタリスクで始まる文節の開始位置を意味する行が追加されます。アスタリスクの後には, 文節番号 (0から始まる整数),係り先番号 (係り先は同定されていないので常に -1) が続きます。</p>
<pre><code>太郎は花子が読んでいる本を次郎に渡した
* 0 -1D
太郎 名詞,固有名詞,人名,名,*,*,太郎,タロウ,タロー
は 助詞,係助詞,*,*,*,*,は,ハ,ワ
* 1 -1D
花子 名詞,固有名詞,人名,名,*,*,花子,ハナコ,ハナコ
が 助詞,格助詞,一般,*,*,*,が,ガ,ガ
* 2 -1D
読ん 動詞,自立,*,*,五段・マ行,連用タ接続,読む,ヨン,ヨン
で 助詞,接続助詞,*,*,*,*,で,デ,デ
いる 動詞,非自立,*,*,一段,基本形,いる,イル,イル
* 3 -1D
本 名詞,一般,*,*,*,*,本,ホン,ホン
を 助詞,格助詞,一般,*,*,*,を,ヲ,ヲ
* 4 -1D
次 名詞,一般,*,*,*,*,次,ツギ,ツギ
郎 名詞,一般,*,*,*,*,郎,ロウ,ロー
に 助詞,格助詞,一般,*,*,*,に,ニ,ニ
* 5 -1D
渡し 動詞,自立,*,*,五段・サ行,連用形,渡す,ワタシ,ワタシ
た 助動詞,*,*,*,特殊・タ,基本形,た,タ,タ
EOS
</code></pre>
<h4>
素性選択レイヤの出力フォーマット</h4>
<p>文節切りのフォーマットの他に, 主辞/機能語の位置と任意の個数の素性列が付与されます。例の最初の文節には, "0/1" という情報が 付与されてますが、これは主辞が 0 番目の形態素 (= 太郎)、機能語が 一番目の形態素 (= は) という意味になります。主辞/機能語フィールドは, 素性選択レイヤのコメントに相当し, CaboChaは, このフィルードを解析に使用していません。このフィールドは今後廃止されるかもしれません。</p>
<pre><code>太郎は花子が読んでいる本を次郎に渡した
* 0 -1D 0/1 0.000000 F_H0:太郎,F_H1:名詞,F_H2:固有名詞,F_H3:人名,F_H4:名,F_F0:は,F_F1:助詞,F_F2:係助詞,A:は,B:名詞-固有名詞-人名-名,G_CASE:は,F_BOS:1
太郎 名詞,固有名詞,人名,名,*,*,太郎,タロウ,タロー
は 助詞,係助詞,*,*,*,*,は,ハ,ワ
* 1 -1D 0/1 0.000000 F_H0:花子,F_H1:名詞,F_H2:固有名詞,F_H3:人名,F_H4:名,F_F0:が,F_F1:助詞,F_F2:格助詞,F_F3:一般,A:が,B:名詞-固有名詞-人名-名,G_CASE:が
花子 名詞,固有名詞,人名,名,*,*,花子,ハナコ,ハナコ
が 助詞,格助詞,一般,*,*,*,が,ガ,ガ
* 2 -1D 0/2 0.000000 F_H0:読ん,F_H1:動詞,F_H2:自立,F_H5:五段・マ行,F_H6:連用タ接続,F_F0:いる,F_F1:動詞,F_F2:非自立,F_F5:一段,F_F6:基本形,A:基本形,B:動詞-自立
読ん 動詞,自立,*,*,五段・マ行,連用タ接続,読む,ヨン,ヨン
で 助詞,接続助詞,*,*,*,*,で,デ,デ
いる 動詞,非自立,*,*,一段,基本形,いる,イル,イル
* 3 -1D 0/1 0.000000 F_H0:本,F_H1:名詞,F_H2:一般,F_F0:を,F_F1:助詞,F_F2:格助詞,F_F3:一般,A:を,B:名詞-一般,G_CASE:を
本 名詞,一般,*,*,*,*,本,ホン,ホン
を 助詞,格助詞,一般,*,*,*,を,ヲ,ヲ
* 4 -1D 1/2 0.000000 F_H0:郎,F_H1:名詞,F_H2:一般,F_F0:に,F_F1:助詞,F_F2:格助詞,F_F3:一般,A:に,B:名詞-一般,G_CASE:に
次 名詞,一般,*,*,*,*,次,ツギ,ツギ
郎 名詞,一般,*,*,*,*,郎,ロウ,ロー
に 助詞,格助詞,一般,*,*,*,に,ニ,ニ
* 5 -1D 0/1 0.000000 F_H0:渡し,F_H1:動詞,F_H2:自立,F_H5:五段・サ行,F_H6:連用形,F_F0:た,F_F1:助動詞,F_F5:特殊・タ,F_F6:基本形,A:基本形,B:動詞-自立,F_EOS:1
渡し 動詞,自立,*,*,五段・サ行,連用形,渡す,ワタシ,ワタシ
た 助動詞,*,*,*,特殊・タ,基本形,た,タ,タ
EOS
</code></pre>
<h4>
係り受け解析レイヤの出力フォーマット</h4>
<p>文節切りフォーマットでは, 係り先が常に -1でしたが, これらが同定されます。また、文節切りフォーマットの他に, さきほど説明した 主辞/機能語の位置と係り関係のスコアが追加されます。係り関係のスコアは, 係りやすさの度合を示します. 一般に大きな値ほど係りやすいことを表します。しかし, 各スコアと実際の解析精度の関係は調査中です。このスコアの意味づけに関しては調査する必要があると考えています。</p>
<pre><code>太郎は花子が読んでいる本を次郎に渡した
* 0 5D 0/1 1.228564
太郎 名詞,固有名詞,人名,名,*,*,太郎,タロウ,タロー
は 助詞,係助詞,*,*,*,*,は,ハ,ワ
* 1 2D 0/1 1.734436
花子 名詞,固有名詞,人名,名,*,*,花子,ハナコ,ハナコ
が 助詞,格助詞,一般,*,*,*,が,ガ,ガ
* 2 3D 0/2 0.000000
読ん 動詞,自立,*,*,五段・マ行,連用タ接続,読む,ヨン,ヨン
で 助詞,接続助詞,*,*,*,*,で,デ,デ
いる 動詞,非自立,*,*,一段,基本形,いる,イル,イル
* 3 5D 0/1 0.000000
本 名詞,一般,*,*,*,*,本,ホン,ホン
を 助詞,格助詞,一般,*,*,*,を,ヲ,ヲ
* 4 5D 1/2 0.000000
次 名詞,一般,*,*,*,*,次,ツギ,ツギ
郎 名詞,一般,*,*,*,*,郎,ロウ,ロー
に 助詞,格助詞,一般,*,*,*,に,ニ,ニ
* 5 -1D 0/1 0.000000
渡し 動詞,自立,*,*,五段・サ行,連用形,渡す,ワタシ,ワタシ
た 助動詞,*,*,*,特殊・タ,基本形,た,タ,タ
EOS
</code></pre>
<h2>
固有表現解析</h2>
<p>-n オプションで, IREX(Information Retrieval and Extraction Exercis)の 定義に基づく固有表現タグを出力します。 解析精度は F値で 85 ポイント前後だ と思います。固有表現解析には, 以下の 3 つのモードが存在します. 適宜使いわけてください。</p>
<ul>
<li>-n 0: 固有表現解析を行わない</li>
<li>-n 1: 固有表現解析を行う。ただし, 文節の整合性を保つ. (デフォルト) 文節の整合性とは, 「1固有表現が, 複数の文節で構成されない」 という制約です。</li>
<li>-n 2: 固有表現解析を行う。 ただし文節の整合性を保たない。</li>
</ul>
<p>-f1 オプションを用いた場合, 固有表現は, IOB2形式で出力されます.</p>
<ul>
<li>B-X: Xという固有表現の開始</li>
<li>I-X: Xという固有表現の開始以外</li>
<li>O: 固有表現以外</li>
</ul>
<p>以下が, 具体例です. 活用型, 活用形の後に 固有表現タグが付与されます。</p>
<pre><code>% cabocha -f1 -n1
太郎と花子は2003年奈良先端大を卒業した
* 0 1D 0/1 1.230433
太郎 名詞,固有名詞,人名,名,*,*,太郎,タロウ,タロー B-PERSON
と 助詞,並立助詞,*,*,*,*,と,ト,ト O
* 1 4D 0/1 0.830090
花子 名詞,固有名詞,人名,名,*,*,花子,ハナコ,ハナコ B-PERSON
は 助詞,係助詞,*,*,*,*,は,ハ,ワ O
* 2 3D 1/1 0.381847
2003 名詞,数,*,*,*,*,* B-DATE
年 名詞,接尾,助数詞,*,*,*,年,ネン,ネン I-DATE
* 3 4D 0/1 0.000000
奈良先端大 名詞,固有名詞,組織,*,*,*,奈良先端大,ナラセンタンダイ,ナラセンタンダイ B-ORGANIZATION
を 助詞,格助詞,一般,*,*,*,を,ヲ,ヲ O
* 4 -1D 1/2 0.000000
卒業 名詞,サ変接続,*,*,*,*,卒業,ソツギョウ,ソツギョー O
し 動詞,自立,*,*,サ変・スル,連用形,する,シ,シ O
た 助動詞,*,*,*,特殊・タ,基本形,た,タ,タ O
EOS
</code></pre>
<h3>
コマンドラインオプション</h3>
<pre><code> -f, --output-format=TYPE set output format style
0 - tree(default)
1 - lattice
2 - tree + lattice
3 - XML
-I, --input-layer=LAYER set input layer
0 - raw sentence layer(default)
1 - POS tagged layer
2 - POS tagger and Chunked layer
3 - POS tagged, Chunked and Feature selected layer
-O, --output-layer=LAYER set output layer
1 - POS tagged layer
2 - POS tagged and Chunked layer
3 - POS tagged, Chunked and Feature selected layer
4 - Parsed layer(default)
-n, --ne=MODE output NE tag
0 - without NE(default)
1 - output NE with chunk constraint
2 - output NE without chunk constraint
-m, --parser-model=FILE use FILE as parser model file
-M, --chunker-model=FILE use FILE as chunker model file
-N, --ne-model=FILE use FILE as NE tagger model file
-P, --posset=STR make posset of morphological analyzer (default IPA)
-t, --charset=ENC make charset of binary dictionary ENC (default UTF-8)
-T, --charset-file=FILE use charset written in FILE
-r, --rcfile=FILE use FILE as resource file
-b, --mecabrc=FILE use FILE as mecabrc
-d, --mecab-dicdir=DIR use DIR as mecab dictionary directory
-o, --output=FILE use FILE as output file
-v, --version show the version and exit
-h, --help show this help and exit
</code></pre>
<h2>
学習/評価</h2>
<h4>
学習</h4>
<p>学習データを用意すれば、係り受け解析・文節区切りの学習が行えます。基本的に各レイヤの出力と同じ形式で学習データを構築し、cabocha-learn (/usr/local/libexec/cabocha/cabocha-learn) でモデルを構築します。</p>
<pre><code>% cabocha-learn -e <mode> -P <tagset> -t <charset> <train file> <model file>
</code></pre>
<ul>
<li>mode: dep, chunk, ne のいずれか</li>
<li>tagset: JUMAN , IPA, もしくは UNIDIC</li>
<li>charset: train fileの文字コード</li>
<li>train file: 学習データ</li>
<li>model file: モデルファイル</li>
</ul>
<p>例</p>
<pre><code>% cabocha-learn -e dep -P JUMAN -t UTF8 train.cab model
</code></pre>
<h4>
再学習</h4>
<p>係り受け解析の学習に限り、再学習が行えます。再学習とは、少量の追加学習データと既存のモデルファイルから新しモデルを構築することを指します。再学習には -M オプションで現在のモデルファイル(テキスト形式)を指定します。</p>
<p>例</p>
<pre><code>% cabocha-learn -e dep - P JUMAN -t UTF8 -M model/dep.juman.txt train-new.cab new_model
</code></pre>
<h4>
京都大学テキストコーパスからの学習</h4>
<ul>
<li>tools/kc2juman.pl 京都大学テキストコーパスをCaboCha形式(JUMAN品詞体系)の学習データに変換します。</li>
<li>tools/kcs2cabocha.pl 京都大学テキストコーパスをCaboCha形式(IPA品詞体系, もしくは Unidic品詞体系)の学習データに変換します。実行にはMeCabのperlモジュールが必要です。</li>
</ul>
<h4>
テキストモデルとバイナリモデル</h4>
<p>通常、学習後できあがるモデルファイルはアーキテクチャ依存のバイナリモデルファイルです。モデルを配布する場合は、テキスト形式のモデルファイルを扱う方が便利です。テキスト形式は、.txt という拡張子が付与されています。cabocha-model-index (/usr/local/libexec/cabocha/cabocha-model-index) でテキスト形式のモデルをバイナリ形式に変換することができます</p>
<pre><code>% cabocha-model-index -f <source charset> -t <target charset> <text model> <binary model>
</code></pre>
<p>例 (UTF-8で保存されたテキストモデルを EUC形式のバイナリモデルに変換)</p>
<pre><code>% cabocha-model-index -f UTF8 -t EUC model.txt model
</code></pre>
<h4>
評価</h4>
<p>cabocha-system-eval を使います</p>
<pre><code>% cabocha-system-eval -e <mode> <result> <golden>
</code></pre>
<ul>
<li>mode: dep, chunk もしくは ne</li>
<li>result: システムの出力結果</li>
<li>golden: 正解データ</li>
</ul>
<pre><code>% cabocha-system-eval -e dep result golden
dependency level1: 90.9455 (73293/80590)
dependency level2: 89.7824 (64119/71416)
sentence : 54.4162 (5052/9284)
</code></pre>
<ul>
<li>level1: 最後の文節を取り除いた文節係り受け正解率</li>
<li>level2: 最後と最後から2番目の文節を取り除いた文節係り受け正解率</li>
<li>sentence: 文レベルの正解率</li>
</ul>
<h2>
<a href="http://taku910.github.io/cabocha">CaboCha</a>に関する発表</h2>
<ul>
<li>Taku Kudo, Yuji Matsumoto (2003) Fast Methods for Kernel-Based Text Analysis, ACL 2003 in Sapporo, Japan</li>
<li>Taku Kudo, Yuji Matsumoto (2002) Japanese Dependency Analyisis using Cascaded Chunking, CONLL 2002 in TAIPEI</li>
<li>工藤 拓, 松本 裕治 (2002) チャンキングの段階適用による係り受け解析, 情報処理学会</li>
<li>工藤 拓, 松本 裕治 (2001) チャンキングの段階適用による係り受け解析, SIG-NL-142</li>
<li>工藤 拓, 松本 裕治 (2000) Support Vector Machine による日本語係り受け解析 SIG-NL-138</li>
<li>工藤 拓, 松本 裕治 (2001) Cascaded Chunking Model における部分解析済み情報の利用 情報処理学会全国大会 2001</li>
<li>Taku Kudoh, Yuji Matsumoto (2000) Japanese Dependency Analysis Based on Support Vector Machines,EMNLP/VLC 2000</li>
</ul>
<h2>
謝辞</h2>
<ul>
<li>株式会社毎日新聞社の御厚意により毎日新聞記事CD-ROM版に関して研究目的での使用承諾をいただきました。ここに感謝いたします。</li>
<li>京都大学コーパスを作成し無償で公開なさっている 京都大学言語メディア研究室の皆さまに感謝いたします。</li>
<li>特に同コーパス作成の中心的役割を果たしていらっしゃる黒橋禎夫 助教授に感謝いたします。</li>
<li>IREX実行委員会のみなさまに感謝いたします。</li>
<li>IPA 品詞体系における主辞,機能語ルールを作成していただたいた 松本 裕治 教授に感謝いたします。</li>
<li>JUMAN 並びに ChaSen の開発者の方々に感謝いたします。</li>
<li>CaboCha の開発段階において多くのコメントをいただいた松本研究室の皆さまに感謝します。</li>
</ul>
<hr>
<address>
</address>
</body>
</html>