BLEU(バイリンガル評価研究)は、ある自然言語から別の自然言語に機械翻訳されたテキストの品質を評価するアルゴリズムです。品質とは、機械の出力と人間の出力の対応関係であると考えられています。「機械翻訳がプロの人間の翻訳に近いほど、優れている」というのがBLEUの中心的な考え方です。[1] 2001年にIBMで発明されたBLEUは、人間の品質判断と高い相関関係があると主張した最初の指標の1つであり、 [2] [3]、現在でも最も人気のある自動化された安価な指標の1つです
スコアは、個々の翻訳セグメント(通常は文)について、質の高い参照翻訳セットと比較することで算出されます。これらのスコアをコーパス全体で平均化し、翻訳全体の品質を推定します。明瞭度や文法の正確さは考慮されません。[4]
BLEUの出力は常に0から1の間の数値です。この値は、候補テキストが参照テキストとどの程度類似しているかを示し、1に近いほど類似度が高いことを示します。人間による翻訳でスコア1に達することはほとんどありません。これは、候補テキストが参照翻訳のいずれかと完全に一致していることを意味するためです。そのため、スコア1を必ずしも達成する必要はありません。一致の可能性が増えるため、参照翻訳を追加するとBLEUスコアは上昇します。[5]
数学的定義
基本設定
BLEUスコアを定義するための最初の基本的な試みは、候補文字列と参照文字列のリストという2つの引数を取ります。考え方としては、がに類似している場合は1に近く、類似していない場合は0に近くなるはずです 




例えると、BLEU スコアは、言語教師が生徒の翻訳が参考回答にどれだけ忠実に従っているかをチェックして、その品質を評価しようとするようなものです。 

自然言語処理では、候補文字列の大きなセットを評価する必要があるため、M 個の候補文字列のリスト (「コーパス」と呼ばれる)と、各候補文字列に対する参照候補文字列のリストがある場合に、BLEUスコアを一般化する必要があります。 


任意の文字列、および任意の整数が与えられた場合、そのn-gramのセットを と定義します。これは一意の要素のセットであり、冗長な要素を許容する多重セットではないことに注意してください。つまり、たとえば、 となります。 



任意の2つの文字列 が与えられたとき、が の部分文字列として出現する回数を部分文字列カウントと定義します。たとえば、 です。 




ここで、候補コーパス を固定し、候補コーパス を参照します。ここで、各 です。 


修正Nグラム精度
修正Nグラム精度関数をと定義します。複雑に見える修正Nグラムは、候補文1つと参照文1つという典型的なケースを単純に一般化したものです。この場合、 となります。この式を導き出すために、最も明白なNグラムカウントの合計から始めます。 この量は、参照文のNグラムが候補文によっていくつ再現されるかを測定します。Nグラムではなく、n部分文字列 を数えることに注意してください。例えば、 の場合、(abとba) のすべての2部分文字列はそれぞれに3回出現するため、カウントは2ではなく6になります 





ただし、上記の状況では、候補文字列が短すぎます。 が 3 回出現する代わりに1 回しか含まれていないため、これを修正するために最小関数を追加します。このカウントの合計は正規化されていないため、文間の比較には使用できません。参照文と候補文の両方が長い場合、候補の品質が非常に悪くても、カウントが大きくなる可能性があります。 そのため、これを正規化します。正規化により、 は常に の数値となり、コーパス間で意味のある比較が可能になります。候補の n 部分文字列のいずれも参照にない場合は 0 になります。候補のすべての n グラムが参照に、候補と同じ回数以上出現する場合は 1 になります。特に、候補が参照の部分文字列である場合は 1 になります。 


![{\displaystyle [0,1]}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
簡潔性ペナルティ
修正されたN-gram精度は、「電信的な」候補文字列、つまり参照文字列のすべてのN-gramを可能な限り少ない回数だけ含む候補文字列に過度に高いスコアを与えます
短すぎる候補文字列をペナルティにするには、簡潔性ペナルティを と定義します。ここで、 は の正の部分です。 


- のとき、簡潔性ペナルティはとなり、長い候補はペナルティを受けず、短い候補のみがペナルティを受けることを意味します。


- のとき、簡潔ペナルティ


は候補コーパスの長さ、つまりの長さです。 


は有効な参照コーパスの長さ、つまり、つまり、長さが に可能な限り近いからの文です。 



BLEUの定義は一つではなく、重みベクトル によってパラメータ化された一連の定義が存在します。BLEUは、つまり、 上の確率分布です。 


![{\displaystyle \forall i\in \{1,2,3,\cdots \},w_{i}\in [0,1]}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
を選択した場合、BLEUスコアは です。言い換えれば、これはすべての修正n-gram精度の加重幾何平均に簡潔性ペナルティを乗じたものです。複数のn-gram精度において同時に良好と判断される候補コーパスを強く優先するため、加重算術平均ではなく加重幾何平均を使用します。 

最も典型的な選択肢は、原著論文で推奨されているものである。[ 1 ]
アルゴリズム
これは、Papineni et al. (2002) の次の例で説明されています
精度は高いが質の低い機械翻訳の出力例 | 候補者 | その | その | その | その | その | その | その |
|---|
| 参考資料1 | その | 猫 | は | 上 | その | マット | |
|---|
| 参考資料2 | そこに | は | a | 猫 | 上 | その | マット |
|---|
候補翻訳に含まれる7つの単語はすべて参照翻訳に含まれています。したがって、候補テキストのユニグラム精度は、

ここで、 は候補訳文の単語のうち参考文献に現れる単語数、は候補訳文の総単語数です。上記の候補訳文はどちらの参考文献の内容もほとんど残していないにもかかわらず、これは満点です。 

BLEUによる修正は非常に単純です。候補翻訳の各単語について、アルゴリズムは参照翻訳のいずれにおいても、その単語の出現回数の最大値である を取得します。上記の例では、「the」という単語は参照1に2回、参照2に1回出現しています。したがって となります。 

候補翻訳では、各単語のカウント数は、その単語の最大値に切り詰められます。この場合、「the」はと を持つため、2に切り詰められます。切り詰められたカウント数は、候補翻訳内のすべての異なる単語について合計されます。この合計は、候補翻訳に含まれるユニグラムの総数で割ります。上記の例では、修正されたユニグラム適合率スコアは次のようになります。 






しかし実際には、個々の単語を比較単位として用いるのは最適ではありません。BLEUは代わりに、n-gramを用いて同様の修正適合率指標を計算します。「単一言語の人間の判断と最も高い相関関係」[6]を持つ長さは4であることが分かりました。ユニグラムスコアは、翻訳の適切さ、つまりどれだけの情報が保持されているかを表すことが分かっています。より長いn -gramスコアは、翻訳の流暢さ、つまり「良い英語」としてどれだけ読みやすいかを表します。
候補「the the cat」の指標を比較する | モデル | グラムのセット | スコア |
|---|
| ユニグラム | 「the」「the」「cat」 |  |
| グループ化されたユニグラム | 「その」*2、「猫」*1 |  |
| バイグラム | 「その、その」、「猫」 |  |
上記と同じ参考文献の候補翻訳の例は次のようになります。
- 猫
この例では、修正ユニグラムの適合率は次のようになります。

候補語には「the」と「cat」という単語がそれぞれ1回ずつ出現し、単語の総数は2です。修正バイグラムの適合率は、バイグラムでは「the cat」が候補語に1回出現するため、次のようになります。この問題を克服するために、適合率は通常、再現率と対になっていることが指摘されています[7]。この例のユニグラムの再現率はまたはです。問題は、複数の参照翻訳があるため、各参照のすべての単語で構成された翻訳など、不適切な翻訳では再現率が簡単に膨らんでしまうことです[8]


コーパス全体のスコアを生成するために、セグメントの修正された適合率スコアは、非常に短い候補文に高いスコアが与えられすぎないように、幾何平均に簡潔性ペナルティを乗じて結合されます。 rを参照コーパスの合計長、cを翻訳コーパスの合計長とします。 の場合、簡潔性ペナルティが適用され、 と定義されます。 (参照文が複数ある場合、rは候補文の長さに最も近い文の長さの合計とされます。ただし、2009 年より前のNIST評価で使用されていたバージョンの指標では、最短の参照文が代わりに使用されていました。) 

iBLEUはBLEUのインタラクティブバージョンであり、ユーザーは候補翻訳によって得られたBLEUスコアを視覚的に検証できます。また、2つの異なるシステムを視覚的かつインタラクティブに比較できるため、システム開発に役立ちます。[9]
BLEUは人間の判断とよく相関すると頻繁に報告されており[10] [11] [12]、新しい評価指標の評価におけるベンチマークとなっています。しかしながら、多くの批判も表明されています。原理的にはあらゆる言語の翻訳を評価できるものの、現状のBLEUは単語境界のない言語に対応できないことが指摘されています[13] 。複数の参照翻訳に使用するように設計されていますが、実際には1つの翻訳にのみ使用されています[ 2 ] 。BLEUはトークン化技術に依存していることで有名であり、異なるトークン化技術で得られたスコアは比較できません(これはしばしば見落とされます)。再現性と比較可能性を向上させるために、SacreBLEUバリアントが設計されました[ 2 ]
BLEUには大きな利点があるものの、BLEUスコアの上昇が翻訳品質の向上を示す指標であるという保証はないという議論もある。[14]
参照
注釈
- ^ Papineni, K., et al. (2002)
- ^ Papineni, K., et al. (2002)
- ^ コフリン、D.(2003)
- ^ Papineni, K., et al. (2002)
- ^ Papineni, K., et al. (2002)
- ^ Papineni, K., et al. (2002)
- ^ コフリン、D.(2003)
- ^ ドディントン、G.(2002)
- ^ デノアル、E.とルパージュ、Y.(2005)
- ^ Callison-Burch, C., Osborne, M. and Koehn, P. (2006)
- ^ Lee, A. および Przybocki, M. (2005)
- ^ Callison-Burch, C., Osborne, M. and Koehn, P. (2006)
- ^ Lin, C.とOch, F.(2004)
- ^ Callison-Burch, C., Osborne, M. and Koehn, P. (2006)
- ^ マドナニ、N.(2011)
参考文献
参考文献
- Papineni, K.; Roukos, S.; Ward, T.; Zhu, WJ (2002). BLEU:機械翻訳の自動評価手法(PDF) . ACL-2002: 第40回計算言語学会年次会議. pp . 311– 318. CiteSeerX 10.1.1.19.9416
- Papineni, K., Roukos, S., Ward, T., Henderson, J, Reeder, F. (2002). 「コーパスに基づく包括的かつ診断的な機械翻訳評価:アラビア語、中国語、フランス語、スペイン語の初期結果(2016年3月4日アーカイブ、Wayback Machineにて)」Proceedings of Human Language Technology 2002、サンディエゴ、pp. 132–137
- Callison-Burch, C., Osborne, M. and Koehn, P. (2006)「機械翻訳研究におけるBLEUの役割の再評価」( Wayback Machineに2008年12月4日アーカイブ)第11回ヨーロッパ支部計算言語学会会議:EACL 2006 pp. 249–256
- Doddington, G. (2002)「nグラム共起統計を用いた機械翻訳品質の自動評価」 Wayback Machineに2013年10月12日にアーカイブされた「Proceedings of the Human Language Technology Conference (HLT)」、サンディエゴ、カリフォルニア州、 pp. 128–132
- Coughlin, D. (2003)「機械翻訳品質の自動評価と人間による評価の相関関係 」、2008年9月6日アーカイブ、MT Summit IX、ニューオーリンズ、米国、 pp. 23–27
- Denoual, E. および Lepage, Y. (2005)「BLEU in characters: towards automatic MT evaluation in languages without word delimiters 」Wayback Machineに 2011-07-18アーカイブ済み「第 2 回国際自然言語処理合同会議論文集」 pp. 81–86
- Lee, A. および Przybocki, M. (2005) NIST 2005 機械翻訳評価公式結果
- Lin, C. および Och, F. (2004)「最長共通部分列とスキップ・ビグラム統計を使用した機械翻訳品質の自動評価」Wayback Machineに 2008-07-05 でアーカイブされた「Proceedings of the 42nd Annual Meeting of the Association of Computational Linguistics 」。
- Madnani, N. (2011). 「iBLEU: 統計的機械翻訳システムの対話的なスコアリングとデバッグ」『第5回IEEE国際セマンティックコンピューティング会議(デモ)議事録』、カリフォルニア州パロアルト、pp. 213–214
外部リンク