表形式データにニューラルネットを用いる研究について
昔からある話ですが、Google CloudからAutoML Tablesが発表される等、表形式データにニューラルネットを用いることの障壁は日々低くなっているように感じられます。 LightGBM開発者によるDeepGBMが話題になる等、研究においても特に決定木を意識したアプローチが(局所的に)盛り上がっているようなのでリンク集を作ってみました。
論文リスト
CTR予測にNNを用いる研究は数多くあるので、次のような特徴を持つものに限定します。
- 表形式データに対して、FCNでは精度が出しにくい一方でGBDTが実績を挙げているというモチベーション
- ヘヴィサイド関数的なもの(tanhが多そう)で分岐を表現する
- 2を積むことで決定木らしい形にする
- ショートカットを導入することで加法木らしい性質を持たせる
- Higgs等で数値実験をする
以下に挙げているようにICLR 2020へ3本ほどこのような分野の研究が投稿されています。*1
(IJICAI 2017) Deep Forest: Towards An Alternative to Deep Neural Networks
(KDD 2019) DeepGBM: A Deep Learning Framework Distilled by GBDT for Online Prediction Tasks
(ICLR 2020?) Deep Neural Forests: An Architecture for Tabular Data
(ICLR 2020?) TabNet: Attentive Interpretable Tabular Learning
(ICLR 2020?) Neural Oblivious Decision Ensembles for Deep Learning on Tabular Data
細かい差異は理解できていませんが、蒸留を利用しているDeepGBM以外は似たようなアプローチをしているように見えます。
それらしいタイトルだが趣の異なるもの
画像が主眼
- (ICCV 2015) Deep neuraldecision forests
SGDの代替
所感
AutoMLの文脈もあり、GBDTと比べてインプットに自由が効いて特徴抽出で手を抜けるNNを検討したくなる気持ちは理解できます。
ただ、NNの表現力が必要なだけであればNNとGBDTのアンサンブルで十分であり、DeepGBM論文でもアンサンブルと比べたときの提案手法の明確なメリットはオンライン学習だけと述べられています。(現地での質疑応答はどんな感じだったでしょうか?アンカレッジ組でご存知の方がいらっしゃったら教えて欲しいです。)
OpenReviewでも指摘されているようにGBDTで精度が出しやすいのであればGBDTを使えば良く、提案されている手法のご利益の小ささは気になりますし、研究分野としては厳しい感じがします。
AutoML Tablesはどうだ?
さて、AutoML Tablesは上に挙げたような表形式データ用のネットワークを用意しているのでしょうか。 現時点でAutoML Tablesについての詳細な情報は見当たりませんでしたが、公開情報を基に考えてみます。
Google Developers Japan: Google の AutoML が KaggleDays での表形式データのコンペで第 2 位に
これらから読み取れるのは
- learning-to-learn のアプローチを適用している
- TensorFlowモデルが出力される
- KaggleDaysではNNとTFBTを使った
- リニアモデルも候補になっている
という点で、更にブログで名前の挙がっているGoogle Brainの方の研究は転移学習が多いことも伺えます。
TensorFlowにはBoosted trees Estimatorもあるので、AutoML NLP等で使っているNNの後段部分にGBDTを選べるようにしてメタ学習でゴリ押ししているというのが私の見立てです。*2*3
(実際AutoML Tablesが何をしているのか知る由もありませんが)NN1本で頑張るよりは、実績のある道具を組み合わせてメタ学習する方が筋が良いように思えます。
まとめ
メタ学習は脅威。
G社やA社やM社であれば表形式データにおけるある種の学習済みモデルを獲得してしまうかもしれないという考えが頭をよぎりましたが、表形式データは画像と違って列の並びや数値のスケールで自由度が高いので流石にそれは厳しいですかね。
追記
以下の資料のように、DeepGBM的なものもAutoML TablesもNNの自由度の高いインプットを活かせていないのが現状ですが将来的には小慣れてくるんではないかと考えています。
評点の分布が滑らかでないのは不自然なのか
話題の評点分布についての自分用まとめです。 特に統計的な議論においては各々想定している状況が違っているようなので整理してみました。
筆者は統計というよりは確率の人間なので、ベイズだとかには触らずに確率変数の演算ばかり使います。
大数の法則が使えるような状況
店 の真の評点
が宇宙のどこかに存在していて、レビュワー
の 店
に対する評点
は平均
を持つ独立同分布な確率変数と考えます。
店 の評点
は
件のレビューが付いていたときに
と書けます*1が、これはレビュワーが増えていくと に収束することが知られています。
確率変数である を仮に
に置き換えて考えれば、もはや評点分布は何ら確率的な性質を持ちません。
宇宙のどこかに存在している
の値は3.6が多いかもしれませんし3.8が多いかもしれませんし、そうでないかもしれません。
レビュワー数は実際には有限なので収束せず幾らかは確率的なところがあるのですが、それは次のより一般的な状況で併せて考えます。
中心極限定理が使えるような状況
レビュワー の 店
に対する評点
は平均
と分散
を持ち、ある条件を満足する独立な確率変数と考えます。
このとき
はレビュワーが増えていくと平均 と 分散
を持つ正規分布に法則収束することが知られています。
今回の状況で自然にモデリングしたとき中心極限定理が教えてくれるのは、店 に対する評点が正規分布に従うということだけです。
このとき例の評点分布はどういう形状になりそうでしょうか。
法則収束先の正規分布パラメータが店毎に異なっていることが大事です。複数の正規確率変数のどれかから実現値が取られるのと同じなので、評点のヒストグラムは混合正規分布に従うことになります。評点の平均については大数の法則・中心極限定理が効きますが、レビューの付与された店が増えたとしてもヒストグラムの従う分布は混合正規分布のままです。
店の数だけパラメータを考えるのは大変なので、人力最尤推定の結果として良い店と悪い店の2種類が存在するとします。 以下のようなパラメータで仮にヒストグラムを描いてみました。
np.random.seed(0) r_b = pd.Series(np.random.normal(3.6, 0.03, size=2000)) r_g = pd.Series(np.random.normal(3.75, 0.08, size=4000)) r = r_b.append(r_g) r.hist(bins=50)
例の分布と比べて尖り方が不足していますが、ガタガタした分布自体は簡単につくれることが分かりました。
まとめ
例の分布について統計的に言えることは何もなさそうです。 私自身もガタガタが目立つなという印象を抱きましたが、我々は評点の(ヒストグラムではなく)分布について知らないことが多く、評点分布を滑らかにするような何らかの数学的原理が存在する訳でもありません。
点数操作の可能性を否定するでもないですが、「評点分布が歪な形をしているのは変だ」という信念だけで一企業を攻撃するのは危なっかしくないでしょうか。
申し開き
上に挙げた2つの山の分布が恣意的であるというご指摘を頂いております。おっしゃる通りです。
この記事で言いたいのは、例のヒストグラムの元となる分布は正規分布ではなく混合正規分布になりそうだということです。 皆さん思い思いのパラメータで混合正規分布の曲線を心の中に描いてみて、それと例のヒストグラムを比較して点数操作の可能性を議論頂けたら幸甚です。
*1:ユーザ毎に重みがあったとしても通常は一般性を失わない
「バッチサイズは小さい方が良い」を勾配ブースティングで検証してみる
名刺の会社のアドベントカレンダー3日目です。
へい社ではR&Dメンバーが論文読み会を定期的に開催しています。私は直近でバッチサイズに関するものを読みましたので、それに関連する数値実験を報告しようと思います。
論文
- On Large-Batch Training for Deep Learning: Generalization Gap and Sharp Minima (ICLR 2017)
- Train longer, generalize better: closing the generalization gap in large batch training of neural networks (NIPS 2017)
前者の論文では、Deep Learningにおいて、SGDのバッチサイズを小さくした方が汎化性能の高くなる経験則について、バッチサイズとtrain loss functionの収束先のflatさ/sharpさという観点で分析をしています。バッチサイズが小さいと重みの更新幅の共分散が大きくなり、flatな(局所)解に収束しやすくなることで汎化性能が向上すると主張しています。
後者の論文(の前半部分)では、バッチサイズと重みの更新幅の関係性を学習率で調整した場合には汎化性能の差異がないと反論をしています。
読み会でも、バッチサイズ1にすれば(収束させるのが難しくなりそうですが)汎化性能が最良となるのか議論になりましたので、前者の論文がパラメータチューニングにおいて重要な示唆を与えているものの、そこまで強い主張ができるのか疑わしいと考えています。
今回やること
Deep Learningのパラメータチューニングについては専門家に任せるとして、勾配法でバッチサイズを小さくすれば汎化性能が高くなるというのは勾配ブースティングでも同じなので、XGBoostを用いてこれを検証してみました。 Hyperoptでチューニングして、バッチサイズは小さい方が良いという報告は聞こえてこないので結果は見えていそうですが、とりあえずやってみます。
数値実験
データセットはCredit Card Fraud Detectionを用いました。 クレジットカードのトランザクションが不正かどうかをターゲットとしています。正例が0.17%とかなり不均衡なデータとなっています。
今回はバッチサイズ subsample
, 学習率 learning_rate
以外はデフォルトのパラメータを用いることとします。
正則化パラメータの効き方がバッチサイズの大小によって異なることが予想されますが、ここでは捨象します。
clf = xgb.XGBClassifier( learning_rate=learning_rate, subsample=subsample, base_score=0.0017, n_estimators=num_round, n_jobs=16 )
まずは以下のパラメータで実験してみました。
Model | learning_rate | subsample |
---|---|---|
LB (Large Batch) | 0.1 | 1.0 |
SB (Small Batch) | 0.1 | 0.1 |
ここではバッチサイズの小さい方がvalidationの精度が高くなりました。
学習率の調整
XGBoostの更新幅の分散は
となります。 NIPS論文に従えば、バッチサイズを1/100にするときには学習率を1/10するのが良いとわかります。 学習率を調整した場合の結果は以下のようになります。
Model | learning_rate | subsample |
---|---|---|
LB | 0.1 | 1.0 |
SB adjusted | 0.03 | 0.1 |
LB slow | 0.03 | 1.0 |
こちらの結果では learning_rate
を小さくした効果が本質的でバッチサイズはあまり関係ないように見えます。
バッチサイズの大きい方が収束は速く、より小さい learning_rate
とより多い num_round
によって精度を上げやすいでしょう。
まとめ
バッチサイズの小さい方が汎化性能に優れるケースも確認できた一方で learning_rate
こそが本質的に重要であると思われます。
当然ですが、ICLR論文の模式図のようにバッチサイズを小さくしたからといって劇的に汎化性能の向上は望むべくもないでしょう。
また、Deep LearningではGPUメモリの制約でバッチサイズを小さくしたいことが多い*1一方で、XGBoostでは行方向の圧縮が効いておりバッチサイズを小さくしてもリニアには高速化されず計算効率が悪くなるという事情もあります。
XGBoostのパラメータチューニングにおいては subsample
を大きめで固定しておき learning_rate
を小さく num_round
を大きくする王道が、やはり強いというのを再認識しました。
参考
追記
DeepLearningの最適化と Hessian Freeの資料によるとHessianを使った最適化だと最適なバッチサイズも大きくなることが解説されていました。XGBoostはHessianを用いているため、論文で言われているような効果はそもそも出ないようです。Hessianを利用すると、flatならflatなりの更新量、sharpならsharpなりの更新量になるのでICLR論文のような状況は生じにくいですね。 Hessianを用いないscikit-learnのGBDTでどうなるのか関心あるところですが、再試する気力はないですね…
*1:たくさんGPUを持っているのでむしろバッチサイズを大きくしたい人達もいるようです。そういう背景があって論文にあるような研究がされてる訳ですね。
Ryzenマシン組んだのでXGBoostのGPU版やってみた
Ryzen 7 1700とGTX 1080 Tiでマシンを組んだので、動作確認がてらXGBoostのGPU版を使ってみました。
タイムラインでそういう話題があったのでネタをパクったような形になってしまいましたが、私自身前からやってみたいと思っていたテーマであり、H2O.aiが最近担いでいる話でもあるので許して頂きたい。
構成
- Ryzen 7 1700 (3.7GHz 8core/16thread)
- GTX 1080 Ti FOUNDERS EDITION (1582MHz 11GB)
今のところ定格で動かしてます。 記事と前後してしまいますが、Deep Learning以外の機械学習アルゴリズムもGPUで気軽に計算を高速化できるような予感があったのでCPUはケチりました。 将来GPUを追加する際の資金の足しにしたい。
インストール
私はUbuntuの環境でmakeを使ってビルドしました。
CUDA
CUDAをインストールして
export PATH="$PATH:/usr/local/cuda-8.0/bin" export LD_LIBRARY_PATH="$LD_LIBRARY_PATH:/usr/local/cuda-8.0/lib64"
あたりのパスを通しておきます。nvcc
が動けば問題ないはずなので、cudnnは不要と思われます。
ビルド
make/config.mk
ファイルの該当行を
CUB_PATH = cub PLUGIN_UPDATER_GPU = ON
と変更します。
後は通常と同様にmake
するだけです。
インストールについてもpython3 setup.py install
とすれば問題ありませんでした。(Anaconda)
使い方
updater
パラメータを変更してGPUでの計算に切り替えることができます。
今までと同じパラメータを使っている限りではGPU版をビルドしても通常のCPUによる計算となります。
- GPU exact
param['updater'] = 'grow_gpu'
- GPU fast histgram
param['updater'] = 'grow_gpu_hist' param['max_bin'] = 16
max_bin
はLightGBMとかのアレなので、問題に合わせて設定してください。
サンプルをぼんやり眺めて、GPUが1つしかないのに
param['gpu_id'] = 1
とやるとエラーになって死ぬので注意です。
実験
CPU/GPUとexact/fast histgramで計算時間を比較しました。
ntread | CPU exact | CPU hist | GPU exact | GPU hist |
---|---|---|---|---|
1 | 143.213904 | 43.093807 | 10.793109 | 7.385136 |
2 | 75.984772 | 24.485343 | 10.793109 | 7.385136 |
3 | 56.342093 | 18.662806 | 10.793109 | 7.385136 |
4 | 43.276191 | 14.980951 | 10.793109 | 7.385136 |
5 | 35.087812 | 12.747035 | 10.793109 | 7.385136 |
6 | 29.960601 | 11.476474 | 10.793109 | 7.385136 |
7 | 26.535089 | 11.396709 | 10.793109 | 7.385136 |
8 | 25.082611 | 9.916659 | 10.793109 | 7.385136 |
9 | 24.930102 | 11.761317 | 10.793109 | 7.385136 |
10 | 23.934886 | 11.543043 | 10.793109 | 7.385136 |
11 | 23.353146 | 11.724661 | 10.793109 | 7.385136 |
12 | 23.154665 | 11.528249 | 10.793109 | 7.385136 |
13 | 22.851917 | 11.614104 | 10.793109 | 7.385136 |
14 | 22.556055 | 11.890477 | 10.793109 | 7.385136 |
15 | 22.435674 | 11.309677 | 10.793109 | 7.385136 |
16 | 22.297691 | 11.825569 | 10.793109 | 7.385136 |
CPUよりGPU、exactよりもfast histgramが高速ですが、公表されているベンチマーク程は差が出ませんでした。
CPU fast histgramでも十分速い。X付きのにしときべきだったかなぁ…
nvidia-smi
でモニタリングしたところGPUはまだまだ余裕ある感じだったので、データが巨大になった場合には差が出てくるのかもしれません。
また今更ですが、ntread
をコア数以上に設定しても速くなっていません。
LightGBMは?
LightGBMでもGPU対応されています。 公式のチュートリアル
インストールの仕方の説明でドライバをapt
で入れてたので何となく回避しました。
OpenCLを使っているようなので、QuadroやAMDのグラボを持ってる人には面白いかもしれません。
最後に
今日、我々はDeep Learningに留まらず勾配ブースティングにおいてもGPUモードをポチっとするだけで計算を高速にできるようになりました。 専門家以外にも扱い易い機械学習アルゴリズムがGPUで使われるようになれば、ますますGPU需要が高まることが予想され、AI半導体メーカーの株価動向からは目が離せません。
勾配ブースティング落穂拾い - マルチクラス分類について
勾配ブースティングに特有の問題という訳ではないですが、それはマルチクラス分類をone-vs-allで解いていることに留意しましょうというのが今回の記事です。
2017/04/02追記 LightGBMではマルチクラス分類の際にsoftmaxとone-vs-allのどちらで解くか選択できるようです。 また、XGBoostではsoftmaxのみがサポートされています。 この記事では、マルチクラス分類のためにクラス数と同じ分類器を使っていることを指してone-vs-allとしてしまっています。ご注意ください。
マルチクラス分類について
ここではマルチクラス分類の問題を対象に、アンサンブル学習として代表的なランダムフォレストと勾配ブースティングとを比較します。
ランダムフォレスト
ランダムフォレストによるマルチクラス分類では学習器に分類木を用いています。
scikit-learnではDecisionTreeClassifier
です。
分類木はマルチクラスを自然に扱えるので、n_estimators
と同じ数だけ木を作れば求めるモデルが構築できます。
勾配ブースティング
勾配ブースティングでは弱学習器に回帰木を用いているので事情が変わってきます。
マルチアウトプットの回帰木は一般的ではありませんので、問題をone-vs-allに変換して解くことになります。
そのため勾配ブースティングでは指定したn_estimators
とクラス数の積の数だけ木を作る必要があります。
勾配ブースティングは速度と精度を高いレベルで両立していますが、マルチクラス分類では
- クラス数と比例して計算時間が増加する
- Dark knowledge的なものを利用できない
という欠点が出てくるので、勾配ブースティングのメリットがスポイルされていないか留意する必要がありそうです。
数値例
勾配ブースティング(というかone-vs-all)が苦手そうな例を考えてみました。 セルの中は(クラスAの割合, クラスBの割合)を示しています。
sex/height | 低 | 高 | |
---|---|---|---|
男 | (5%, 10%) | (15%, 10%) | (20%, 20%) |
女 | (15%, 15%) | (5%, 15%) | (20%, 30%) |
(20%, 25%) | (20%, 25%) |
この例にone-vs-allを使うと、クラスBについてsexで分割する以上のものが出てきません。 一方で分類木を使った場合は、クラスBについてsexで分割した後でクラスAの濃い部分を抽出するheightでの分割を発見できます。
マルチクラス分類をXGBoostのみで取組むのは微妙な感じがしますね。 あまり業務でスタッキングしたくないのですが、それも避けられないように思われます。 もしくはDeep Learningするか。
参考
- The Elements of Statistical Learning(カステラ本)
- Introduction to Boosted Trees
- 実践多クラス分類
- Understanding XGBoost Model on Otto Data
- Dark knowledge
ブースティングやDeep Learningが一般化した時代におけるマルチクラス分類の解き方についてはOtto Group Product Classification ChallengeのForumで盛んな議論があったようです。 実戦的なテクニックも数多いようなので、関心のあるかたはそちらで調査されるのが良いと思われます。
勾配ブースティング落穂拾い - 木の構築について
このシリーズについて
XGBoost芸人を自称してちょこちょこ活動をしてきたのですが、最近になって自分の理解の甘さを痛感するようになりました。
気になった箇所を散発的に復習しているのですが、その成果を備忘録として残しておこうと思います。 今のところ体系的にまとめるつもりはないので、これを読んでも勾配ブースティングの全体像はつかめませんので悪しからず。
今回のテーマ以外にはマルチクラス分類の際の挙動等に関心を持っています。
木の構築について
勾配ブースティングでは 回目のイテレーションで誤差
の勾配を上手く表現した木を構築します。
この部分の処理についてscikit-learnとXGBoostでの違いを確認します。
scikit-learn
カステラ本に準拠した処理になっています。 勾配の計算は
となり、これを各サンプルのラベル扱いにして DecisionTreeRegressor
に投げます。
このとき当然 DecisionTreeRegressor
は2乗誤差*1を最小にするよう葉に属するサンプルにスコアを付けます。つまり平均値となっています。
ロス関数がRMSEのケースではそれで問題ないのですが、他の関数ではズレが生じます。
そのため、木の分岐は DecisionTreeRegressor
の結果を使うのですが、最終的なスコアには補正をかけて対応します。
例えば、ロス関数がMAEの場合は、葉に属するサンプルの中央値をスコアとして採用するのが、木の構造を所与としたときの最適となります。
XGBoost
XGBoostでは正則化項が追加されているので最適化の目的関数が異なります。式の導出は別に譲りますが以下のようになります。
木の構造を所与としたとき最適な は
となります。これは最適化の1階条件
によります。ここで
となるためには
でなければなりません。
これを代入すれば目的関数から が消去できます。
したがってXGBoostでは、ある分割についてはじめから最適なスコアを付ける前提で、最適な分岐を探索していることになります。
ポエム
XGBoostは通常の勾配ブースティングより精度が良いとされており、その原因は主としてL1/L2正則化にあるとされています。 確かに通常の勾配ブースティングでもインサンプルの誤差を0にするのは簡単なので、汎化性能の高さは正則化によるものと考えるのが自然です。
しかしながら、今回見てきたようにXGBoostは通常のものより精度の高い近似計算をしています。 個人的には正則化がそれほど効いていると思えないので、最適化の工夫によって高い汎化性能が実現しているのではないかと疑っています。 XGBoostの収束が速い分だけ、同水準のインサンプル誤差で比較したときに森の複雑性がより小さいと期待できるのではないでしょうか。
参考
- The Elements of Statistical Learning(カステラ本)
- Introduction to Boosted Trees
- 統計的学習の基礎読書会資料
- Overview of tree algorithms
*1:オプションで絶対誤差も指定可能
4教科で珍しく良い点取った生徒のカンニングを疑ってはいけない、「竜王を弁護する」について
はじめに
将棋ソフト不正疑惑に関する事件について新たな記事が出ていたので、また計算機を叩いてみました。
2017/02/27追記 当該記事は削除されてしまっています。一時、ハフィントンポストが全文を掲載してくれていたのですが、そちらも削除されています。ご覧なりたい方は自身で魚拓を漁ってください。
三浦九段については晴れて「シロ」判定がされて、これから名誉回復をどうしていくかという段で、このような記事が出てくるのには違和感があります。
ネット上でもあまり評判良くないようなので、今更内容に噛み付く必要もないのですが、データジャーナリズムの手習いとして公開してみます。
前提
ここでは、記事中にある一致率の推定値を真の値として扱います。
一致率については、将棋ソフトや局面の違いによって値に大きな差異が出る可能性が指摘されています。 そのような数字を基に組み立てたロジックは無意味だと一蹴することもできるのでしょうが、一致率を受け入れた上でも反論が可能と私は考えました。
設定
記事中では、ある対局で高い一致率の示される確率について2つの数字が提示されています。
- 10%: 「当方の計算では、出現率でいえば、良くて10%程度」
- 25%: 「第三者委員会の報告は、(中略)上位4分の1に入るような出来」
はっきりと「ある対局で高い一致率の示される確率」と書かれている訳ではないですが、文脈からそう判断して問題ないと思われます。
私も以前の記事で計算をしたのですが、ある対局で一致率85%以上となる確率を9.79%と概算しています。 不安定な一致率の推定値から計算したものなので、これが正しいと考えてもいませんが、ここでは三浦九段に不利な10%を採用してみます。
確率計算
弁護記事では「そんな出来の良い将棋が、疑いをもたれた短期間に、4局も」あったと指摘しています。「短期間」が何を指すか明らかではありませんが、私の前回記事では某まとめサイト情報を参考に12局としていました。
12局中4局以上で高い一致率が示される確率
r = 0.1 num = 12 lim = 3 s = 1.0 - scipy.stats.binom.cdf(lim, num, r)
2.56%となります。 教科書にあるような有意水準5%だと、通常では起こりにくいことが起こっていて疑わしいとなります。
以前の記事では、12局というのが恣意的に切り取った一部なのでシロともクロとも言えないとコメントしていましたが、よくよく考えれば恣意的な切り取りについても数値的に評価できそうなので、その計算を今回追加します。
一致率の高くなる期間を切り取れる確率
三浦九段の2015年度対局数は42局です。 42局の中に一致率の高い4局を含む12局が出現するか、という問題に変わると、この確率は当然ながら2.56%より高くなります。
解析的に解く方法が思いつかないので、モンテカルロ法を使ってみます。エレガントな解法があれば教えてください。
確率10%のクジを42回引いて、結果のrolling_sumの最大値が3を超えるかで判定しています。
num_ext = 42 num_iter = 10000 res = np.zeros(num_iter) for ii in range(num_iter): samp = np.random.choice([0, 1], num_ext, replace=True, p=[1.0-r, r]) seq = pd.Series(samp).rolling(window=num).sum() res[ii] = seq.max() s = (res > lim).mean()
モンテカルロ法なので結果にブレはありますが、17%程度という結果になりました。
トップ棋士は、ベースの一致率が高くなりがちというだけでなく、対局数つまり試行回数が増えてしまうため、一致率による疑いをかけられやすい構造にあるようです。
計算は以下にまとめています。 github.com
主張
サンプルを恣意的に切り取ることで、17%程度発生するありふれた事象を2%程度に見せることができます。 我々が統計の結果を作る・見るときには、このようなテクニックが使われていないか常に注意する必要があります。
いつもソフトを使ってる訳でないので、一致率の高い4局が問題で、12局だとか42局は関係ないという論を張っている人もいるようですが、これは誤りです。 無実の人が同じ試行をしたときに起こりそうもない結果が出たときのみ疑いをかけるのが正しい姿勢です。 羽生さんの対局から一致率の高い1局を引っ張ってきて、いつもはソフト指ししていないけれど、当該局ではソフト指ししていたという主張は馬鹿げているでしょう。
また、弁護記事では試験のカンニングについて言及されていますが、もし教師の方がいらっしゃたら記事のような手続きで生徒を疑うのはやめてください。個人的に疑いを持って物的証拠を探すのはセーフかもしれませんが、疑いを同僚教師に話したりするのはアウトです。 過去の偏差値からは取れそうもない点数を取る程度の事象であれば、「卒業までに受ける試験の数×カンニングが疑われるような素行の生徒数」の回数の試行があれば、簡単に発生してしまうのが確率というものです。
最期に
最近、話題のBIGについて計算したのですが、そちらでは直感通りのつまらない結果になりました。