サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
ブラックフライデー
hacarus.github.io
予測は、インスタンスの特徴量の値が "プレイヤー"で、予測が報酬であるようなゲームを想定して説明できます。 シャープレイ値(協力ゲーム理論の手法)は、特徴量の間で "報酬" を公平に分配する方法を教えてくれます。 5.9.1 一般的なアイデア 次のシナリオを想定してみましょう。 あなたは、アパートの価格を予測するための機械学習モデルを学習しました。 あるアパートは €300,000 と予測されており、この予測を説明する必要があります。 そのアパートの広さは 50m2 で、二階にあり、近くに公園があり、猫を飼うことは禁止されています。 FIGURE 5.42: 公園が近く猫が禁止されている 50m2 の二階のアパートの予測価格は €300,000。目的は、これらの特徴量がそれぞれどのように予測値に寄与したのかを説明すること。 全アパートの平均予測値は €310,000 です。 平均予測値と比
まずは短い物語をいくつか紹介しましょう。 それぞれの物語は解釈可能な機械学習のためにいささか誇張されたものです。 もし急いでいるなら、これらの物語は読み飛ばしても大丈夫です。 もし楽しみたいとか、やる気を出したい(ときに失くしたい)ならば、ぜひ読んでみてください! 話の構成は Jack Clark の Import AI Newsletter に掲載されている技術小話から影響を受けています。 もしこれらの物語が気に入って、AI に興味を持ったならば、そのニュースレターに登録しておくことをオススメします。 稲妻は二度と打たない 2030年:スイスの医療ラボ 「絶対に、医療ミスなんかじゃありませんでしたよ!」トムは起こった悲劇の中から少しでもマシなことがないか探すかのように言った。 彼は患者の静脈からポンプを引き抜いた。 「彼は医療ミスのせいで亡くなったんじゃないわ」レナが言った。 「この狂っ
Interpretable Machine Learning A Guide for Making Black Box Models Explainable. Christoph Molnar 2021-05-31 要約 機械学習は、製品や処理、研究を改善するための大きな可能性を秘めています。 しかし、コンピュータは通常、予測の説明をしません。これが機械学習を採用する障壁となっています。 本書は、機械学習モデルや、その判断を解釈可能なものにすることについて書かれています。 解釈可能性とは何かを説明した後、決定木、決定規則、線形回帰などの単純で解釈可能なモデルについて学びます。 その後の章では、特徴量の重要度 (feature importance)やALE(accumulated local effects)や、個々の予測を説明するLIMEやシャープレイ値のようなモデルに非依存な手法(mo
このページを最初にブックマークしてみませんか?
『hacarus.github.io』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く