Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

タグ

回帰に関するseikennのブックマーク (8)

  • 今さら人に聞けない「重回帰分析の各手法の使い分け」 - 渋谷駅前で働くデータサイエンティストのブログ

    (※※※続編記事書きました→「使い分け」ではなく「妥当かどうか」が大事:重回帰分析&一般化線形モデル選択まわりの再まとめ) 今ちょうどadtech tokyo 2013の会期中で、職場からも近い&会社から行ってこいという指示が出たということで僕も色々セッションを聞いたり企業ブースのお話を聞いたりしてる*1ところです。 ところで、いくつかのセッションの中でキーワードとして「重回帰分析」という言葉が出てきてました。ま、それ自体はこのブログでもRによるデータ分析絡みで頻出だし、ぶっちゃけありふれた手法と言って良いでしょう。やりようによっては普通にExcelでもできますし、それだけ人口に膾炙していると言って良いのかもですね。 ただし。意外にも内部のパラメータというか細かい手法の分岐というか、それこそ普通の線形モデルvs.一般化線形モデル(バリエーション多数)があることを無視して漫然と重回帰分析をや

    今さら人に聞けない「重回帰分析の各手法の使い分け」 - 渋谷駅前で働くデータサイエンティストのブログ
  • Rで線形単回帰分析 - matsuou1の日記

    次回のTokyo.Rの開催が近づいてきたので、前回の復習を兼ねてRで回帰分析をやってみます。 今回は最も単純な線形単回帰分析を行います。 回帰分析の流れ 回帰式を求める意義があるか検討する(説明変数と目的変数のグラフを作成する等) 回帰式を求める 回帰式の精度を確認する 回帰係数の検定を行う 信頼区間と予測区間を求める 回帰式を求める意義があるか検討 無相関なデータに対しても、数学的には回帰式が求められるため、検討しておくことは重要です。 データはマンガでわかる統計学 回帰分析編のデータを使用してみます。 ある喫茶店のアイスティーの売り上げとその日の最高気温についてのデータです。 > norns temperture icetea 8/22 29 77 8/23 28 62 8/24 34 93 8/25 31 84 8/26 25 59 8/27 29 64 8/28 32 80 8/2

    Rで線形単回帰分析 - matsuou1の日記
  • Python:回帰分析 : 分析技術とビジネスインテリジェンス

    今回はPythonによる回帰分析(OLS:Ordinary Least Squares)の実施方法をまとめる。 まずは最小2乗法に基づく重回帰式の作成と結果表示方法を取り上げる。 ライブラリの使い分けについては調査のしやすさを優先しているが、回帰分析については統計モデルはOrange、予測モデルはscikit-learnでやろうかなと考えている。 来はすべてを統一したいが、後者ライブラリは回帰分析の結果表示で、p値や偏回帰係数の出力が無いようだし、ステップワイズの実施方法も見当たらなかった。しかし、予測モデルとなれば、その精度と堅牢性を高めることが目的となり、p値などに言及しなくても説明責任は果たせるので、逆にscikit-learnのシンプルさが生かせると思っている。 ■ライブラリ >>> import Orange >>> from padnas import * ■データ >>>

  • 第14回 ベイズ線形回帰を実装してみよう | gihyo.jp

    前回までに紹介したベイズ線形回帰を実装してみます。 ベイジアンという言葉に難しい印象を持たれている方もいるかもしれませんが、実装が劇的に難しくなったりはしませんから、ご安心ください。 ベイジアンに難しいところがあるとすれば、増えたパラメータをどう決めるかという点と、確率分布として求まる解をどう扱うかという点でしょうか。今回はそのあたりも含めて、見ていくことにしましょう。 環境はこれまでと同じPython&numpy&matplotlibを使用します。インストールなどがまだの方は連載第6回を参照ください。 普通の線形回帰のコードを復習 それでは、ベイズ線形回帰を解くコードを実際に書いていくのですが、第11回で書いた普通の線形回帰のコードに必要な部分を書き足す形で進めましょう。ただし、特徴関数φにはガウス基底を使うことにします。 ガウス基底は、次のような正規分布と同じ釣り鐘型をした関数です。た

    第14回 ベイズ線形回帰を実装してみよう | gihyo.jp
  • 図(だけ)で説明する回帰分析 - 社会学者の研究メモ

    分かっているようで意外と分かっていないのが回帰分析です。回帰分析の考え方をできるだけ図だけで説明した資料を作りましたので、適宜ご参照ください。 「(ほぼ)図(だけ)で説明する回帰分析」(PDF) 主な内容は、以下のとおりです。 説明変数と撹乱項の相関の理解 予測値の信頼区間をプロットすることの重要性の理解 「変数をコントロールする」ということで曖昧に理解されている内容の理解

    図(だけ)で説明する回帰分析 - 社会学者の研究メモ
  • 回帰分析におけるデータ正規化の意味と重回帰分析における正規化データの扱い - OKWAVE

    回帰分析においてデータの正規化は、入力と出力のデータのスケールを揃えるための処理です。データの正規化により、各変数のスケールの違いが予測結果に与える影響を均一化することができます。 ただし、データを正規化することで予測結果の解釈が難しくなる場合もあります。正規化したデータの予測結果は0以上1以下の値しか取らないため、実際の値として意味を持つかどうかは状況によります。 正規化したデータで予測する場合、新しいデータを予測式に代入する前に、予測結果を元のスケールに戻す必要があります。具体的な方法は、正規化する前のデータの平均値や標準偏差を使用して、逆変換することです。 重回帰分析をプログラム作成することを考えています。 しかし、データの正規化について疑問が2つあります。 まず一つは、例えば、画像の解析をする場合にデータの正規化をすることは、 ノイズを除去したり、画像の向きを正しくすることを意味し

    回帰分析におけるデータ正規化の意味と重回帰分析における正規化データの扱い - OKWAVE
  • 第11回 線形回帰を実装してみよう | gihyo.jp

    前回の掲載からしばらく間が空いてしまいましたが、今後は中谷の方で連載を進めていくことになりました。理論編と実践編を交互に進めていくスタイルは継続していきますので、引き続きよろしくお願いします。 線形回帰の復習 今回は連載第8回と第9回で紹介した線形回帰を実装してみる実践編です。 まずは簡単に復習しましょう。 回帰とは、与えられたデータに適した(データを上手く説明できる)関数を求める手法です。点の近くを通る曲線を見つけるときにも用いられます。中でも、基形として選んだ関数の線形和(式1)から関数を探すのが線形回帰です。 (⁠式1) ここでφ(x)=(φm(x))を基底関数といい、何か適切な関数を選んで固定します。その選び方によってモデルの性能や得られる関数の形などが決まるので、基底関数は解きたい問題にあわせて選ぶ必要があります。 しかし今はわかりやすさを優先して、シンプルな多項式基底(式2)

    第11回 線形回帰を実装してみよう | gihyo.jp
  • ロジスティック回帰 - Wikipedia

    ロジスティック回帰(ロジスティックかいき、英: Logistic regression)は、ベルヌーイ分布に従う変数の統計的回帰モデルの一種である。連結関数としてロジットを使用する一般化線形モデル (GLM) の一種でもある。1958年にデイヴィッド・コックスが発表した[1]。確率の回帰であり、統計学の分類に主に使われる。医学や社会科学でもよく使われる[要出典]。 モデルは同じく1958年に発表された単純パーセプトロンと等価であるが、scikit-learnなどでは、パラメータを決める最適化問題で確率的勾配降下法を使用する物をパーセプトロンと呼び、座標降下法や準ニュートン法などを使用する物をロジスティック回帰と呼んでいる。

    ロジスティック回帰 - Wikipedia
  • 1