明朝仕事で早いので、トンガ王国のタイムゾーンにて日付変更直後に投稿させて頂きます。Machine Learning Advent Calendar 201217日目の内容です。 軽い気持ちで手を挙げてみたものの、蓋を開けたら(自分には)高度なテーマが次から次へと。一方で、今回初歩的な内容取り上げてしまったので少々場違い感があります。恐縮気味の@thso83です。どうぞよろしくお願い致します。 さて、12/17の担当回では、反復学習におけるヘッセ行列の役割について、ロジスティック回帰を例にとりながら解説を試みようと思います。12月17日といえばライト兄弟が人類初の動力飛行を成し遂げた日として有名ですが、みなさんも本記事を参考に初めての機械学習を成し遂げてはいかがでしょうか(こじつけ苦しいな・・・)。 さて、ロジスティック回帰は、回帰という名前が紛らわしいですが、2クラス分類問題における一般化
最急降下法 戻る ニューラル関連の学習則は,この方法を使っていることが多い.バックプロパゲーションだって最急降下法だし,ホップフィールドモデルだって最急降下法を使ってる. エネルギー関数最小化(または最大化)を目的とする問題では,パラメータ逐次更新の方法として最急降下法を使うのが常套手段だ.理屈さえ分かれば,それほど難しい話ではないからね. 最急降下法: まず最小化(または最大化)すべき基準となる,ある関数が与えられているとする.この関数を最小化(または最大化)するようなを求めるのが目的なのだが,まずに適当な初期値を与え,次のような方法でを逐次更新していく. (を最小化する場合) (を最大化する場合) ここでは 1 より小さな正の値とする. で,なんでこの方法で関数を最小化(または最大化)できるのかというと,図で説明するとこんな感じになる(最小化に関して説明する).
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く