タグ

機械学習と線形回帰に関するrin51のブックマーク (3)

  • 線形回帰の Normal Equation(正規方程式)について - Qiita

    前置き 某 オンライン機械学習コース の Linear Regression with Multiple Variables(多変量線形回帰)で出てきた、Normal Equation(正規方程式)について。 Andrew Ng 先生(以降、Ang先生 と略記)が「導出するのめんどい(意訳)」と言って結果だけ示されたので、ちょっとだけ掘り下げてみました。 その中で、疑問点も浮かんできたので共有してみます。 私自身、まだちゃんと分かってない部分もあるかもなので、ツッコミ大歓迎です。 【2015/07/24 23:10】検証コードを追加し、大幅に加筆修正しています。 まずはおさらい。 $X$ は、トレーニングデータの特徴量全体を表す $m \times (n+1)$ 行列($m$(行数)はデータの件数、$n$ は feature(特徴)の数)。 $y$ は、トレーニングデータの「正解の値」を並

    線形回帰の Normal Equation(正規方程式)について - Qiita
  • 機械学習手習い: 多項式回帰と正則化 - うなの日記

    「入門 機械学習」手習い、6日目。「6章 正則化:テキスト回帰」です。 www.amazon.co.jp 多項式回帰と、過学習を避けるための正則化について学び、最後に正則化を使って書籍の裏表紙の紹介文から人気順を予測します。 # 前準備 > setwd("06-Regularization/") > library('ggplot2') 非線形データの回帰分析 世の中には、直線では関係をうまく表現できないデータがあります。 例えばこんなの。 > set.seed(1) > x <- seq(-10, 10, by = 0.01) > y <- 1 - x ^ 2 + rnorm(length(x), 0, 5) > ggplot(data.frame(X = x, Y = y), aes(x = X, y = Y)) + geom_point() + geom_smooth(method

    機械学習手習い: 多項式回帰と正則化 - うなの日記
  • 第11回 線形回帰を実装してみよう | gihyo.jp

    前回の掲載からしばらく間が空いてしまいましたが、今後は中谷の方で連載を進めていくことになりました。理論編と実践編を交互に進めていくスタイルは継続していきますので、引き続きよろしくお願いします。 線形回帰の復習 今回は連載第8回と第9回で紹介した線形回帰を実装してみる実践編です。 まずは簡単に復習しましょう。 回帰とは、与えられたデータに適した(データを上手く説明できる)関数を求める手法です。点の近くを通る曲線を見つけるときにも用いられます。中でも、基形として選んだ関数の線形和(式1)から関数を探すのが線形回帰です。 (⁠式1) ここでφ(x)=(φm(x))を基底関数といい、何か適切な関数を選んで固定します。その選び方によってモデルの性能や得られる関数の形などが決まるので、基底関数は解きたい問題にあわせて選ぶ必要があります。 しかし今はわかりやすさを優先して、シンプルな多項式基底(式2)

    第11回 線形回帰を実装してみよう | gihyo.jp
  • 1