前置き 某 オンライン機械学習コース の Linear Regression with Multiple Variables(多変量線形回帰)で出てきた、Normal Equation(正規方程式)について。 Andrew Ng 先生(以降、Ang先生 と略記)が「導出するのめんどい(意訳)」と言って結果だけ示されたので、ちょっとだけ掘り下げてみました。 その中で、疑問点も浮かんできたので共有してみます。 私自身、まだちゃんと分かってない部分もあるかもなので、ツッコミ大歓迎です。 【2015/07/24 23:10】検証コードを追加し、大幅に加筆修正しています。 まずはおさらい。 $X$ は、トレーニングデータの特徴量全体を表す $m \times (n+1)$ 行列($m$(行数)はデータの件数、$n$ は feature(特徴)の数)。 $y$ は、トレーニングデータの「正解の値」を並