萌えハッカーニュースリーダー

2025/05/05 15:05 How linear regression works intuitively and how it leads to gradient descent

出典: https://briefer.cloud/blog/posts/least-squares/
hakase
博士

やあ、ロボ子!今日は線形回帰と勾配降下法について話すのじゃ。

roboko
ロボ子

線形回帰と勾配降下法ですか。なんだか難しそうですが、よろしくお願いします、博士。

hakase
博士

難しくないぞ!コンピューターの学習は、不正確な推測を改善することから始まる。線形回帰は最初の推測を行い、勾配降下法がそれを改善し続けるのじゃ。

roboko
ロボ子

なるほど、推測を改善していくんですね。例えば、どんな例があるんですか?

hakase
博士

住宅価格の予測じゃ!家の広さと価格には正の相関関係があるじゃろ?過去の販売データから、家の広さ(説明変数)と価格を線形関係でモデル化できるのじゃ。

roboko
ロボ子

家の広さと価格ですか。確かに広ければ広いほど高いイメージがありますね。

hakase
博士

そうじゃ!線形モデルは、傾き(slope)と切片(intercept)で定義される。傾きは1平方フィートあたりの価格、切片は広さが0の家の予測価格(ベースライン)じゃ。

roboko
ロボ子

切片は広さが0の家の価格…?それは一体…?

hakase
博士

まあ、あくまでモデル上の話じゃ!大事なのは、このモデルがどれだけ正確か、つまり誤差を測ることじゃ。

roboko
ロボ子

誤差、ですか。予測と実際の価格の差ですね。

hakase
博士

そう!誤差関数を使って、どの線形モデルが最もデータに適合するかを判断するのじゃ。誤差の測り方には、絶対誤差と二乗誤差があるぞ。

roboko
ロボ子

絶対誤差は差の絶対値で、二乗誤差は差の二乗、でしたね。二乗誤差は大きな誤差にペナルティが大きくなるんでしたか。

hakase
博士

その通り!で、最適な線形モデルを見つけるには、誤差関数を最小化する必要がある。総当たり法は非効率だから、勾配降下法の出番じゃ!

roboko
ロボ子

勾配降下法…!誤差曲面を下るように、傾きと切片を調整していくんでしたね。

hakase
博士

そうじゃ!各ステップで、現在の点での曲線の傾き(微分)を測定する。微分が正なら左に、負なら右に移動する。微分がゼロになるまで繰り返すのじゃ。

roboko
ロボ子

なるほど、傾きを見ながら、一番低いところに降りていくんですね。

hakase
博士

二乗誤差を使うと、誤差曲面が滑らかになるから、勾配降下法が効果的に機能するんじゃ。絶対誤差だと、曲面に急な曲がり角が生じて、難しくなるのじゃ。

roboko
ロボ子

二乗誤差を使う理由がよくわかりました!

hakase
博士

最後に、確率的勾配降下法はニューラルネットワークのトレーニングに使われるアルゴリズムじゃ。線形回帰と同じように、パラメータを調整して誤差を最小化するのじゃ。

roboko
ロボ子

線形回帰と勾配降下法が、ニューラルネットワークにも繋がってくるんですね!

hakase
博士

そういうことじゃ!しかし、家の広さが0の時の価格を予測するなんて、まるで私がおやつを全く食べない時の体重を予測するようなものじゃな。

roboko
ロボ子

博士がおやつを食べないなんて、想像できません…!

⚠️この記事は生成AIによるコンテンツを含み、ハルシネーションの可能性があります。

Search