1 min read

「【キカガク流】人工知能・機械学習 脱ブラックボックス講座 - 初級編 -」を修了した

nabeen

冬休みも終わりに近づいてきた。つらい。

今日はキカガクさんが Udemy に出している講座の初級編の方を修了した。ちなみに明日は中級編をやる。

4 時間ちょいの講座で、内容的には以下。

  • 概念の紹介
  • 微分
  • 単回帰分析
  • Python 速習
  • 単回帰分析の実装

Udemy は再生速度を〜2 倍まで設定できて、僕は 1.75 倍で視聴した。日本語講座なので、これくらいの再生速度でも全然問題ない。なので実質 3 時間もかからないくらいで終わったんじゃないかな。

所感

とにかく全体を通してわかりやすい講座だった。まぁ初級編だからそんなに小難しいものがないってのもあるんだろうけど。単純に教え方もうまいと思う。

最初は機械学習とは、みたいな概念の話から始まって、機械学習には教師あり学習と教師なし学習と〜みたいな、まぁ聞き慣れた話があった。まぁこの辺は普通に知ってるしね?と思ってたら、「内挿」「外挿」という、聞いたことがなかった話もあった。

内挿は学習データの"範囲内"で、外挿は学習データの"範囲外"のもの。内挿に関しては保証されるけど外挿は保証されないらしい。ここに関しては実際に最後の演習問題で外挿のデータに対しては明らかにおかしい予測値が出ることを確認できたので、あーそういうもんなんだなーという実感を得ることができた。

あとはまぁ微分の復習やらなんやらをやって、次が実際に単回帰分析。

ここでは、微分で最小値になる計算式を求めるスタイルだった。今までの傾向だと、最急降下法で更新式を定義して求めていたので、やり方が違うやつだった。確かに Coursera で Andrew 先生が、微分して求めるやり方もあるみたいなことを言っていた気がしたので、あぁこれがそうなのかって学びがあった。

あと、データの中心化という考え方も新しく知った。正則化とか正規化はやっていたけど、中心化という手法もあるみたいだ。まぁでも多分これは最急降下法とかだとあんまり意識しなくていいやつっぽい気がした。知らんけど。

続いての Python 速習はさすがに見なくていいかなーと思って、横目でチラチラ見ながら Jupyter Lab の環境を作っていた(ってもデータサイエンス用の Dockerfile 公開されてるからちょろっとdocker-composeを書いただけだけど)。

で、最後が実際に Python でコーディング。上述したとおり今回は微分で最小値を求める式を既に求めていたので、サラッと書いて終わりみたいな、そんなイメージ。とは言えpandasとかnumpyもちゃんとステップバイステップで使っていくので、わかりやすくて助かった。ここらへんはふんわりとしか使ったこと無いので、ちゃんと噛み締めながら進められた。

P.S.

全体的にはいい講座だなと思うんだけど、僕の期待値が高かったってのもあって、最急降下法使わないんだ...とか、まぁ思うところはあった。ホントはもっとコーディングに寄せてほしかったなぁとかとか。

多分それだけ僕の機械学習に対する知見が深まっていってる証拠なんだろうけど、じゃあこの講座を一番最初にやればよかったやんけ!って感じもある。まぁこのへんの知見(学習の順番とか)は、どっかで LT してこようと思う。

明日は同じキカガクさんの中級編の講座をやるので、そちらも楽しみである。