授業雑感
この授業では機械学習の基本理論や数理論理学、回帰、分類、クラスタリング、ニューラルネットワークを学習した。
基本理論の部分はエージェントモデルや古典的な経路探索問題に対する知能探索が主要な内容であった。
数理論理学はいわゆる複雑な命題に対して、連語標準形などに単純化して問題を解く感じがほとんどで、パズルゲームみたいな感覚であった。
命題の単純化は、推論モデル形成に関わる充足可能性問題(SAT問題)などにも繋がる内容なので、見識を広めたという意味では良かったと思う。
機械学習は古典的な回帰、分類、クラスタリング問題で実際に演習する感じであった。
(よく機械学習の例で取り上げられるアヤメ株の分類とかもあった。)
そのあとはニューラルネットワークの基本構造と適用演習、非線形化に必要な活性化関数とかを学習した。
さらには画像の物体識別によく使われる、畳み込みニューラルネットワークの仕組みとかも勉強した。
新しく学習する内容が多かったので、割と大変であった。
が、機械学習の基盤となる理論や考え方は身についたと思うので、ためになったと思う。