本講では、情報学部で実施する講義、実習、研究の様々な場面で使用することになる、機械学習或いはAIの基礎について講ずると共に、その理解で求められる数学的な素養、及び数式の理解や解釈の方法について言及する。
講義中で扱う数式に対しては、可能な限りその意味を説明する。また、数式の変形の過程も、出来るだけ省略せずに示すので、講義ノートの作成を重々行うこと。また、講義後は、ノートに基づいて復習を十分に行い、不明な点は、次回の講義で質問すること。
本講では、復習が重要である。復習を厳に行うこと。
尚、本講を理解するためには、工学系の学生が1年生前期で習得する程度の、微分積分学や線形代数に対する素養が必要である。特に、単位互換制度に基づいて学部外から受講を考えている方は、自身の専門性をよく考慮すること。
第1回 講義内容の概説; 受講に対する注意点の提示; 教師あり学習と回帰の一致性、回帰、2群鑑別、多群鑑別 |
先ず、AIの歴史、特に推論、探索、トイプロブレム、エキスパートシステムなどを概説したのち、教師あり学習と回帰の一致性、回帰、2群鑑別、多群鑑別など本講の内容を概説すると共に、受講に当たっての注意点を説明します。 |
|
続いて、機械学習・AIの中でも本講で重点的に扱う教師あり学習と回帰問題との一致性について説明すると共に、2群鑑別問題、多群鑑別問題について説明を進めます。又、これら機械学習・AIを用いたデータ分析の進め方及び仮説検証サイクルについても概説します。 |
予習内容:シラバスを読んでおくこと。 |
機械学習について、自分なりのイメージを持っておいて下さい。(30分) |
復習内容:教師あり学習とはどのようなものか、回帰とはどのようなものか、説明出来るようになりましたか?(150分) |
|
第2回 教師あり学習と回帰問題との一致性及び特徴量空間 |
教師あり学習は、機械学習のアルゴリズムを用いた回帰問題として捉えることが出来ます。この捉え方は、機械学習アルゴリズムの学習を理解するために必要となります。 |
|
又、特徴量およびその高次元化。MLの基礎事項である特徴量の概念について説明し、その合理的な高次元化を扱う手段として線形代数の必要性を説明します。 |
|
特徴量空間での距離が、波形や画像という数字で表現し難い対象に対する類似性が数値化できることを示します。 |
予習内容:特徴量空間について検索し、どのような概念かについての感触を得てくること。特徴量空間を使って、どうやってものの類似性を図るのでしょうか?(30分) |
復習内容:特徴量空間とはどういったものか、高次元の特徴量とはどういったものか、これに線形代数という数学の道具がどのように関わるのか、説明出来るようになりましたか?(150分) |
|
第3回 ニューラルネットワーク |
機械学習を実現するアルゴリズムの代表例であるニューラルネットワークを説明します。又、これを発展させたもので、現在に機械学習を実現している元となるアルゴリズムである深層ニューラルネットワークを講じます。 |
予習内容:ニューラルネットワークとはどのようなものか調べておくように。(30分) |
復習内容:ニューラルネットワークを説明出来るようになりましたか? 深層化すると、どういった御利益があるか、説明出来るようになりましたか?(150分) |
|
第4回 ニューラルネットワークと識別問題および学習 |
ニューラルネットワークの利用方法として、識別問題がある。本講では識別問題を例として取り、識別で求められる特徴量の自動的な選択や、学習が勾配法によって実現出来ることを説明する。 |
予習内容:畳み込みニューラルネットワークを使った画像識別の実例を一つ、調べておく。どんなことをやっているのだろうか? 性能は?(30分) |
復習内容:ニューラルネットワークの学習を、理解できましたか?(150分) |
|
第5回 直線回帰 |
ニューラルネットワークの学習を理解するために、最も単純な回帰問題である直線回帰について説明する。 |
予習内容:発条に何種類かの重りをぶら下げ、そのときの長さを測ってばね定数を求めたい。何が問題になるだろう?(30分) |
復習内容:ばね定数の測定における問題点は、解決できましたか?(150分) |
|
第6回 正規方程式 |
正規方程式によって直線回帰を実行する。第五回からの続きとして、正規方程式を導出する。 |
予習内容:正規方程式とは何でしょうか?(30分) |
復習内容:正規方程式の幾何学的な意味を理解できましたか?(150分) |
|
第7回 正規方程式を解く |
正規方程式を、解きます。 |
予習内容:ここまでの講義の内容を、よくよく再確認すること。(30分) |
復習内容:実測データに基づいた、直線のy切片及び傾きの式を導けましたか?(150分) |
|
第8回 非線形な回帰問題における正規方程式の取り扱いと誤差逆伝搬法 |
正規方程式が非線形な問題でも利用可能であると共に、解くことが難しいことを実例を使って示します。続いて、ニューラルネットワークの学習で使用される、誤差逆伝搬法に講義を進めます。 |
予習内容:ニューラルネットワークでの学習とはどういったものか調べておいて下さい。(30分) |
復習内容:ニューラルネットワークで学習が可能であるというイメージを持つことが出来ましたか?(150分) |
|
第9回 誤差逆伝搬法 続き |
第八回に続いて、誤差逆伝搬法の説明を続けます。 |
予習内容:誤差逆伝搬法を、数式を使って理解して下さい。(30分) |
復習内容:誤差逆伝搬法を、数式を使って理解出来ましたか?(150分) |
|
第10回 誤差逆伝搬法 纏め |
数式的な取り扱いが面倒な五社逆伝搬法なので、今回は再考します。 |
予習内容:誤差逆伝搬法の復習しておいて下さい。(30分) |
復習内容:誤差逆伝搬法は、もう大丈夫ですか?(150分) |
|
第11回 autoencoder, 教師無し学習, pix2pix, CycleGAN |
ニューラルネットワークの応用として、autoencoderで代表される教師無し学習があり、その発展形として、画像などを合成する能力を持つpix2pixやCycleGANが提案され、利用されている。今回はこれを説明する。 |
予習内容:GANとはなんでしょうか?(30分) |
復習内容:教師無し学習でのニューラルネットワークは、理解できましたか?(150分) |
|
第12回 過学習と性能評価 |
機械学習やAIの実応用において気を付けなければならないのが過学習です。過学習について、多項式の回帰問題を例にとって説明します。又、機械学習アルゴリズムの性能評価についても講じます。 |
予習内容:過学習とはどういった現象でしょうか?(30分) |
復習内容:過学習に気を付けなければならないことを理解できましたか?(150分) |
|
第13回 強化学習や汎用/特化型AI |
今回は、強化学習や汎用/特化型AIについて説明します。 |
予習内容:強化学習とはどんなものでしょうか?(30分) |
復習内容:再学習を理解できましたか?(150分) |
|
第14回 講義の再講 |
ここまでで講じてきた内容を振り返りながら、説明を補っていきます。 |
予習内容:ここまでで分からなかったことを、リストアップしておいて下さい。(30分) |
復習内容:分からなかったことは、理解できましたか?(150分) |
|
第15回 確認テストと講義総括 |
講義内容の全体確認 (末尾の講義内容の部分) ここまでで講じた講義の内容を確認する為のテストを実施し、 |
事後、内容について解説することで本講への理解を確認します。式の意味、式の変形過程などを十分理解した上で、講義に臨んで下さい。 |
予習内容:ここまでの内容を、よく理解しておくこと。(30分) |
復習内容:解けなかった確認テストの問題は、必ず解いておいて下さい。(150分) |
|
|