☆機械学習の理論的側面のみではなく,Pythonとscikit-learnを用いた実践演習を通して,理解を深めていく!
※日程が延期になりました。2/22(木)⇒ 6/18(火)
1.はじめに
1-1 講師自己紹介
1-2 セミナーの狙い
2.演習環境の確認
2-1 Pythonの実行環境の確認
2-2 各種ライブラリ(NumPy,SciPy,matplotlib,scikit-learn)の実行環境の確認
2-3 統合開発環境Spyderの実行環境の確認
2-4 Pythonの実行方法(インタプリタ,コマンド渡し,統合開発環境)
3.Python入門講座
3-1 Pythonの特徴
3-2 Pythonの基本文法
3-3 コーディング方法(統合開発環境Spyderの使い方含む)
3-4 各種ライブラリ(NumPy,SciPy,matplotlib,scikit-learn)の使い方
3-5 機械学習アルゴリズムの実装方法
3-6 サンプルコードを用いた実践演習
3-7 参考書・情報源の紹介
4.機械学習概論
4-1 機械学習の概要
4-2 三大学習法(教師あり学習,教師なし学習,強化学習)
4-3 機械学習データセットの紹介
4-4 機械学習におけるデータの著作権
4-5 専門書・参考書の紹介
5.教師あり学習
5-1 教師あり学習の概要
5-2 クラス分類と回帰
5-3 過剰適合(過学習)と適合不足(学習不足)
5-4 モデル複雑度と精度
5-5 多クラス分類
5-6 各種教師あり学習アルゴリズムの基礎理論と実践演習
5-6-1 k-最近傍法(クラス分類,回帰)
5-6-2 線形モデル(線形回帰,Ridge回帰,Lasso回帰,ロジスティック回帰)
5-6-3 サポートベクトルマシン(ハードマージン型線形モデル,ソフトマージョン型線形モデル,非線形モデル)
5-6-4 決定木
5-6-5 アンサンブル学習(ランダムフォレスト,アダブースト)
5-7 クラス分類の性能指標
6.教師なし学習
6-1 教師なし学習の概要
6-2 次元削減と特徴量抽出
6-3 各種教師なし学習アルゴリズムの基礎理論と実践演習
6-3-1 主成分分析(次元削減)
6-3-2 k-平均法(クラスタリング)
6-3-3 凝集クラスタリング
6-3-4 DBSCAN(クラスタリング)
6-4 クラスタリングの性能指標
7.実装上の注意事項
7-1 データの前処理(スケール変換)
7-2 テスト誤差の最小化(k分割交差検証)
7-3 ハイパパラメータの最適化(グリッドサーチ,ランダムサーチ)
7-4 実データの読み込み方法
8.まとめと質疑応答
◆注意事項:
本セミナーでは,演習を行いますので,以下の条件を満たしたパソコン(デスクトップ型,ノート型いずれも可)をセミナー当日までに準備してください.
1)プラットフォームは,Windows,Linux,MacOSを問いません.
2)演習環境を統一したいので,事前にMinicondaを用いて,Python 3.x(バージョン3系)をインストールしておいてください.
3)Minicondaを利用すると,演習で必要な標準・外部ライブラリがほとんど自動インストールされます.ただし,統合開発環境Spyder,機械学習ライブラリscikit-learn,および可視化ライブラリseabornは,追加インストールする必要があります.これらのインストール方法は,Windowsの場合,Anaconda Prompt,macOSやLinuxの場合,ターミナルを開き,コマンドラインより下記のコマンドを入力して個別にインストールしてください.
conda install spyder
conda install scikit-learn
conda install seaborn
4)演習で使用するサンプルコードは,セミナー開催前に配布いたします.
5)本セミナーでは,Pythonの統合開発環境(IDE)として,Spyderを用いて説明を行いますが,使い慣れている開発環境(例えばJupyter Notebook,Jupyter Labなど)がある方はそちらを使っていただいて構いません.
6) 教師あり学習,教師なし学習とも「各種学習アルゴリズムの基礎理論と実践演習」では,当日の進行状況に応じて,すべての手法が取り上げられない可能性があります.