TOP
チュートリアル
toggle navigation
TOP
チュートリアル
準備編
はじめに
Python 入門
機械学習に使われる数学
微分の基礎
線形代数の基礎
確率・統計の基礎
Step 1 の演習問題
機械学習とデータ分析入門
単回帰分析と重回帰分析
NumPy 入門
scikit-learn 入門
CuPy 入門
Pandas 入門
Matplotlib 入門
ディープラーニング入門
ニューラルネットワークの基礎
Chainer の基礎
Chainer の応用
トレーナとエクステンション
Chainer Tutorial
準備編
はじめに
Python 入門
機械学習に使われる数学
微分の基礎
線形代数の基礎
確率・統計の基礎
Step 1 の演習問題
機械学習とデータ分析入門
単回帰分析と重回帰分析
NumPy 入門
scikit-learn 入門
CuPy 入門
Pandas 入門
Matplotlib 入門
ディープラーニング入門
ニューラルネットワークの基礎
Chainer の基礎
Chainer の応用
トレーナとエクステンション
ディープラーニング入門:Chainer チュートリアル
準備編
はじめに
必要なもの
Google Colaboratory の基本
Colab の基本的な使い方
Python 入門
Python の特徴
変数
エスケープシーケンス
文字列メソッド
浮動小数点数がもつメソッド
複合データ型
制御構文
関数
クラス
機械学習に使われる数学
機械学習とは
教師あり学習の考え方
目的関数
目的関数の最適化
機械学習で使われる数学
微分の基礎
微分と関数最小化の関係
2 点間を通る直線の傾き
接線の傾き
微分の公式
線形性
合成関数の微分
偏微分
線形代数の基礎
スカラ・ベクトル・行列・テンソル
ベクトルを入力とする関数
ベクトル値関数
ベクトル値関数の微分
合成関数の微分(多変数バージョン)
確率・統計の基礎
確率・統計と機械学習の関係
確率変数と確率分布
同時分布・周辺確率
条件付き確率
ベイズの定理
尤度と最尤推定
事後確率最大化推定(MAP推定)
統計量
Step 1 の演習問題
「2. Python 入門」 の演習問題
「4. 微分の基礎」 の演習問題
「5. 線形代数の基礎」 の演習問題
「6. 確率・統計の基礎」 の演習問題
機械学習とデータ分析入門
単回帰分析と重回帰分析
単回帰分析
重回帰分析
NumPy 入門
NumPy を使う準備
多次元配列を定義する
多次元配列の要素を選択する
ndarray のデータ型
多次元配列を用いた計算
ブロードキャスト
行列積
基本的な統計量の求め方
NumPy を用いた重回帰分析
scikit-learn 入門
scikit-learn を用いた重回帰分析
各ステップの改善
CuPy 入門
GPU とは
CuPy を使う準備
NumPy と CuPy の比較
NumPy を使用した場合の処理時間測定
CuPy を使用した場合の処理時間測定
Pandas 入門
CSV ファイルの読み書き
DataFrame の表示
先頭の数件だけを表示
CSV ファイルの保存
データフレームの形
統計量の算出
並べ替え
データの選択
条件指定による要素の選択
欠損値の除去・補間
ndarray とデータフレームを相互に変換
グラフの描画
Matplotlib 入門
散布図
ヒストグラム
箱ひげ図
折れ線グラフ
グラフの調整
seaborn
ディープラーニング入門
ニューラルネットワークの基礎
事前に読んでおく必要がある章
ニューラルネットワークとは
ニューラルネットワークの計算
ニューラルネットワークの訓練
Chainer の基礎
Chainer とは
Chainer の準備
Chainerによる訓練
訓練済みネットワークを用いた推論
Chainer の応用
Step 1 : データセットの準備(応用編)
Step 2 : ネットワークを決める(応用編)
Step 3 : 目的関数を決める(応用編)
Step 4 : 最適化手法を選択する(応用編)
Step 5 : ネットワークを訓練する(応用編)
トレーナとエクステンション
トレーナの使用方法
レポータで様々な値を記録する
訓練の早期終了