あとりえこばと

機械学習

中間層の実装

≪【前の記事】Output_layerクラスMiddle_layerクラス活性化関数クラスの実装今回設計する中間層(Middle_layer クラス)では、メソッドに活性化関数と、その導関数を渡す必要があります。これらの関数を別々に設定して...
Python数学

双曲線関数

双曲線関数双曲線余弦 (hyperbolic cosine)、双曲線正弦 (hyperbolic sine) および 双曲線正接 (hyperbolic tangent) は、それぞれ次式によって定義されます。 \&\sinh x=\fra...
機械学習

出力層

≪【前の記事】重み更新式の意味Output_layer_cクラスバックプロパゲーション機能 を持つ ニューラルネットワーク の実装を始めます。 今回は 出力層 をインスタンスとして生成する Output_layer_c クラスを設計します ...
Python数学

【SymPy】級数展開

ベキ級数展開ある関数 $f(x)$ を $x$ のベキ級数(整級数) \ で表すことを 関数の 級数展開 といいます。無限に項をとることによって、理論上は関数と級数展開は厳密に一致しますが、実用のために有限項で打ち切っても、適切な数の項をと...
機械学習

重み更新式の意味

≪【前の記事】バックプロパゲーション重みの更新式の意味今回は前回記事で得たバックプロパゲーションにおける 重みの更新式 の意味を考えます。 出力層の重み更新式$d-1$ 層 $i$ 番ニューロンから $d$ 層 $j$ 番ニューロンに入力さ...
機械学習

バックプロパゲーション

≪【前の記事】平均誤差の計算 損失関数の勾配ニューラルネットワークは、ある層の出力値の線形結合を次の層に渡すことを繰り返すので、ネットワークからの出力ベクトル $\boldsymbol{y}$ には、入力ベクトル $\boldsymbol{...
機械学習

平均誤差の計算

≪【前の記事】バッチサイズとエポック 損失関数の平均値分類問題を学習するネットワークの場合、出力値 $\boldsymbol{y}$ の各成分が入力データの属するクラスを表します。たとえば下図にあるように、ネットワークに $\boldsym...
機械学習

バッチサイズとエポック

≪【前の記事】1 of K 表記法バッチサイズとエポックミニバッチ学習機械学習においては、普通は手持ちのデータをまとめて全部学習に使うようなことはしません。全データを訓練データとテストデータに分け、さらに訓練データもいくつかのバッチ(かたま...
機械学習

1 of K 表記法(one-hot表現)

≪【前の記事】複数データの同時入力1 of K 表記法 (one-hot表現)ニューラルネットワークは、バックプロパゲーションという手法を使って出力値を目標変数(正解値)に近づけるように重みを調整します。ネットワークが分類問題を学習する場合...
機械学習

複数データの同時入力

≪【前の記事】人工ニューラルネットワーク 複数データの同時入力重みパラメータ $W$ を最適化するためには、たくさんのデータ $\boldsymbol{x}$ を入力し、ネットワークから出力値を得て、実測値との差分から損失関数を計算する必要...