Main Content

learnh

Hebb 重み学習規則

構文

[dW,LS] = learnh(W,P,Z,N,A,T,E,gW,gA,D,LP,LS)
info = learnh('code')

説明

learnh は Hebb 重み学習関数です。

[dW,LS] = learnh(W,P,Z,N,A,T,E,gW,gA,D,LP,LS) は、いくつかの入力を取ります。

W

SR 列の重み行列 (または、S1 列のバイアス ベクトル)

P

RQ 列の入力ベクトル (または ones(1,Q))

Z

SQ 列の重み付き入力ベクトル

N

SQ 列の正味入力ベクトル

A

SQ 列の出力ベクトル

T

SQ 列の層のターゲット ベクトル

E

SQ 列の層の誤差ベクトル

gW

性能に関する SR 列の勾配

gA

性能に関する SQ 列の出力勾配

D

SS 列のニューロン距離

LP

学習パラメーター。なし。LP = []

LS

学習状態。初期値は []

これは、以下を返します。

dW

SR 列の重み (またはバイアス) 変更行列

LS

新しい学習状態

学習は learnh の学習パラメーターに従って行われます。以下に、学習パラメーターとその既定値を示します。

LP.lr - 0.01

学習率

info = learnh('code') は、次の各 code 文字ベクトルに関する有用な情報を返します。

'pnames'

学習パラメーターの名前

'pdefaults'

既定の学習パラメーター

'needg'

この関数が gW または gA を使用すると 1 が返される

ここでは、1 つの 2 要素入力と 3 つのニューロンをもつ層に対し、ランダムな入力 P と出力 A を定義します。また、学習率 LR も定義します。

p = rand(2,1);
a = rand(3,1);
lp.lr = 0.5;

learnh は、重みの変化の計算でこれらの値のみを必要とするため (下の「アルゴリズム」を参照)、これらをそのように使用します。

dW = learnh([],p,[],[],a,[],[],[],[],[],lp,[])

ネットワークの利用

learnh を使用して学習させるため、カスタム ネットワークの i 層の重みとバイアスを準備します。

  1. net.trainFcn'trainr' に設定します。(net.trainParam は自動的に trainr の既定のパラメーターになります。)

  2. net.adaptFcn'trains' に設定します。(net.adaptParam は自動的に trains の既定のパラメーターになります。)

  3. net.inputWeights{i,j}.learnFcn'learnh' に設定します。

  4. net.layerWeights{i,j}.learnFcn'learnh' に設定します。(各重みの学習パラメーターのプロパティが、自動的に learnh の既定のパラメーターに設定されます。)

ネットワークに学習させるには (またはネットワークが適応できるようにするには)、次のようにします。

  1. net.trainParam プロパティ (または net.adaptParam プロパティ) を目的の値に設定します。

  2. train (または adapt) を呼び出します。

アルゴリズム

learnh は、指定されたニューロンについて、ニューロンの入力 P、出力 A、および学習率 LR に基づき、Hebb 学習規則に従って重みの変化 dW を計算します。

dw = lr*a*p'

参考文献

Hebb, D.O., The Organization of Behavior, New York, Wiley, 1949

バージョン履歴

R2006a より前に導入

参考

| |