Main Content

このページの内容は最新ではありません。最新版の英語を参照するには、ここをクリックします。

制約付き非線形最適化アルゴリズム

制約付き最適化の定義

制約付きの最小化は、スカラー関数 f(x) の局所的最小値のベクトル x を見つける問題です。この x には制約があります。

minxf(x)

次の 1 つ以上の式が成り立つ必要があります。c(x) ≤ 0, ceq(x) = 0, A·x ≤ b, Aeq·x = beq, l ≤ x ≤ u。半無限計画法で使用される制約もあります。fseminf の問題の定式化とアルゴリズムを参照してください。

fmincon の信頼領域 Reflective 法アルゴリズム

非線形最小化に対する信頼領域法

Optimization Toolbox™ のソルバーで使用される多くのメソッドは、"信頼領域法" を基にしています。信頼領域法はシンプルなものですが最適化では重要な概念です。

最適化の信頼領域法のアプローチを理解するために制約なし最小化問題を考え、f(x) を最小化します。ここで関数はベクトル引数を取り、スカラーを出力します。n 空間の点 x を想定し、より小さい関数値へ移動して最小化を行う場合を考えてみましょう。基本的な概念は、シンプルな関数 q で f を近似することです。この関数は、点 x の近傍 N で関数 f の挙動をよく表すものです。この近傍が信頼領域です。テスト ステップ s が N における最小化 (または近似最小化) によって計算されます。信頼領域の部分問題を次に示します。

mins{q(s), sN}.(1)

f(x + s) < f(x) の場合、現在の点が x + s に更新されます。そうでない場合は現在の点は変更されず、信頼領域 N は縮小され、テスト ステップの計算が繰り返されます。

f(x) を最小化するための信頼領域を決める上で重要な問題は、近似 q (現在の点 x で定義) の選択および計算方法、信頼領域 N の選択および変更方法、信頼領域の部分問題を解く精度です。このセクションでは制約なしの問題に焦点をあてます。変数上に制約があるために複雑度が増す問題については、後のセクションで取り扱います。

標準的な信頼領域法 ([48]) では二次近似 q は、x における F のテイラー近似のはじめの 2 項によって決められます。近傍 N は球形または楕円体です。数学的に、信頼領域の部分問題は、次のように表現できます。

min{12sTHs+sTg  such that  DsΔ},(2)

ここで g は現在の点 x における f の勾配です。H はヘッセ行列 (2 次導関数の対称行列) です。D は対角スケーリング行列であり、Δ は正のスカラーです。‖ . ‖ は 2 ノルムです。式 2を解くために適したアルゴリズムがあります ([48] を参照)。このようなアルゴリズムは、H のすべての固有値と以下の永年方程式に適用されるニュートン過程の計算を一般的に含みます。

1Δ1s=0.

このようなアルゴリズムにより 式 2 の正確な解が与えられます。しかし、H の因子分解に比例して時間が必要になります。そのために、大規模問題に対しては別のアプローチが必要となります。式 2 に基づく近似とヒューリスティックな方法は文献 ([42][50]) で提案されています。Optimization Toolbox のソルバーがサポートする近似アプローチとして、信頼領域法の部分問題を 2 次元の部分空間 S ([39][42]) に制限します。部分空間 S が計算されると、(部分空間では問題は 2 次元になるため) 完全な次元の固有値 / 固有ベクトルの情報が必要な場合でも 式 2 を解く作業は簡単になります。ここでの主な仕事は、部分空間を決定することになります。

2 次元の部分空間 S は、以下に示す前処理付き共役勾配法過程を用いて決められます。ソルバーは s1 と s2 で決まる線形空間として S を定義します。ここで、s1 は勾配 g の方向にあります。s2 は近似ニュートン方向、すなわち以下の解

Hs2=g,(3)

または負の曲率の方向です。

s2THs2<0.(4)

このように S を選択する背景の考え方は、最急降下方向または負の曲率方向にグローバルな収束を進めることと、ニュートン ステップが存在する場合は、これを介して迅速にローカルな収束を達成することです。

信頼領域法の概念を使用した制約なしの最小化の概要は以下になります。

  1. 2 次元の信頼領域の部分問題の定式化

  2. テスト ステップ s を決めるため、式 2 を解きます。

  3. f(x + s) < f(x) の場合、x = x + s とします。

  4. Δ を調節します。

これら 4 つのステップは、収束するまで繰り返されます。信頼領域の大きさ Δ は標準的な規則に基づいて調整されます。特に、使用するステップが適用されない場合、すなわち f(x + s) ≥ f(x) の場合、内点集合は小さくなります。詳細については、[46][49]を参照してください。

Optimization Toolbox のソルバーは特定の関数 f の重要かつ特別なケースをいくつか扱います。非線形最小二乗法、二次関数、線形最小二乗法を考えてみましょう。しかし、根底に存在するアルゴリズムは、一般的な場合と同じです。これらの特別な場合は後続のセクションで説明します。

前処理付き共役勾配法

線形方程式系 Hp = –g の大きな対称正定値システムを解く一般的な方法は、前処理付き共役勾配法 (PCG) です。この反復法は、形式 H·v の行列ベクトル積を計算する機能を必要とします。ここで v は任意のベクトルです。対称正定値行列 M は H の "前提条件子" です。すなわち、M = C2 です。ここで、C–1HC–1 は、条件数の良い行列または分類分けされた固有値をもつ行列です。

最小化の過程で、ヘッセ行列 H が対称と仮定します。しかし、H は、強い最小化子の近傍の中でのみ正定値であることが保証されます。PCG アルゴリズムは、負または 0 の曲率方向が検出された場合に終了します (dTHd ≤ 0)。PCG 出力方向 p は、負の曲率方向またはニュートン システム Hp = –g への近似解のどちらかです。いずれにせよ、p は信頼領域法のアプローチで使用される 2 次元部分空間を定義するために役立ちます (非線形最小化に対する信頼領域法を参照)。

線形等式制約

線形制約は、制約なしの最小化問題に対して記述された状況を複雑にします。しかし、前述の基本的な考え方は、明確かつ効率的な形で踏襲されます。Optimization Toolbox のソルバーの信頼領域法は、厳密に実行可能な反復処理を行います。

一般的な線形等号制約付き最小化問題は、次のように表現されます。

min{f(x)  such that  Ax=b},(5)

ここで、A は m 行 n 列 (m ≤ n) の行列です。いくつかの Optimization Toolbox のソルバーは A を前処理し、AT の LU 分解をベースにした手法 (参考文献 [46]) を使って、厳密な意味で線形従属の部分を除去します。ここで A はランク m とします。

式 5 を解くためのメソッドは制約なしアプローチと 2 つの点で異なります。まず初期実行可能点 x0 は、スパースの最小二乗ステップを使って Ax0 = b となるように計算されます。第 2 に、近似退化ニュートン ステップ (または A のヌル空間における負の曲率方向) を計算するために、PCG アルゴリズムは RPCG (退化前処理付き共役勾配法) に置き換えられます ([46] を参照)。キーになる線形代数ステップは、次の型のシステムを解くことです。

[CA˜TA˜0][st]=[r0],(6)

ここで、A˜ は A を近似 (ランクを失わないという条件で A の小さな非ゼロがゼロに設定される) し、C は H へのスパース対称正定値近似、すなわち C = H です。詳細については、[46]を参照してください。

ボックス制約

ボックス制約問題は、次のように表現されます。

min{f(x)  such that  lxu},(7)

ここで、l は下限を表すベクトル、u は上限を表すベクトルです。l の要素のいくつか (またはすべて) は –∞ にすることができ、u の要素のいくつか (またはすべて) は ∞ にすることができます。この方法は厳密な意味で実行可能点の列を生成します。ロバストな収束挙動を達成しながら、可能領域を維持するために 2 つの手法が使われます。1 つ目の手法ではスケーリングされた変更ニュートン ステップが (2 次元の部分空間 S を定義するために) 制約のないニュートン ステップと置き換わります。2 つ目の手法では反射がステップ サイズを増加させるために使われます。

スケーリングされた変更ニュートン ステップは 式 7 式のキューン・タッカーの必要条件をチェックして生成されます。

(D(x))2g=0,(8)

ここで、

D(x)=diag(|vk|1/2),

ベクトル v(x) は 1 ≤ i ≤ n の範囲で次のように定義されます。

  • gi < 0 および ui < ∞ の場合、vi = xi – ui とします。

  • gi ≥ 0 および li > –∞ の場合、vi = xi – li とします。

  • gi < 0 および ui = ∞ の場合、vi = –1 とします。

  • gi ≥ 0 および li = –∞ の場合、vi = 1 とします。

非線形システム 式 8 には微分不可能な点があります。vi = 0 のとき微分不可能になります。厳密に実行可能性を維持することにより、このような点を避けることができます。すなわち、l < x < u の制約を適用します。

式 8 により与えられる非線形方程式系に対する、スケーリングされた変更ニュートン ステップ sk は、

M^DsN=g^(9)

の第 k 反復における線形システムの解として定義されています。ここで

g^=D1g=diag(|v|1/2)g,(10)

および以下となります。

M^=D1HD1+diag(g)Jv.(11)

ここで Jv は |v| のヤコビアンの役割をします。対角行列 Jv の個々の対角要素は 0、–1、1 のいずれかに等しくなります。l と u のすべての要素が有限ならば、Jv = diag(sign(g)) になります。gi = 0 の点では、vi は微分可能にならない可能性があります。そのような点では、Jiiv=0 が定義されます。このような微分不可能性は、vi がどの値を取るかは重要でないため、問題とはなりません。さらに、|vi| はこの点でもまだ不連続となりますが、関数 |vi|·gi は連続です。

2 つ目の手法では反射がステップ サイズを増加させるために使われます。(単一) 反射ステップは、次のように定義されます。範囲制約に交差するステップ p を与え、p に交差する最初の範囲制約を与えます。すなわち、これを i 番目の範囲制約 (i 番目の上限または i 番目の下限) であると仮定します。i 番目の要素を除いて、反射ステップは pR = p になります。ここで pRi = –pi です。

fmincon アクティブ セット アルゴリズム

はじめに

制約付き最適化における一般的な目的は、問題をより解き易い部分問題に変換し、部分問題を繰り返しの過程の基準として使用することです。初期に開発された多くの手法の特徴は、制約付き問題を、制約境界に近接または超過している制約にペナルティ関数を使って、基本的な非制約問題に変換することです。このように制約付き問題は、制約された問題に収束する (シーケンスの) 範囲で制約されていないパラメータ化された最適化のシーケンスを使用して解決されます。現在、これらの方法は比較的効率が悪いと考えられており、カルーシュ・キューン・タッカー (KKT) 方程式の解に注目した方法に代行されています。KKT 方程式は制約付き最適化問題に対し、最適性に対する必要条件になっています。問題がいわゆる凸計画問題ならば、f(x) と Gi(x), i = 1,...,m は凸関数になり、KKT 方程式はグローバルな解に対して必要十分になります。

一般的な問題 GP (式 1) に関して、キューン・タッカー方程式は

f(x*)+i=1mλiGi(x*)=0λiGi(x*)=0,  i=1,...,meλi0,  i=me+1,...,m,(12)

式 1 の元の制約とは別に次のように表すことができます。

最初の方程式は、解の点で目的関数とアクティブな制約条件との間で勾配がキャンセルされることを示しています。勾配をキャンセルするためには、目的関数と制約勾配との大きさの違いを平衡させるために、ラグランジュ乗数 (λi, i = 1,...,m) を必要とします。アクティブな制約のみがこのキャンセル操作に含まれるので、非アクティブな制約はこの操作に含まれることはないはずであり、与えられたラグランジュ乗数はゼロに等しくなります。これはキューン・タッカー式の最後の 2 つの方程式によって陰的に述べられています。

KKT の解は多くの非線形計画法アルゴリズムの基礎となっています。これらのアルゴリズムは、ラグランジュ乗数を直接計算しようとしています。制約付き準ニュートン法は、準ニュートン更新手法を使用する KKT 方程式に関して 2 次の情報を集めることにより、超線形収束を保証します。QP 部分問題がそれぞれの主な反復で解かれるので、これらの方法は一般に逐次二次計画法 (SQP: Sequential Quadratic Programming) と呼ばれています (Iterative Quadratic Programming 法、Recursive Quadratic Programming 法、Constrained Variable Metric 法としても知られています)。

'active-set' アルゴリズムは大規模なアルゴリズムではありません。大規模アルゴリズムと中規模アルゴリズム を参照してください。

逐次二次計画法 (SQP)

逐次二次計画法は、非線形計画法の中で最先端の技法です。たとえば、Schittkowski [36] は効率性、精度、解の求まる割合を改良して、多くのテスト問題について他のすべての手法と共にテストしました。

Biggs [1]、Han [22] および Powell ([32][33]) の成果を基に、制約付き最適化のニュートン法に非常に似た手法が制約なしの最適化に対して適用されます。各々の主反復で、準ニュートン更新法を使ってラグランジュ関数のヘッシアンで近似がなされます。そして、この手法は直線探索手法に対して、探索方向を求めるために使われる QP 部分問題を作成するのに使われます。SQP の概要は Fletcher [13]、Gill 等 [19]、Powell [35] および Schittkowski [23] に記述されています。ここでは、一般的な方法について記述しています。

GP (式 1) で問題の記述を与えると、基本的な考え方はラグランジュ関数の二次近似をもとにした QP 部分問題の定式化です。

L(x,λ)=f(x)+i=1mλigi(x).(13)

ここで 式 1 は範囲付きの制約が不等式として表現されることを仮定しています。非線形制約を線形化することで、QP 部分問題を得ることができます。

QP 部分問題

mindn12dTHkd+f(xk)Tdgi(xk)Td+gi(xk)=0,  i=1,...,megi(xk)Td+gi(xk)0,  i=me+1,...,m.(14)

この部分問題は、どの QP アルゴリズムでも解くことができます (例は、二次計画法での解法 を参照)。解は次の新しい反復を作るために使われます。

xk + 1 = xk + αkdk.

ステップ長パラメーター αk はメリット関数内で十分な減少が得られるように適当な直線探索手法により決められます (ヘッセ行列の更新 を参照)。行列 Hk はラグランジュ関数 (式 13) のヘッセ行列の正定値近似になります。BFGS 法が最もポピュラーですが、準ニュートン法のいずれかを使っても Hk は更新できます (ヘッセ行列の更新を参照)。

非線形の制約付き問題は、SQP 法を使った制約なし問題よりも少ない反復回数で解けることもあります。この理由の一つは、可能領域上に限定されているためで、オプティマイザーが探索方向とステップ長に関して情報に基づく決定を行っていることが一因しています。

Rosenbrock 関数に付加的な非線形不等式制約 g(x) を適用することを考慮します。

x12+x221.50.(15)

制約なしの場合は 140 回の反復であるのに対して、SQP 法を使って解くと 96 回の反復になります。図 5-3、非線形制約付き Rosenbrock 関数における SQP 法x = [–1.9,2.0] から始め、x = [0.9072,0.8228] の解の点までの経路を示しています。

図 5-3、非線形制約付き Rosenbrock 関数における SQP 法

Level curves of the Rosenbrock function are close to the parabola y = x^2. The iterative steps follow the parabola from upper left, down around the origin, and end at upper right within the constraint boundary.

SQP 法の実装

SQP 法は、次のサブセクションで簡単に論議されている 3 つの部分から作られています。

ヘッセ行列の更新.  主要な各反復でラグランジュ関数のヘッシアンの正定値準ニュートン近似 H は、λi, i = 1,...,m をラグランジュ乗数の推定とする BFGS 法を使って計算されます。

Hk+1=Hk+qkqkTqkTskHkskskTHkTskTHksk,(16)

ここで、

sk=xk+1xkqk=(f(xk+1)+i=1mλigi(xk+1))(f(xk)+i=1mλigi(xk)).

Powell [33] は解の点で正定値でない部分があったとしても正定値ヘッシアンを使い続けることを推奨しています。正定値ヘッシアンは、qkTsk が各更新で正であり、H が正定値行列で初期化された場合に保持されます。qkTsk が正でない場合、qkqkTsk>0 になるように各要素ごとに変更されます。この変更の一般的な目的は、qk の要素に歪みを与え、正定値更新にできるだけ小さく関与するようにすることです。そのため、変更の初期ステージで qk*sk の最小の負要素を半分にする作業を反復します。この手続きは qkTsk が小さな負の許容値以上になるまで続けられます。この処理後でも qkTsk がまだ正になっていなければ、定数スカラー w を乗じたベクトル v を加え、qk を変更します。

qk=qk+wv,(17)

ここで、

vi=gi(xk+1)gi(xk+1)gi(xk)gi(xk)           if (qk)iw<0 and (qk)i(sk)i<0, i=1,...,mvi=0  otherwise,

w は qkTsk が正になるまでシステマチックに増加します。

関数 fminconfminimaxfgoalattainfseminf は、すべて SQP 法を使います。optionsDisplay'iter' に設定すると、関数値、制約違反の最大量のような種々の情報が与えられます。ヘッシアンの正定値を維持するために、先の手順の最初の方法を使って変更する必要がある場合、Hessian modified が表示されます。前のアプローチの 2 番目の方法を使って再度ヘッシアンを変更する必要がある場合は、Hessian modified twice が表示されます。QP 部分問題が実行不可能な場合、infeasible が表示されます。このような表示は、原因を求めるものではなく、問題が非常に高い非線形性であるとか、通常より収束に長い時間が必要であるということを示すものです。場合によってはメッセージ no update が表示され、qkTsk がほぼゼロであることが示されます。これは、問題設定が間違っているか、または非連続関数を最小化しようとしている可能性を示しています。

二次計画法での解法.  SQP 法の主要な各反復で、以下の形式の QP 問題を解きます。ここで Ai は m 行 n 列の行列 A の第 i 行を示します。

mindnq(d)=12dTHd+cTd,Aid=bi,  i=1,...,meAidbi,  i=me+1,...,m.(18)

Optimization Toolbox 関数で使われる方法は、有効制約法 (射影法として知られています) ですが、[18][17] に記述されている Gill 等による方法に似ています。この方法は修正されて、LP (線形計画法)、QP (二次計画法) のどちらにも使われています。

解を求めるステップは、2 つの部分からなっています。最初の段階は (解が存在する場合) 実行可能点を計算します。2 番目の段階は解に収束する実行可能点の列を生成します。このメソッドでは、有効制約法 A¯k が、求解点でアクティブな制約条件 (すなわち制約境界上にある制約条件) の推定値となるように維持されます。事実上、すべての QP アルゴリズムは有効制約法です。構造的には非常に類似しているにもかかわらず、異なる用語で記述されている多くの方法があるので、この点を強調しておきます。

A¯k は各反復 k で更新され、探索方向 d^k の基底を作成するために使われます。等式制約は常にアクティブ セット A¯k 内にあります。変数 d^k の表記法は、ここでは SQP 法の主要反復の dk と区別するために使用されています。探索方向 d^k が計算され、任意の有効制約境界上に存在したまま目的関数が最小化されます。d^k の部分可能空間は、基底 Zk から作成されます。この基底の列はアクティブ セット A¯k の推定値に直交します (すなわち、A¯kZk=0)。これにより、Zk の列結合の線形和から形成される探索方向は、有効制約法の境界上にあることが保証されます。

行列 Zk は行列 A¯kT を QR 分解した行列の最後の m – l 列から形成されます。ここで l はアクティブな制約の数であり、l < m です。つまり、Zk は次のように与えられます。

Zk=Q[:,l+1:n],(19)

ここで、

QTA¯kT=[R0].

Zk が見つかると、q(d) を最小にする新しい探索方向 d^k が求められます。ここで d^k はアクティブな制約条件のヌル空間です。つまり、d^k は Zk の列の線形結合で、あるベクトル p に対して d^k=Zkp となります。

d^k を置き換え、二次式を p の関数として見ると次のようになります。

q(p)=12pTZkTHZkp+cTZkp.(20)

p で微分すると、次の結果が得られます。

q(p)=ZkTHZkp+ZkTc.(21)

∇q(p) は、Zk が定義する部分空間の射影勾配であるため、二次関数の射影勾配になります。ZkTHZk は射影ヘッシアンと呼ばれます。ヘッセ行列 H は、(SQP のこの方法の場合) 正定値であると仮定しているので、Zk が定義する部分空間における関数 q(p) の最小値は ∇q(p) = 0 で生じます。これは次の線形方程式系の解の場合に成り立ちます。

ZkTHZkp=ZkTc.(22)

ステップは次の式で計算されます。

xk+1=xk+αd^k,  where d^k=Zkp.(23)

各反復で目的関数の二次式の性質により、ステップの長さ α の選択には 2 つの方法があります。d^k に沿った単位長さのステップは、A¯k のヌル空間に制限された関数の最小値に向かう厳密なステップになります。制約に違反せずに、このようなステップをとることができれば、これは QP の解 (式 18) になります。そうでない場合、最近傍の制約に向かう d^k に沿ったステップが 1 単位より小さくなり、新しい制約は次の反復でアクティブ セットに含まれます。任意方向 d^k の制約境界までの距離は次式で与えられます。

α=mini{1,...,m}{(Aixkbi)Aid^k},(24)

これはアクティブ セットにない制約に対して定義され、方向 d^k は制約の境界に向かっています。すなわち、Aid^k>0, i=1,...,m です。

n 個の独立した制約がアクティブ セットに含まれ、最小値の位置を含んでいない場合、ラグランジュ乗数 λk は次の線形方程式の特異点にならないように計算されます。

A¯kTλk=c+Hxk.(25)

λk のすべての要素が正の場合、xk は QP の最適解です (式 18を参照)。しかし λk に負の要素があり、等式制約に対応していない場合、その要素はアクティブ セットから削除され、新しい反復が行われます。

初期化.  アルゴリズムは実行可能な初期点を必要とします。SQP 法における現在の点が実行可能でない場合は、次の線形計画問題を解いて点を求めることができます。

minγ, xnγ  such thatAix=bi,      i=1,...,meAixγbi,  i=me+1,...,m.(26)

表記 Ai は行列 A の i 番目の行です。式 26 式での実行可能点 (存在する場合) は等式制約を満たす値に x を設定して求めることができます。これは、等式制約の組から作成される過決定または、劣決定のどちらかの線形方程式を解くことにより得られます。この問題の解が存在する場合、スラック変数 γ はこの点で最大不等式の制約になります。

LP 問題の前の QP アルゴリズムは、各反復で探索方向を最急降下方向に設定することにより変更できます。ここで、gk は目的関数の勾配 (線形目的関数の係数に等しい) です。

d^k=ZkZkTgk.(27)

LP 法を使って実行可能な点が求められたならば、メインの QP 部分に移行します。探索方向 d^k は、一連の線形方程式を解いて求まる探索方向 d^1 を使って初期化されます。

Hd^1=gk,(28)

ここで gk は現在の反復 xk での目的関数の勾配です (すなわち Hxk + c です)。

QP 問題で実行可能解が見つからない場合、メインの SQP ルーチンの探索方向 d^k が、γ を最小化する方向として用いられます。

直線探索とメリット関数.  QP 部分問題の解はベクトル dk を生成し、次の新しい反復を作成するために使用されます。

xk+1=xk+αdk.(29)

ステップ長パラメーター αk はメリット関数を十分小さくするように決定されます。この実装では、Han [22] および Powell [33] により導入された、次の型のメリット関数が使用されます。

Ψ(x)=f(x)+i=1merigi(x)+i=me+1mrimax[0,gi(x)].(30)

Powell は、ペナルティ パラメーターを設定することを推奨しています。

ri=(rk+1)i=maxi{λi,(rk)i+λi2},  i=1,...,m.(31)

これは、QP 解において前の反復では active であったが現在 inactive となっている制約からの正の寄与を可能にするものです。これを実装するにあたり、ペナルティ パラメーター ri は最初に次のように設定されています。

ri=f(x)gi(x),(32)

ここで   はユークリッド ノルムを示します。

これは、解の点において制約が active になる場合に、ペナルティ パラメーターへの小さな勾配をもつ制約からの大きな寄与を補償します。

fmincon SQP アルゴリズム

sqp アルゴリズム (およびほぼ同一の sqp-legacy アルゴリズム) は active-set アルゴリズムと同様です (詳細についてはfmincon アクティブ セット アルゴリズムを参照)。基本的な sqp アルゴリズムは、Nocedal と Wright の [31] の第 18 章に説明されています。

sqp アルゴリズムは実質的に sqp-legacy アルゴリズムと同一ですが、異なる実装をもちます。通常、sqpsqp-legacy より実行時間が速く、メモリ使用量は少なくなります。

sqpactive-set アルゴリズムの最も重要な差異は、以下のとおりです。

範囲に関する厳密な実行可能性

sqp アルゴリズムは、範囲によって制約されている領域内ですべての反復ステップを取ります。さらに、有限差分ステップも範囲に従います。範囲は厳密ではありません。ステップは境界上に正確に置くことができます。この厳密な実行可能性は、目的関数または非線形制約関数が未定義または範囲によって制約される領域外で複雑であるときに便利です。

非倍精度結果に対するロバスト性

反復時に、sqp アルゴリズムは失敗するステップを取るよう試みることができます。こうすることにより、与えた目的関数または非線形制約関数は NaNInf、または複雑な値を返します。この場合、アルゴリズムはいまよりも小さなステップを取るよう試みます。

リファクタリングされた線形代数ルーチン

sqp アルゴリズムは異なるセットの線形代数ルーチンを使用して、二次計画法部分問題 式 14 を解きます。これらのルーチンは、active-set のルーチンよりも、メモリ使用量およびスピードの両面においてより効率的です。

再定式化された実行可能性ルーチン

sqp アルゴリズムは、制約が満たされないときの 式 14 の解に対して、2 つの新しい方法をもっています。

  • sqp アルゴリズムは目的関数と制約関数を 1 つのメリット関数に結合します。このアルゴリズムは、緩和された制約に従ってメリット関数を最小化しようと試みます。変更されたこの問題により実行可能解が得られる場合があります。ただし、この方法は元の問題よりも多くの変数をもつので、式 14における問題のサイズは増加します。サイズが増加されたことにより、部分問題の解を得るためにより多くの時間を必要としています。これらのルーチンは、Spellucci の [60] と Tone の [61] の記事に基づいています。sqp アルゴリズムでは、メリット関数 式 30 のペナルティ パラメーターが [41] の提案に従って設定されます。

  • 非線形制約が満たされず、試みたステップにより制約違反が増大するという状況を考えてみます。sqp アルゴリズムは、制約に対して二次近似を使用して実行可能性を得るように試みます。この二次近似の手法により実行可能解が得られる場合があります。ただし、この手法は非線形制約関数の評価をさらに多く必要とするので、解を得るためにより多くの時間を必要としています。

fmincon の内点法アルゴリズム

バリア関数

制約付き最小化の内点法アプローチとは、一連の近似最小化問題を解くことです。元の問題は次のようになります。

minxf(x), subject to h(x)=0 and g(x)0.(33)
0 より大きい各 μ に対し、近似問題は次のようになります。
minx,sfμ(x,s)=minx,sf(x)μiln(si), subject to s0,h(x)=0, and g(x)+s=0.(34)
不等式制約 g と同じだけのスラック変数 si があります。反復解を実行可能領域の内部にとどめるために、si は正に制限されます。μ がゼロに減少すると、fμ は f の最小値に到達します。追加された対数項はバリア関数と呼ばれます。このメソッドは [40][41][51] に記述されています。

近似問題 式 34 は等式制約付き問題になります。これは元の非線形制約付き問題 式 33 を解くより簡単です。

近似問題を解くために、各反復でアルゴリズムは 2 種類のステップ タイプの中からいずれかを使用します。

  • (x、s) の直接ステップ。このステップは線形近似の近似問題に対して KKT 式の 式 2式 3 を解きます。これはニュートン ステップとも呼ばれます。

  • 信頼領域法を使用する "CG" (共役勾配法) ステップ。

既定の設定では、このアルゴリズムはまず直接ステップを試します。直接ステップが使えない場合、CG ステップを試します。直接ステップが使えない場合として、近似問題が現在の反復で局所的に凸でない場合があります。

反復の都度、このアルゴリズムは "メリット関数" を以下のように減少させます。

fμ(x,s)+ν(h(x),g(x)+s).(35)
パラメーター ν は解が可能領域に入るようにするため、反復数と共に増加します。実行したステップがメリット関数を減少させない場合、アルゴリズムは実行したステップを棄却して新しいステップを試します。

反復 xj において、目的関数または非線形制約関数のどちらかが複素数値、NaN、Inf、またはエラーを返すと、アルゴリズムは xj を棄却します。棄却は、メリット関数が十分に減少しなかった場合と同じ効果があります。次に、アルゴリズムは別のより短いステップを試みます。try-catch でエラーを発生する可能性のあるコードをすべてラップします。

function val = userFcn(x)
try
    val = ... % code that can error
catch
    val = NaN;
end

目的関数と制約は初期点で適切な値 (double) を生成しなければなりません。

直接ステップ

以下の変数は直接ステップの定義に使用されます。

  • H は fμ のラグランジュ関数のヘッシアンを示します。

    H=2f(x)+iλi2gi(x)+jyj2hj(x).(36)

  • Jg は制約関数 g のヤコビアンを示します。

  • Jh は制約関数 h のヤコビアンを示します。

  • S = diag(s).

  • λ は次の制約に関連するラグランジュ乗数ベクトルを示します。 g

  • Λ = diag(λ).

  • y は h に関連するラグランジュ乗数ベクトルを示します。

  • e は g と同じサイズの 1 のベクトルを示します。

式 38は直接ステップ (Δx, Δs) を定義します。

[H0JhTJgT0Λ0SJh000JgI00][ΔxΔsΔyΔλ]=[f+JhTy+JgTλSλμehg+s].(37)

この方程式は線形化されたラグランジュ関数を使用して式 2式 3を解こうとすることで直接得られます。

2 つ目の変数 Δs を S-1 で事前に乗算しておくことで、方程式を対称化できます。

[H0JhTJgT0SΛ0SJh000JgS00][ΔxS1ΔsΔyΔλ]=[f(x)+JhTy+JgTλSλμehg(x)+s].(38)

(Δx, Δs) に対してこの式を解くために、このアルゴリズムは行列の LDL 分解を行います。(MATLAB® ldl 関数リファレンス ページの 例 3 — D の構造体 を参照。) これは最も計算に時間がかかるステップです。この因子分解の 1 つの結果は、予測されたヘッシアンが正定値であるかどうかの判定基準になります。正定値でない場合、このアルゴリズムは共役勾配ステップに記述されている共役勾配ステップを使用します。

範囲パラメーターの更新

近似問題式 34を元の問題に接近させる場合、反復の続行に伴って範囲パラメーター μ が 0 に向かって減少する必要があります。このアルゴリズムには 2 つの範囲パラメーター更新オプションがあります。これらは BarrierParamUpdate オプションの 'monotone' (既定) または 'predictor-corrector' を使用して指定します。

'monotone' オプションは、近似問題が直前の反復で十分な精度で解かれると、パラメーター μ を 1/100 または 1/5 に減少させます。1 回または 2 回の反復だけで十分な精度を達成した場合は 1/100、それ以外の場合は 1/5 が使用されます。精度の測定は次のテスト (式 38の右側のすべての項のサイズが μ 未満であるかどうかを決定する) によります。

max(f(x)+JhTy+JgTλ,Sλμe,h,g(x)+s)<μ.

メモ

次のいずれかの場合、fminconBarrierParamUpdate 設定を 'monotone' にオーバーライドします。

  • 問題に等式制約 (範囲制約を含む) がない場合。

  • SubproblemAlgorithm オプションが 'cg' の場合。

範囲パラメーター μ を更新するための 'predictor-corrector' アルゴリズムは、線形計画法の予測子修正子アルゴリズムに似ています。

予測子修正子ステップは、ニュートン ステップにおける線形化エラーを補正することにより、既存のフィアッコ・マコーミック (モノトーン) アプローチを加速できます。予測子修正子アルゴリズムには 2 つの効果があります。それは、ステップの方向を頻繁に改善すると同時に、範囲パラメーターをセンタリング パラメーター σ と適応的に更新することで、中央パスに沿った反復を促すというものです。なぜ中央パスによってステップ サイズが大きくなり、その結果として収束が速くなるのかについては、線形計画法用の予測子修正子ステップについて論じた Nocedal と Wright [31] を参照してください。

予測子ステップは、μ =0 (つまりバリア関数なし) で線形化されたステップを使用します。

[H0JhTJgT0Λ0SJh000JgI00][ΔxΔsΔyΔλ]=[f+JhTy+JgTλSλhg+s].

ɑs と ɑλ が、非負制約に違反しない最も大きなステップ サイズとなるように定義します。

αs=max(α(0,1]:s+αΔs0)αλ=max(α(0,1]:λ+αΔλ0).

次に、予測子ステップから相補性を計算します。

μP=(s+αsΔs)(λ+αλΔλ)m,(39)

ここで、m は制約数です。

最初の修正子ステップは、ニュートンの根を求めるための線形化では無視された 2 次項を補正します。

(s+Δs)(λ+Δλ)=sλ+sΔλ+λΔsLinear term set to 0+ΔsΔλQuadratic.

2 次エラーを修正するには、修正子ステップ方向用の線形システムを解きます。

[H0JhTJgT0Λ0SJh000JgI00][ΔxcorΔscorΔycorΔλcor]=[0ΔsΔλ00].

2 つ目の修正子ステップは、中心化ステップです。中心化補正は、方程式の右側にある変数 σ に基づきます。

[H0JhTJgT0Λ0SJh000JgI00][ΔxcenΔscenΔycenΔλcen]=[f+JhTy+JgTλSλμeσhg+s].

ここで、σ は次のように定義されます。

σ=(μPμ)3,

ここで、μP は方程式式 39で定義され、μ=sTλ/m です。

範囲パラメーターの減少速度が極端に速くなるとアルゴリズムが不安定になる可能性があるため、アルゴリズムのセンタリング パラメーター σ は 1/100 を下回らないようにします。このアクションにより、範囲パラメーター μ の減少を 1/100 以下に抑えられます。

アルゴリズム上、最初の修正子ステップと中心化ステップは互いに独立しているため、これらのステップは一緒に計算されます。また、予測子ステップについても、2 つの修正子ステップについても、左側の行列の内容は同じです。したがって、アルゴリズム上、行列は一度因子分解されているため、その因子分解はこれらのステップすべてに使用されていることになります。

アルゴリズムは、推奨されている予測子修正子ステップがメリット関数の値 式 35 を増加 (相補性を 2 倍以上増加) させる場合、または計算された慣性が間違っている (非凸問題に見える) 場合、このステップを棄却することがあります。このような場合、アルゴリズムは違うステップまたは共役勾配ステップを取るように試みます。

共役勾配ステップ

近似問題 式 34 を解く共役勾配アプローチは他の共役勾配計算と同様です。この場合、このアルゴリズムはx と s を調整し、スラック s を正に保持します。このアプローチは線形化された制約の下で信頼領域法の近似問題の二次近似を最小化します。

特に R は信頼領域の半径を示すようにし、他の変数を 直接ステップ で定義されているようにします。このアルゴリズムは λ を正の状態にしたまま最小二乗的に以下の KKT 式を近似して解き、ラグランジュ乗数を得ます。

xL=xf(x)+iλigi(x)+jyjhj(x)=0,

そしてステップ (Δx, Δs) をとり、以下を近似して解きます。

minΔx,ΔsfTΔx+12ΔxTxx2LΔx+μeTS1Δs+12ΔsTS1ΛΔs,(40)
これは、次の線形制約に従います。
g(x)+JgΔx+Δs=0,  h(x)+JhΔx=0.(41)
式 41を解くために、アルゴリズムは R でスケーリングされた半径の範囲内で線形化された制約のノルムを最小化しようとします。そして制約を使って 式 40 を解きます。この制約は半径 R の信頼領域内で s を厳密に正の状態にし、式 41 を解いた残差を適合させます。アルゴリズムと微分の詳細については、[40][41][51]を参照してください。共役勾配の他の説明は前処理付き共役勾配法を参照してください。

実行可能性モード

EnableFeasibilityMode オプションが true のとき、反復しても実行不可能性が十分に早く減少しない場合、アルゴリズムは実行可能性モードに切り替わります。この切り替えは、ノーマル モードでは実行不可能性が減少せず、共役勾配モードへの切り替えにも失敗した場合に発生します。したがって、ソルバーが実行可能性モードを使わずに実行可能解を見つけられない場合に最良のパフォーマンスを得るには、SubproblemAlgorithm'cg' に設定して実行可能モードを使用します。これを行うことで、ノーマル モードで無駄な検索が行われなくなります。

実行可能性モードのアルゴリズムは、Nocedal、Öztoprak、および Waltz [1] に基づいています。このアルゴリズムは目的関数を無視しますが、代わりに、不等式制約関数の正の部分および等式制約関数の絶対値の総計として定義された実行不可能性を最小化しようと試みます。それぞれが不等式、等式の正の部分、等式の負の部分に対応する緩和変数 r=[rI,re+,re] に関して、この問題は次のようになります。

minx,r1Tr=minx,rr

以下の制約に従います。

rIc(x)re+re=ceq(x)r0.

この緩和された問題を解く場合、ソフトウェアは対数のバリア関数による内点法定式化とスラック s=[sI,sR,se+,se] を使用して最小化を行います。

minx,r,s1Trμ(log(sI,i)+log(sR,i))(log(se,i+)+log(se,i))

以下の制約に従います。

ceq(x)=re+rec(x)=rIsIre+=se+re=serI=sRs0.

緩和された問題の解法プロセスは、現在の範囲パラメーター値に初期化された μ から開始します。スラック変数 sI は、メイン モードから継承された、現在の不等式スラック値に初期化されます。変数 r は次のように初期化されます。

rI=max(sI+c(x),μ)re+=max(ceq(x),μ)re=min(ceq(x),μ).

残りのスラック変数は次のように初期化されます。

sR=rIse+=re+se=re.

実行可能性モードのアルゴリズムは、この初期点から始まりますが、通常の内点法アルゴリズムのコードを再利用します。変数 r は線形であり、したがってそれらに関連する 2 階微分はゼロになるため、このプロセスでは特別なステップ計算が必要です。つまり、実行可能性問題の目的関数のヘッシアンでは、ランク落ちします。したがって、このアルゴリズムはニュートン ステップを取ることができません。代わりに、最急降下方向ステップを取ります。アルゴリズムはこれらの変数について目的関数の勾配を最初に求め、制約のヤコビアンのヌル空間に勾配を投影し、生成されたベクトルのステップ長が適切になるようにベクトルを再スケーリングします。このステップは、実行不可能性の減少に役立つ可能性があります。

実行可能性モードのアルゴリズムは、実行不可能性が 1/10 に減少すると終了します。実行可能性モードが終了すると、アルゴリズムは変数 x と sI をメイン アルゴリズムに渡し、他のスラック変数と緩和変数 r を破棄します。

参照

[1] Nocedal, Jorge, Figen Öztoprak, and Richard A. Waltz. An Interior Point Method for Nonlinear Programming with Infeasibility Detection Capabilities. Optimization Methods & Software 29(4), July 2014, pp. 837–854.

内点法のアルゴリズムのオプション

ここでは、内点法アルゴリズムのいくつかのオプションの効果と意味を説明します。

  • HonorBoundstrue に設定すると、各反復は設定した範囲制約を満たします。false に設定すると、アルゴリズムは中間の反復中に範囲違反します。

  • HessianApproximation — 以下に設定された場合

    • 'bfgs': fmincon が密な準ニュートン近似によってヘッシアンを計算します。

    • 'lbfgs': fmincon が制限されたメモリの大規模の準ニュートン近似によってヘッシアンを計算します。

    • 'fin-diff-grads': fmincon が勾配の有限差分によってヘッシアンとベクトルの積を計算します。他のオプションが適切に設定される必要があります。

  • HessianFcnfminconHessianFcn で指定された関数ハンドルを使用して、ヘッシアンを計算します。詳細については、ヘッシアンを含めるを参照してください。

  • HessianMultiplyFcn — ヘッシアンとベクトルの積を評価する別の関数を指定します。詳細については、ヘッシアンを含めるヘッセ乗算関数を参照してください。

  • SubproblemAlgorithm — 直接ニュートン ステップを使うかどうかを判定します。既定の設定 'factorization' はこのタイプのステップを使用します。'cg' を設定すると共役勾配ステップのみを使用します。

オプションの完全な一覧については、fminconoptions、「内点法アルゴリズム」を参照してください。

fminbnd アルゴリズム

fminbnd は MATLAB をインストールすると使用できるソルバーです。このソルバーは範囲内の 1 次元で局所的最小値を求めるソルバーです。これは導関数をベースにしません。その代わり、黄金分割法と放物線内挿法を使用します。

fseminf の問題の定式化とアルゴリズム

fseminf の問題の定式化

fseminffmincon とは異なるタイプの制約を使って最適化問題を解きます。fmincon の式は以下になります。

minxf(x)

c(x) ≤ 0, ceq(x) = 0, A·x ≤ b, Aeq·x = beq, and l ≤ x ≤ u が条件になります。

fseminf は上記の他に以下の半無限制約を追加します。1 次元または 2 次元の範囲空間または四角形 Ij 内の wj と、連続関数 K(x, w) のベクトルに対して制約は以下になります。

Kj(x, wj) ≤ 0 (すべての wj∈Ij について)

fseminf 問題の "次元" は制約集合 I の最大次元を意味します。すべての Ij が区間ならば 1 であり、少なくとも 1 つの Ij が四角形ならば 2 になります。K のベクトル サイズはこの概念の次元を示しません。

半無限計画法と呼ばれる理由は変数 (x と wj) の数は有限ですが、制約数が無限であるためです。これは x の制約が連続区間または四角形 Ij の集合上にあるためです。これは点数が無限にあるため、制約が無限にあります。無限個の点 wj に対して Kj(x, wj) ≤ 0 です。

制約が無限にある問題を解くのは不可能だと思うかもしれません。fseminf は問題を 2 つの部分からなる同様な問題に再定式することによってこのような問題を扱います。2 つの部分とは最大化と最小化です。半無限制約は以下のように再定式します。

maxwjIjKj(x,wj)0 for all j=1,...,|K|,(42)

ここで |K| はベクトル K の要素数です。すなわち、半無限制約関数の数です。x を固定するために、これは範囲区間または四角形上の一般最大化になります。

fseminf はさらに、ソルバーが使用する x ごとに、区分的な二次または三次近似 κj(x, wj) を関数 Kj(x, wj) にすることで、問題を簡略化します。fseminf は、式 42にあるように、Kj(x, wj) の代わりに、内挿関数 κj(x, wj) の最大のみを考慮します。これは元の問題 (半無限制約関数の最小化) を有限数の制約付き問題に変形します。

サンプリング点.  半無限制約関数はサンプリング点 (二次近似または三次近似に使用する点) を与える必要があります。これを行うには以下を行わなければなりません。

  • サンプリング点 w 間の初期空間 s

  • s からサンプリング点 w を生成する方法

初期空間 s は |K| 行 2 列の行列です。s の j 行目は制約関数 Kj の隣接したサンプリング点間隔を示します。Kj が 1 次元の wj に依存する場合、s(j,2) = 0 に設定します。fseminf は後続の反復で行列 s を更新します。

fseminf は行列 s を使用して、サンプリング点 w を生成します。これは近似 κj(x, wj) を作成するために使用されます。s から w を生成する手順は、同じ間隔または四角形 Ij を最適化は維持する必要があります。

サンプリング点の作成例.  2 つの半無限制約 K1 と K2 をもつ問題を考えてみましょう。K1 は 1 次元の w1 をもち、K2 は 2 次元の w2 をもちます。以下のコードは w1 = 2 から 12 までのサンプリング集合を生成します。

% Initial sampling interval
if isnan(s(1,1))
    s(1,1) = .2;
    s(1,2) = 0;
end

% Sampling set
w1 = 2:s(1,1):12;

fseminf は制約関数をはじめて呼び出すときに sNaN として指定します。これを確認して、初期サンプリング間隔を設定することができます。

以下のコードは、各要素を 1 から 100 までにして正方形内の w2 からサンプリング集合を生成します。2 番目の要素より 1 番目の要素の方が初期サンプルが多くなります。

% Initial sampling interval
if isnan(s(1,1))
   s(2,1) = 0.2;
   s(2,2) = 0.5;
end
 
% Sampling set
w2x = 1:s(2,1):100;
w2y = 1:s(2,2):100;
[wx,wy] = meshgrid(w2x,w2y);

前のコードの一部は以下のように簡略化できます。

% Initial sampling interval
if isnan(s(1,1))
    s = [0.2 0;0.2 0.5];
end

% Sampling set
w1 = 2:s(1,1):12;
w2x = 1:s(2,1):100;
w2y = 1:s(2,2):100;
[wx,wy] = meshgrid(w2x,w2y);

fseminf のアルゴリズム

fseminf は基本的に半無限計画問題を fmincon が扱う問題に変形します。fseminf は半無限計画問題を解くために以下のステップをとります。

  1. x の現在値での fseminf は、内挿 κj(x, wj,i) が局所的最大値となる条件において、すべての wj,i を識別します (最大値は固定された x に対する w の変動を参照します)。

  2. fseminf は以下の fmincon 問題の解において 1 反復ステップをとります。

    minxf(x)

    条件は c(x) ≤ 0, ceq(x) = 0, A·x ≤ b, Aeq·x = beq, and l ≤ x ≤ u です。ここで、c(x) は、すべての wj∈Ij に対して取られた κj(x, wj) のすべての最大値で拡張され、これは κj(x, wj,i) の j と i に対する最大値と等価です。

  3. fseminf は、新しい点 x が停止判定に見合うか (反復を停止するか) を確認します。停止判定に合わない場合は手順 4 に進みます。

  4. fseminf は半無限制約の離散化を更新しなければならないかを確認し、近似的にサンプリング点を更新します。これにより、更新された近似 κj(x, wj) が提供されます。次に手順 1 を続行します。