このページは前リリースの情報です。該当の英語のページはこのリリースで削除されています。
Deep Learning Toolbox 関数 - アルファベット順
A
AcceleratedFunction | Accelerated deep learning function (R2021a 以降) |
accuracyMetric | Deep learning accuracy metric (R2023b 以降) |
activations | 深層学習ネットワーク層の活性化の計算 |
adamupdate | 適応モーメント推定 (Adam) を使用してパラメーターを更新する (R2019b 以降) |
adapt | シミュレーション時のニューラル ネットワークのデータへの適応 |
adaptwb | 重み学習規則とバイアス学習規則によるネットワークの適応 |
adddelay | ニューラル ネットワークの応答への遅延の追加 |
addInputLayer | Add input layer to network (R2022b 以降) |
additionLayer | 加算層 |
addLayers | 層グラフまたはネットワークへの層の追加 |
addMetrics | Compute additional classification performance metrics (R2022b 以降) |
addParameter | Add parameter to ONNXParameters object (R2020b 以降) |
alexnet | AlexNet 畳み込みニューラル ネットワーク |
analyzeNetwork | 深層学習ネットワーク アーキテクチャの解析 |
assembleNetwork | 事前学習済みの層から深層学習ネットワークを組み立てる |
attention | Dot-product attention (R2022b 以降) |
aucMetric | Deep learning area under ROC curve (AUC) metric (R2023b 以降) |
audioDataAugmenter | Augment audio data (R2019b 以降) |
audioDatastore | Datastore for collection of audio files |
audioFeatureExtractor | Streamline audio feature extraction (R2019b 以降) |
augment | 複数のイメージに対する同一のランダム変換の適用 |
augmentedImageDatastore | バッチの変換によるイメージ データの拡張 |
augmentedImageSource | (削除予定) 拡張イメージ データのバッチの生成 |
Autoencoder | 自己符号化器クラス |
average | Compute performance metrics for average receiver operating characteristic (ROC) curve in multiclass problem (R2022b 以降) |
averagePooling1dLayer | 1 次元平均プーリング層 (R2021b 以降) |
averagePooling2dLayer | 平均プーリング層 |
averagePooling3dLayer | 3-D average pooling layer (R2019a 以降) |
avgpool | Pool data to average values over spatial dimensions (R2019b 以降) |
B
BaselineDistributionDiscriminator | Baseline distribution discriminator (R2023a 以降) |
batchnorm | Normalize data across all observations for each channel independently (R2019b 以降) |
batchNormalizationLayer | バッチ正規化層 |
bilstmLayer | 再帰型ニューラル ネットワーク (RNN) 用の双方向長短期記憶 (BiLSTM) 層 |
blockedImageDatastore | Datastore for use with blocks from blockedImage
objects (R2021a 以降) |
boxdist | 2 つの位置ベクトルの間の距離 |
boxLabelDatastore | Datastore for bounding box label data (R2019b 以降) |
bttderiv | 時間的な逆伝播の導関数 |
C
calibrate | 深層ニューラル ネットワークのシミュレーションと範囲の収集 (R2020a 以降) |
cascadeforwardnet | カスケードフォワード ニューラル ネットワークの生成 |
catelements | ニューラル ネットワークのデータ要素の連結 |
catsamples | ニューラル ネットワークのデータ サンプルの連結 |
catsignals | ニューラル ネットワークのデータ信号の連結 |
cattimesteps | ニューラル ネットワークのデータのタイムステップの連結 |
cellmat | 行列の cell 配列の作成 |
cellpose | Configure Cellpose model for cell segmentation (R2023b 以降) |
checkLayer | Check validity of custom or function layer |
classificationLayer | 分類出力層 |
ClassificationOutputLayer | 分類層 |
classify | 学習済み深層学習ニューラル ネットワークを使用したデータの分類 |
classifyAndUpdateState | 学習済み再帰型ニューラル ネットワークを使用したデータの分類とネットワーク状態の更新 |
classifySound | Classify sounds in audio signal (R2020b 以降) |
clearCache | Clear accelerated deep learning function trace cache (R2021a 以降) |
clippedReluLayer | クリップされた正規化線形ユニット (ReLU) 層 |
close | Close training information plot (R2023b 以降) |
closeloop | ニューラル ネットワークの開ループ フィードバックを閉ループ フィードバックに変換 |
codegen | MATLAB コードから C/C++ コードを生成する |
coder.DeepLearningConfig | 深層学習コード生成構成オブジェクトを作成する |
coder.getDeepLearningLayers | 特定の深層学習ライブラリのコード生成でサポートされる層のリストを取得する |
coder.loadDeepLearningNetwork | 深層学習ネットワーク モデルの読み込み |
coder.loadNetworkDistributionDiscriminator | Load network distribution discriminator for code generation (R2023a 以降) |
combine | 複数のデータストアのデータを統合 (R2019a 以降) |
CombinedDatastore | 複数の基となるデータストアから読み取ったデータを結合するためのデータストア (R2019a 以降) |
combvec | ベクトルのすべての組み合わせの作成 |
compet | 競合伝達関数 |
competlayer | 競合層 |
compressNetworkUsingProjection | Compress neural network using projection (R2022b 以降) |
con2seq | 同時ベクトルから逐次ベクトルへの変換 |
concatenationLayer | 連結層 (R2019a 以降) |
concur | 同時バイアス ベクトルの作成 |
configure | 入力データおよびターゲット データに最も一致するネットワークの入出力の構成 |
confusion | 分類用の混同行列 |
confusionchart | 分類問題用の混同行列チャートの作成 |
confusionmat | 分類問題の混同行列の計算 |
connectLayers | 層グラフまたはネットワークの層の結合 |
convolution1dLayer | 1 次元畳み込み層 (R2021b 以降) |
convolution2dLayer | 2 次元畳み込み層 |
convolution3dLayer | 3-D convolutional layer (R2019a 以降) |
convwf | 畳み込みの重み関数 |
countlabels | 一意のラベル数のカウント (R2021a 以降) |
crepe | CREPE neural network (R2021a 以降) |
crop2dLayer | 2 次元トリミング層 |
crop3dLayer | 3-D crop layer (R2019b 以降) |
crosschannelnorm | Cross channel square-normalize using local responses (R2020a 以降) |
crossChannelNormalizationLayer | チャネル単位の局所応答正規化層 |
crossentropy | 分類タスク用の交差エントロピー損失 (R2019b 以降) |
crossentropy | ニューラル ネットワーク性能 |
ctc | Connectionist temporal classification (CTC) loss for unaligned sequence classification (R2021a 以降) |
cwtfilterbank | 連続ウェーブレット変換フィルター バンク |
cwtLayer | Continuous wavelet transform (CWT) layer (R2022b 以降) |
cwtmag2sig | Signal reconstruction from CWT magnitude (R2023b 以降) |
D
DAGNetwork | 深層学習用の有向非循環グラフ (DAG) ネットワーク |
darknet19 | DarkNet-19 畳み込みニューラル ネットワーク (R2020a 以降) |
darknet53 | DarkNet-53 畳み込みニューラル ネットワーク (R2020a 以降) |
decode | 符号化されたデータの復号化 |
deepDreamImage | Deep Dream を使用したネットワークの特徴の可視化 |
deeplabv3plusLayers | セマンティック イメージ セグメンテーション用の DeepLab v3+ 畳み込みニューラル ネットワークの作成 (R2019b 以降) |
deepSignalAnomalyDetector | Create signal anomaly detector (R2023a 以降) |
defaultderiv | 既定の導関数 |
densenet201 | DenseNet-201 畳み込みニューラル ネットワーク |
depthConcatenationLayer | 深さ連結層 |
detect | Detect objects using PointPillars object detector (R2021b 以降) |
detectspeechnn | Detect boundaries of speech in audio signal using AI (R2023a 以降) |
detectTextCRAFT | Detect texts in images by using CRAFT deep learning model (R2022a 以降) |
dims | dlarray の次元ラベル (R2019b 以降) |
disconnectLayers | 層グラフまたはネットワークの層の切り離し |
dist | ユークリッド距離重み関数 |
distdelaynet | 分散型遅延ネットワーク |
distributionScores | Distribution confidence scores (R2023a 以降) |
divideblock | インデックスのブロックを使用した、3 つのセットへのターゲットの分割 |
divideind | 指定されたインデックスを使用した、3 つのセットへのターゲットの分割 |
divideint | 交互に配置されたインデックスを使用して、ターゲットを 3 つのセットに分割する |
dividerand | ランダムなインデックスを使用した、3 つのセットへのターゲットの分割 |
dividetrain | 学習セットへのすべてのターゲットの割り当て |
dlaccelerate | Accelerate deep learning function for custom training loops (R2021a 以降) |
dlarray | カスタマイズ用の深層学習配列 (R2019b 以降) |
dlconv | Deep learning convolution (R2019b 以降) |
dlcwt | Deep learning continuous wavelet transform (R2022b 以降) |
dlfeval | カスタム学習ループ用の深層学習モデルの評価 (R2019b 以降) |
dlgradient | 自動微分を使用したカスタム学習ループの勾配の計算 (R2019b 以降) |
dlhdl.Target | Configure interface to target board for workflow deployment (R2020b 以降) |
dlhdl.Workflow | Configure deployment workflow for deep learning neural network (R2020b 以降) |
dlmodwt | Deep learning maximal overlap discrete wavelet transform and multiresolution analysis (R2022a 以降) |
dlmtimes | (Not recommended) Batch matrix multiplication for deep learning (R2020a 以降) |
dlnetwork | カスタム学習ループ向けの深層学習ネットワーク (R2019b 以降) |
dlode45 | Deep learning solution of nonstiff ordinary differential equation (ODE) (R2021b 以降) |
dlquantizationOptions | Options for quantizing a trained deep neural network (R2020a 以降) |
dlquantizer | Quantize a deep neural network to 8-bit scaled integer data types (R2020a 以降) |
dlstft | 深層学習の短時間フーリエ変換 (R2021a 以降) |
dltranspconv | Deep learning transposed convolution (R2019b 以降) |
dlupdate | Update parameters using custom function (R2019b 以降) |
doc2sequence | Convert documents to sequences for deep learning |
dotprod | ドット積重み関数 |
dropoutLayer | ドロップアウト層 |
E
edfheader | EDF または EDF+ ファイルのヘッダー構造体の作成 (R2021a 以降) |
edfinfo | EDF/EDF+ ファイルに関する情報の取得 (R2020b 以降) |
edfread | EDF/EDF+ ファイルからのデータの読み取り (R2020b 以降) |
edfwrite | EDF または EDF+ ファイルの作成または変更 (R2021a 以降) |
efficientnetb0 | EfficientNet-b0 畳み込みニューラル ネットワーク (R2020b 以降) |
elliot2sig | Elliot 2 対称シグモイド伝達関数 |
elliotsig | Elliot 対称シグモイド伝達関数 |
elmannet | Elman ニューラル ネットワーク |
eluLayer | 指数線形ユニット (ELU) 層 (R2019a 以降) |
embed | Embed discrete data (R2020b 以降) |
embeddingConcatenationLayer | Embedding concatenation layer (R2023b 以降) |
encode | 入力データの符号化 |
EnergyDistributionDiscriminator | Energy distribution discriminator (R2023a 以降) |
equalizeLayers | Equalize layer parameters of deep neural network (R2022b 以降) |
errsurf | 単入力ニューロンの誤差曲面 |
estimateNetworkMetrics | Estimate network metrics for specific layers of a neural network (R2022a 以降) |
estimateNetworkOutputBounds | Estimate output bounds of deep learning network (R2022b 以降) |
experiments.Monitor | カスタムの学習実験の結果テーブルと学習プロットの更新 (R2021a 以降) |
exportNetworkToTensorFlow | Export Deep Learning Toolbox network or layer graph to TensorFlow (R2022b 以降) |
exportONNXNetwork | ONNX モデル形式へのネットワークのエクスポート |
extendts | 時系列データを所与のタイムステップ数になるように拡張 |
extractdata | dlarray からのデータの抽出 (R2019b 以降) |
F
fasterRCNNObjectDetector | Faster R-CNN 深層学習の検出器を使用したオブジェクトの検出 |
fastFlowAnomalyDetector | Detect anomalies using FastFlow network (R2023a 以降) |
fastRCNNObjectDetector | Detect objects using Fast R-CNN deep learning detector |
fastTextWordEmbedding | 事前学習済みの fastText 単語埋め込み |
fcddAnomalyDetector | Detect anomalies using fully convolutional data description (FCDD) network for anomaly detection (R2022b 以降) |
featureInputLayer | 特徴入力層 (R2020b 以降) |
feedforwardnet | フィードフォワード ニューラル ネットワークの生成 |
filenames2labels | Get list of labels from filenames (R2022b 以降) |
findchangepts | 信号の急激な変化の検出 |
finddim | 指定されたラベルをもつ次元の検索 (R2019b 以降) |
findpeaks | 局所的最大値 |
findPlaceholderLayers | Find placeholder layers in network architecture imported from Keras or ONNX |
fitnet | 関数近似ニューラル ネットワーク |
fixunknowns | Process data by marking rows with unknown values |
flattenLayer | フラット化層 (R2019a 以降) |
folders2labels | フォルダー名からのラベル リストの取得 (R2021a 以降) |
formwb | バイアスと重みを使用した単一ベクトルの形成 |
forward | 学習用の深層学習ネットワーク出力の計算 (R2019b 以降) |
fpderiv | 順伝播導関数 |
freezeParameters | ONNXParameters の学習可能なネットワーク パラメーターを学習不能に変換する (R2020b 以降) |
fromnndata | Convert data from standard neural network cell array form |
fScoreMetric | Deep learning F-score metric (R2023b 以降) |
fullyconnect | すべての重み付き入力データの加算とバイアスの適用 (R2019b 以降) |
fullyConnectedLayer | 全結合層 |
functionLayer | 関数層 (R2021b 以降) |
functionToLayerGraph | (To be removed) Convert deep learning model function to a layer graph (R2019b 以降) |
G
gadd | 汎用加算処理 |
gdivide | 汎用除算処理 |
gelu | Apply Gaussian error linear unit (GELU) activation (R2022b 以降) |
geluLayer | Gaussian error linear unit (GELU) layer (R2022b 以降) |
generateFunction | 自己符号化器を実行する MATLAB 関数の生成 |
generateSimulink | 自己符号化器の Simulink モデルの生成 |
genFunction | 浅層ニューラル ネットワークのシミュレーション用の MATLAB 関数の生成 |
gensim | 浅層ニューラル ネットワークのシミュレーション用の Simulink ブロックの生成 |
getelements | ニューラル ネットワークのデータ要素の取得 |
getL2Factor | 層の学習可能なパラメーターの L2 正則化係数の取得 |
getLearnRateFactor | 層の学習可能なパラメーターの学習率係数の取得 |
getsamples | ニューラル ネットワークのデータ サンプルの取得 |
getsignals | ニューラル ネットワークのデータ信号の取得 |
getsiminit | Get Simulink neural network block initial input and layer delays states |
gettimesteps | ニューラル ネットワークのデータのタイムステップの取得 |
getwb | 単一ベクトルとしてのネットワークの重み値およびバイアス値の取得 |
globalAveragePooling1dLayer | 1 次元グローバル平均プーリング層 (R2021b 以降) |
globalAveragePooling2dLayer | 2 次元グローバル平均プーリング層 (R2019b 以降) |
globalAveragePooling3dLayer | 3 次元グローバル平均プーリング層 (R2019b 以降) |
globalMaxPooling1dLayer | 1 次元グローバル最大プーリング層 (R2021b 以降) |
globalMaxPooling2dLayer | グローバル最大プーリング層 (R2020a 以降) |
globalMaxPooling3dLayer | 3 次元グローバル最大プーリング層 (R2020a 以降) |
gmultiply | 汎用乗算処理 |
gnegate | 汎用符号反転処理 |
googlenet | GoogLeNet 畳み込みニューラル ネットワーク |
gpu2nndata | Reformat neural data back from GPU |
gradCAM | Grad-CAM を使用したネットワーク予測の説明 (R2021a 以降) |
gridtop | グリッド層トポロジ関数 |
groupedConvolution2dLayer | グループ化された 2 次元畳み込み層 (R2019a 以降) |
groupnorm | Normalize data across grouped subsets of channels for each observation independently (R2020b 以降) |
groupNormalizationLayer | Group normalization layer (R2020b 以降) |
groupSubPlot | 実験学習プロットへのメトリクスのグループ化 (R2021a 以降) |
groupSubPlot | Group metrics in training plot (R2022b 以降) |
gru | ゲート付き回帰型ユニット (R2020a 以降) |
gruLayer | 再帰型ニューラル ネットワーク (RNN) 用のゲート付き回帰型ユニット (GRU) 層 (R2020a 以降) |
gruProjectedLayer | Gated recurrent unit (GRU) projected layer for recurrent neural network (RNN) (R2023b 以降) |
gsqrt | 汎用平方根演算 |
gsubtract | 汎用減算処理 |
H
hardlim | ハードリミット伝達関数 |
hardlims | 対称ハードリミット伝達関数 |
hasdata | Determine if minibatchqueue can return mini-batch (R2020b 以降) |
HBOSDistributionDiscriminator | HBOS distribution discriminator (R2023a 以降) |
hextop | 六角形層トポロジ関数 |
huber | 回帰タスクの Huber 損失 (R2021a 以降) |
I
image3dInputLayer | 3 次元イメージ入力層 (R2019a 以降) |
imageDataAugmenter | イメージ データ拡張の構成 |
imageDatastore | イメージ データのデータストア |
imageInputLayer | イメージ入力層 |
imageLIME | Explain network predictions using LIME (R2020b 以降) |
importCaffeLayers | Caffe からの畳み込みニューラル ネットワーク層のインポート |
importCaffeNetwork | 事前学習済み畳み込みニューラル ネットワーク モデルを Caffe からインポート |
importKerasLayers | (削除予定) Keras ネットワークからの層のインポート |
importKerasNetwork | (削除予定) 事前学習済みの Keras ネットワークおよび重みのインポート |
importNetworkFromONNX | Import ONNX network as MATLAB network (R2023b 以降) |
importNetworkFromPyTorch | Import PyTorch network as MATLAB network (R2022b 以降) |
importNetworkFromTensorFlow | Import TensorFlow network as MATLAB network (R2023b 以降) |
importONNXFunction | Import pretrained ONNX network as a function (R2020b 以降) |
importONNXLayers | (削除予定) ONNX ネットワークからの層のインポート |
importONNXNetwork | (削除予定) 事前学習済みの ONNX ネットワークのインポート |
importTensorFlowLayers | (To be removed) Import layers from TensorFlow network (R2021a 以降) |
importTensorFlowNetwork | (削除予定) 事前学習済みの TensorFlow ネットワークのインポート (R2021a 以降) |
inceptionresnetv2 | 事前学習済み Inception-ResNet-v2 畳み込みニューラル ネットワーク |
inceptionv3 | Inception-v3 畳み込みニューラル ネットワーク |
ind2vec | ベクトルへのインデックスの変換 |
ind2word | Map encoding index to word |
indexing1dLayer | 1-D indexing layer (R2023b 以降) |
init | ニューラル ネットワークの初期化 |
initcon | 良心的バイアス初期化関数 |
initialize | dlnetwork の学習可能なパラメーターと状態パラメーターの初期化 (R2021a 以降) |
initlay | 層単位のネットワーク初期化関数 |
initlvq | LVQ weight initialization function |
initnw | Nguyen・Widrow 層初期化関数 |
initwb | 重みとバイアスの層初期化関数 |
initzero | 重みとバイアスを 0 に初期化する関数 |
instancenorm | Normalize across each channel for each observation independently (R2021a 以降) |
instanceNormalizationLayer | インスタンス正規化層 (R2021a 以降) |
isconfigured | Indicate if network inputs and outputs are configured |
isdlarray | Check if object is dlarray
(R2020b 以降) |
isequal | Check equality of deep learning layer graphs or networks (R2021a 以降) |
isequaln | Check equality of deep learning layer graphs or networks ignoring
NaN values (R2021a 以降) |
isInNetworkDistribution | Determine whether data is within the distribution of the network (R2023a 以降) |
isVocabularyWord | Test if word is member of word embedding or encoding |
L
l1loss | L1 loss for regression tasks (R2021b 以降) |
l2loss | L2 loss for regression tasks (R2021b 以降) |
labeledSignalSet | ラベル付き信号セットの作成 |
Layer | 深層学習用のネットワーク層 |
layerGraph | 深層学習用のネットワーク層のグラフ |
layernorm | Normalize data across all channels for each observation independently (R2021a 以降) |
layerNormalizationLayer | レイヤー正規化層 (R2021a 以降) |
layrecnet | 層再帰型ニューラル ネットワーク |
lbfgsState | State of limited-memory BFGS (L-BFGS) solver (R2023a 以降) |
lbfgsupdate | Update parameters using limited-memory BFGS (L-BFGS) (R2023a 以降) |
leakyrelu | 漏洩 (leaky) 正規化線形ユニット活性化の適用 (R2019b 以降) |
leakyReluLayer | 漏洩 (leaky) 正規化線形ユニット (ReLU) 層 |
learncon | 良心的バイアス学習関数 |
learngd | 勾配降下法の重みとバイアスの学習関数 |
learngdm | モーメンタム項付き勾配降下法の重みとバイアスの学習関数 |
learnh | Hebb 重み学習規則 |
learnhd | 重み減衰を使用した Hebb 学習規則 |
learnis | instar 重み学習関数 |
learnk | Kohonen 重み学習関数 |
learnlv1 | LVQ1 重み学習関数 |
learnlv2 | LVQ2.1 weight learning function |
learnos | outstar 重み学習関数 |
learnp | パーセプトロン重みとバイアス学習関数 |
learnpn | 正規化パーセプトロンの重みとバイアスの学習関数 |
learnsom | Self-organizing map weight learning function |
learnsomb | Batch self-organizing map weight learning function |
learnwh | Widrow・Hoff 重み/バイアス学習関数 |
linearlayer | 線形層の作成 |
linkdist | リンク距離関数 |
loadTFLiteModel | Load TensorFlow Lite model (R2022a 以降) |
logsig | 対数シグモイド伝達関数 |
lstm | 長短期記憶 (R2019b 以降) |
lstmLayer | 再帰型ニューラル ネットワーク (RNN) 用の長短期記憶 (LSTM) 層 |
lstmProjectedLayer | Long short-term memory (LSTM) projected layer for recurrent neural network (RNN) (R2022b 以降) |
lvqnet | 学習ベクトル量子化ニューラル ネットワーク |
lvqoutputs | LVQ 出力処理関数 |
M
mae | 平均絶対誤差性能関数 |
mandist | マンハッタン距離重み関数 |
mapminmax | 行の最小値と最大値を [-1 1 ] にマッピングして行列を処理 |
mapstd | 各行の平均を 0、偏差を 1 にマッピングする行列処理 |
maskrcnn | Detect objects using Mask R-CNN instance segmentation (R2021b 以降) |
matlab.io.datastore.BackgroundDispatchable | (Not recommended) Add prefetch reading support to datastore |
matlab.io.datastore.BackgroundDispatchable.readByIndex | (Not recommended) Return observations specified by index from datastore |
matlab.io.datastore.MiniBatchable | Add mini-batch support to datastore |
matlab.io.datastore.MiniBatchable.read | (Not recommended) Read data from custom mini-batch datastore |
matlab.io.datastore.PartitionableByIndex | (Not recommended) Add parallelization support to datastore |
matlab.io.datastore.PartitionableByIndex.partitionByIndex | (Not recommended) Partition datastore according to indices |
maxlinlr | 線形層の最大学習率 |
maxpool | Pool data to maximum value (R2019b 以降) |
maxPooling1dLayer | 1 次元最大プーリング層 (R2021b 以降) |
maxPooling2dLayer | 最大プーリング層 |
maxPooling3dLayer | 3-D max pooling layer (R2019a 以降) |
maxunpool | 最大プーリング演算の出力の逆プーリング (R2019b 以降) |
maxUnpooling2dLayer | 最大逆プーリング層 |
meanabs | 1 つ以上の行列に含まれる要素の絶対値の平均 |
meansqr | 1 つ以上の行列の要素の二乗平均 |
midpoint | 中点重み初期化関数 |
minibatchqueue | 深層学習用のミニバッチの作成 (R2020b 以降) |
minmax | 行列の行の範囲 |
mobilenetv2 | MobileNet-v2 畳み込みニューラル ネットワーク (R2019a 以降) |
modwt | 最大重複離散ウェーブレット変換 |
modwtLayer | Maximal overlap discrete wavelet transform (MODWT) layer (R2022b 以降) |
mse | 半平均二乗誤差 (R2019b 以降) |
mse | 平均二乗正規化誤差性能関数 |
multiplicationLayer | 乗算層 (R2020b 以降) |
N
narnet | 非線形自己回帰ニューラル ネットワーク |
narxnet | 外部入力を伴う非線形自己回帰ニューラル ネットワーク |
nasnetlarge | 事前学習済みの NASNet-Large 畳み込みニューラル ネットワーク (R2019a 以降) |
nasnetmobile | 事前学習済みの NASNet-Mobile 畳み込みニューラル ネットワーク (R2019a 以降) |
nctool | ニューラル ネット クラスタリング アプリを開く |
negdist | 負の距離重み関数 |
netinv | 逆伝達関数 |
netprod | 積正味入力関数 |
netsum | 和正味入力関数 |
network | Autoencoder オブジェクトから network オブジェクトへの変換 |
network | 浅層カスタム ニューラル ネットワークの作成 |
networkDataLayout | Deep learning network data layout for learnable parameter initialization (R2022b 以降) |
networkDistributionDiscriminator | Deep learning distribution discriminator (R2023a 以降) |
neuralODELayer | Neural ODE layer (R2023b 以降) |
neuronPCA | Principal component analysis of neuron activations (R2022b 以降) |
newgrnn | 一般回帰ニューラル ネットワークの設計 |
newlind | 線形層の設計 |
newpnn | 確率的ニューラル ネットワークの設計 |
newrb | 放射基底ネットワークの設計 |
newrbe | 厳密な放射基底ネットワークの設計 |
next | ミニバッチキューからの次のデータ ミニバッチの取得 (R2020b 以降) |
nftool | ニューラル ネット フィッティング アプリを開く |
nncell2mat | Combine neural network cell data into matrix |
nncorr | ニューラル ネットワークの時系列間の相互相関 |
nndata | ニューラル ネットワーク データの作成 |
nndata2gpu | Format neural data for efficient GPU training or simulation |
nndata2sim | Convert neural network data to Simulink time series |
nnsize | Number of neural data elements, samples, timesteps, and signals |
nntool | (削除済み) Network/Data Manager を開く |
nntraintool | (削除済み) ニューラル ネットワーク学習ツール |
noloop | Remove neural network open- and closed-loop feedback |
normc | 行列の列の正規化 |
normprod | 正規化ドット積重み関数 |
normr | 行列の行の正規化 |
nprtool | ニューラル ネット パターン認識アプリを開く |
ntstool | ニューラル ネット時系列アプリを開く |
num2deriv | ネットワーク 2 点数値導関数 |
num5deriv | 5 点ステンシル ニューラル ネットワーク数値導関数 |
numelements | ニューラル ネットワーク データ内の要素の数 |
numfinite | ニューラル ネットワーク データ内の有限値の数 |
numnan | ニューラル ネットワーク データ内の NaN 値の数 |
numsamples | ニューラル ネットワーク データ内のサンプルの数 |
numsignals | ニューラル ネットワーク データ内の信号の数 |
numtimesteps | ニューラル ネットワーク データ内のタイム ステップの数 |
O
occlusionSensitivity | Explain network predictions by occluding the inputs (R2019b 以降) |
ODINDistributionDiscriminator | ODIN distribution discriminator (R2023a 以降) |
onehotdecode | クラス ラベルへの確率ベクトルの復号化 (R2020b 以降) |
onehotencode | one-hot ベクトルへのデータ ラベルの符号化 (R2020b 以降) |
ONNXParameters | Parameters of imported ONNX network for deep learning (R2020b 以降) |
openl3 | OpenL3 neural network (R2021a 以降) |
openl3Embeddings | Extract OpenL3 feature embeddings (R2022a 以降) |
openloop | ニューラル ネットワークの閉ループ フィードバックから開ループへの変換 |
P
paddata | Pad data by adding elements (R2023b 以降) |
padsequences | Pad or truncate sequence data to same length (R2021a 以降) |
partition | Partition minibatchqueue (R2020b 以降) |
partitionByIndex | インデックスに応じた augmentedImageDatastore の分割 |
patchCoreAnomalyDetector | PatchCore ネットワークを使用した異常の検出 (R2023a 以降) |
patchEmbeddingLayer | Patch embedding layer (R2023b 以降) |
patternnet | パターン認識ネットワークの生成 |
perceptron | 単純な単層バイナリ分類器 |
perform | ネットワーク性能の計算 |
pitchnn | Estimate pitch with deep learning neural network (R2021a 以降) |
pixelLabelDatastore | ピクセル ラベル データのデータストア |
PlaceholderLayer | Layer replacing an unsupported Keras or ONNX layer |
plot | ニューラル ネットワーク アーキテクチャのプロット |
plot | Plot receiver operating characteristic (ROC) curves and other performance curves (R2022b 以降) |
plotconfusion | 分類の混同行列のプロット |
plotep | Plot weight-bias position on error surface |
ploterrcorr | 誤差時系列の自己相関のプロット |
ploterrhist | 誤差のヒストグラムのプロット |
plotes | 単入力ニューロンの誤差曲面のプロット |
plotfit | 関数近似のプロット |
plotinerrcorr | 誤差時系列の相互相関への入力のプロット |
plotpc | パーセプトロン ベクトル プロットでの分類ラインのプロット |
plotperform | ネットワーク性能のプロット |
plotpv | パーセプトロンの入力ベクトルやターゲット ベクトルのプロット |
plotregression | 線形回帰のプロット |
plotresponse | 動的ネットワークの時系列応答のプロット |
plotroc | 受信者動作特性のプロット |
plotsom | 自己組織化マップのプロット |
plotsomhits | 自己組織化マップ サンプル ヒットのプロット |
plotsomnc | 自己組織化マップ近傍接続のプロット |
plotsomnd | 自己組織化マップ近傍距離のプロット |
plotsomplanes | 自己組織化マップ重み平面のプロット |
plotsompos | 自己組織化マップ重み位置のプロット |
plotsomtop | 自己組織化マップ トポロジのプロット |
plottrainstate | 学習状態値のプロット |
plotv | (削除予定) 原点からのラインとしてのベクトルのプロット |
plotvec | 異なる色を使用したベクトルのプロット |
plotwb | Plot Hinton diagram of weight and bias values |
plotWeights | 自己符号化器の符号化器の重みを可視化してプロット |
pnormc | 行列の列の疑似正規化 |
pointnetplusLayers | PointNet++ セグメンテーション ネットワークの作成 (R2021b 以降) |
pointPillarsObjectDetector | PointPillars オブジェクト検出器 (R2021b 以降) |
positionEmbeddingLayer | Position embedding layer (R2023b 以降) |
poslin | 正の線形伝達関数 |
precisionMetric | Deep learning precision metric (R2023b 以降) |
predict | 学習済み深層学習ニューラル ネットワークを使用した応答の予測 |
predict | 推論用の深層学習ネットワーク出力の計算 (R2019b 以降) |
predict | Compute deep learning network output for inference by using a TensorFlow Lite model (R2022a 以降) |
predict | 学習済みの自己符号化器を使用した入力の再構成 |
predictAndUpdateState | 学習済み再帰型ニューラル ネットワークを使用した応答の予測とネットワーク状態の更新 |
preparets | ネットワークのシミュレーションまたは学習用の入力およびターゲット時系列データの準備 |
processpca | 主成分分析による行列の列の処理 |
ProjectedLayer | Compressed neural network layer via projection (R2023b 以降) |
prune | サイズがゼロのニューラル入力、層、出力の削除 |
prunedata | Prune data for consistency with pruned network |
purelin | 線形伝達関数 |
Q
quant | 量の倍数としての値の離散化 |
quantizationDetails | Display quantization details for a neural network (R2022a 以降) |
quantize | Quantize deep neural network (R2022a 以降) |
R
radbas | 放射基底伝達関数 |
radbasn | 正規化放射基底伝達関数 |
randnc | 正規化列重み初期化関数 |
randnr | 正規化行重み初期化関数 |
randomPatchExtractionDatastore | イメージまたはピクセル ラベル イメージから 2 次元または 3 次元のランダム パッチを抽出するためのデータストア |
rands | 対称ランダム重み/バイアス初期化関数 |
randsmall | 微小ランダム重み/バイアス初期化関数 |
randtop | ランダム層トポロジ関数 |
rcnnObjectDetector | R-CNN 深層学習の検出器を使用したオブジェクトの検出 |
read | augmentedImageDatastore からデータを読み取る |
readByIndex | インデックスで指定されたデータを augmentedImageDatastore から読み取る |
readWordEmbedding | ファイルからの単語埋め込みの読み取り |
recallMetric | Deep learning recall metric (R2023b 以降) |
recordMetrics | Record metric values in experiment results table and training plot (R2021a 以降) |
recordMetrics | Record metric values for custom training loops (R2022b 以降) |
regression | (非推奨) ターゲットでの浅層ネットワーク出力の線形回帰の実行 |
regressionLayer | 回帰出力層 |
RegressionOutputLayer | 回帰出力層 |
relu | 正規化線形ユニット活性化の適用 (R2019b 以降) |
reluLayer | 正規化線形ユニット (ReLU) 層 |
removeconstantrows | 定数値での行の削除による行列の処理 |
removedelay | ニューラル ネットワークの応答に対する遅延の削除 |
removeLayers | 層グラフまたはネットワークからの層の削除 |
removeParameter | Remove parameter from ONNXParameters object (R2020b 以降) |
removerows | 指定されたインデックスでの行の削除による行列の処理 |
replaceLayer | 層グラフまたはネットワークの層の置き換え |
reset | Reset minibatchqueue to start of data (R2020b 以降) |
resetState | ニューラル ネットワークの状態パラメーターのリセット |
resize | Resize data by adding or removing elements (R2023b 以降) |
resnet101 | ResNet-101 畳み込みニューラル ネットワーク |
resnet18 | ResNet-18 畳み込みニューラル ネットワーク |
resnet3dLayers | 3 次元残差ネットワークの作成 (R2021b 以降) |
resnet50 | ResNet-50 畳み込みニューラル ネットワーク |
resnetLayers | 2 次元残差ネットワークの作成 (R2021b 以降) |
revert | Change network weights and biases to previous initialization values |
risetime | 立ち上がり 2 値波形遷移の立ち上がり時間 |
rmseMetric | Deep learning root mean squared error metric (R2023b 以降) |
rmspropupdate | 平方根平均二乗伝播 (RMSProp) を使用してパラメーターを更新する (R2019b 以降) |
roc | 受信者動作特性 |
rocmetrics | Receiver operating characteristic (ROC) curve and performance metrics for binary and multiclass classifiers (R2022b 以降) |
S
sae | 合計絶対誤差性能関数 |
satlin | 飽和線形伝達関数 |
satlins | 対称飽和線形伝達関数 |
scalprod | スカラー積重み関数 |
segmentCells2D | Segment 2-D image using Cellpose (R2023b 以降) |
segmentCells3D | Segment 3-D image volume using Cellpose (R2023b 以降) |
segnetLayers | セマンティック セグメンテーションの SegNet 層の作成 |
selfAttentionLayer | Self-attention layer (R2023a 以降) |
selforgmap | 自己組織化マップ |
separateSpeakers | Separate signal by speakers (R2023b 以降) |
separatewb | 重み/バイアス ベクトルからのバイアス値と重み値の分離 |
seq2con | 逐次ベクトルから同時ベクトルへの変換 |
sequenceFoldingLayer | シーケンス折りたたみ層 (R2019a 以降) |
sequenceInputLayer | シーケンス入力層 |
sequenceUnfoldingLayer | シーケンス展開層 (R2019a 以降) |
SeriesNetwork | 深層学習用の系列ネットワーク |
setelements | ニューラル ネットワークのデータ要素の設定 |
setL2Factor | 層の学習可能なパラメーターの L2 正則化係数の設定 |
setLearnRateFactor | 層の学習可能なパラメーターの学習率係数を設定します。 |
setsamples | ニューラル ネットワークのデータ サンプルの設定 |
setsignals | ニューラル ネットワークのデータ信号の設定 |
setsiminit | Set neural network Simulink block initial conditions |
settimesteps | ニューラル ネットワークのデータのタイムステップの設定 |
setwb | 単一ベクトルによるすべてのネットワークの重み値およびバイアス値の設定 |
sgdmupdate | モーメンタム項付き確率的勾配降下法 (SGDM) を使用してパラメーターを更新する (R2019b 以降) |
show | Show training information plot (R2023b 以降) |
shuffle | augmentedImageDatastore でデータをシャッフルする |
shuffle | Shuffle data in minibatchqueue (R2020b 以降) |
shufflenet | 事前学習済みの ShuffleNet 畳み込みニューラル ネットワーク (R2019a 以降) |
sigmoid | シグモイド活性化の適用 (R2019b 以降) |
sigmoidLayer | シグモイド層 (R2020b 以降) |
signalDatastore | 信号コレクションのデータストア (R2020a 以降) |
signalFrequencyFeatureExtractor | Streamline signal frequency feature extraction (R2021b 以降) |
signalLabelDefinition | 信号ラベル定義の作成 |
signalMask | 信号マスクの変更および変換、ならびに信号の関心領域の抽出 (R2020b 以降) |
signalTimeFeatureExtractor | Streamline signal time feature extraction (R2021a 以降) |
sigrangebinmask | Label signal samples with values within a specified range (R2023a 以降) |
sim | ニューラル ネットワークのシミュレーション |
sim2nndata | Convert Simulink time series to neural network data |
sinusoidalPositionEncodingLayer | Sinusoidal position encoding layer (R2023b 以降) |
softmax | チャネル次元へのソフトマックス活性化の適用 (R2019b 以降) |
softmax | ソフトマックス伝達関数 |
softmaxLayer | ソフトマックス層 |
solov2 | Segment objects using SOLOv2 instance segmentation network (R2023b 以降) |
sortClasses | 混同行列チャートのクラスの並べ替え |
splitlabels | 指定の比率に従ってラベルを分割するためのインデックスの検索 (R2021a 以降) |
squeezenet | SqueezeNet 畳み込みニューラル ネットワーク |
squeezesegv2Layers | Create SqueezeSegV2 segmentation network for organized lidar point cloud (R2020b 以降) |
srchbac | 1-D minimization using backtracking |
srchbre | 1-D interval location using Brent’s method |
srchcha | 1-D minimization using Charalambous' method |
srchgol | 1-D minimization using golden section search |
srchhyb | 1-D minimization using a hybrid bisection-cubic search |
ssdObjectDetector | Detect objects using SSD deep learning detector (R2020a 以降) |
sse | 残差平方和性能関数 |
stack | 複数の自己符号化器から集めた符号化器の積み重ね |
staticderiv | 静的導関数 |
stft | 短時間フーリエ変換 (R2019a 以降) |
stftLayer | Short-time Fourier transform layer (R2021b 以降) |
stftmag2sig | STFT 振幅からの信号の再構成 (R2020b 以降) |
stripdims | dlarray データ形式の削除 (R2019b 以降) |
sumabs | 1 つ以上の行列に含まれる要素の絶対値の総和 |
summary | ネットワークの概要の出力 (R2022b 以降) |
sumsqr | 1 つ以上の行列の要素の二乗和 |
swishLayer | Swish 層 (R2021a 以降) |
T
tanhLayer | 双曲線正接 (tanh) 層 (R2019a 以降) |
tansig | 双曲線正接シグモイド伝達関数 |
tapdelay | Shift neural network time series data for tap delay |
taylorPrunableNetwork | Network that can be pruned by using first-order Taylor approximation (R2022a 以降) |
TFLiteModel | TensorFlow Lite model (R2022a 以降) |
timedelaynet | 時間遅れニューラル ネットワーク |
tonndata | 標準のニューラル ネットワーク cell 配列形式へのデータの変換 |
train | 浅層ニューラル ネットワークの学習 |
trainAutoencoder | 自己符号化器の学習 |
trainb | 重み学習規則とバイアス学習規則によるバッチ学習 |
trainbfg | BFGS 準ニュートン法逆伝播 |
trainbr | ベイズ正則化逆伝播 |
trainbu | バッチ教師なし重み/バイアス学習 |
trainc | 循環順序重み/バイアス学習 |
traincgb | Conjugate gradient backpropagation with Powell-Beale restarts |
traincgf | Conjugate gradient backpropagation with Fletcher-Reeves updates |
traincgp | Conjugate gradient backpropagation with Polak-Ribiére updates |
traingd | 勾配降下法逆伝播 |
traingda | 適応学習率を使用した勾配降下法による逆伝播 |
traingdm | モーメンタム項付き勾配降下法を使用した逆伝播 |
traingdx | モーメンタム項付き勾配降下法および適応学習率を使用した逆伝播 |
TrainingInfo | Neural network training information (R2023b 以降) |
trainingOptions | 深層学習ニューラル ネットワークの学習のオプション |
TrainingOptionsADAM | Adam オプティマイザーの学習オプション |
TrainingOptionsLBFGS | Training options for limited-memory BFGS (L-BFGS) optimizer (R2023b 以降) |
TrainingOptionsRMSProp | RMSProp オプティマイザーの学習オプション |
TrainingOptionsSGDM | モーメンタム項付き確率的勾配降下法の学習オプション |
trainingProgressMonitor | Monitor and plot training progress for deep learning custom training loops (R2022b 以降) |
trainlm | レーベンバーグ・マルカート法逆伝播 |
trainnet | Train deep learning neural network (R2023b 以降) |
trainNetwork | ニューラル ネットワークの学習 |
trainoss | One-step secant backpropagation |
trainPointPillarsObjectDetector | Train PointPillars object detector (R2021b 以降) |
trainr | 学習関数を使用したランダムな順序のインクリメンタル学習 |
trainrp | 弾性逆伝播法 |
trainru | 教師なしランダム順序重み/バイアス学習 |
trains | 学習関数を使用したシーケンシャルな順序のインクリメンタル学習 |
trainscg | スケーリング共役勾配法逆伝播 |
trainSoftmaxLayer | 分類用のソフトマックス層の学習 |
trainWordEmbedding | Train word embedding |
transform | データストアの変換 (R2019a 以降) |
TransformedDatastore | 基となるデータストアを変換するためのデータストア (R2019a 以降) |
transposedConv1dLayer | 1 次元転置畳み込み層 (R2022a 以降) |
transposedConv2dLayer | 2 次元転置畳み込み層 |
transposedConv3dLayer | Transposed 3-D convolution layer (R2019a 以降) |
TransposedConvolution1DLayer | Transposed 1-D convolution layer (R2022a 以降) |
TransposedConvolution2DLayer | Transposed 2-D convolution layer |
TransposedConvolution3dLayer | Transposed 3-D convolution layer (R2019a 以降) |
tribas | 三角基底伝達関数 |
trimdata | Trim data by removing elements (R2023b 以降) |
tritop | 三角形層トポロジ関数 |
U
unconfigure | ネットワークの入力と出力の構成解除 |
unet3dLayers | Create 3-D U-Net layers for semantic segmentation of volumetric images (R2019b 以降) |
unetLayers | セマンティック セグメンテーションの U-Net 層の作成 |
unfreezeParameters | ONNXParameters の学習不能なネットワーク パラメーターを学習可能に変換する (R2020b 以降) |
unpackProjectedLayers | Unpack projected layers of neural network (R2023b 以降) |
updateInfo | 実験結果テーブルの情報列の更新 (R2021a 以降) |
updateInfo | Update information values for custom training loops (R2022b 以降) |
updatePrunables | Remove filters from prunable layers based on importance scores (R2022a 以降) |
updateScore | Compute and accumulate Taylor-based importance scores for pruning (R2022a 以降) |
V
vadnet | Voice activity detection (VAD) neural network (R2023a 以降) |
validate | Quantize and validate a deep neural network (R2020a 以降) |
vec2ind | ベクトルからインデックスへの変換 |
vec2word | Map embedding vector to word |
verifyNetworkRobustness | Verify adversarial robustness of deep learning network (R2022b 以降) |
vgg16 | VGG-16 畳み込みニューラル ネットワーク |
vgg19 | VGG-19 畳み込みニューラル ネットワーク |
vggish | VGGish neural network (R2020b 以降) |
vggishEmbeddings | Extract VGGish feature embeddings (R2022a 以降) |
view | 浅層ニューラル ネットワークの表示 |
view | 自己符号化器の表示 |
visionTransformer | Pretrained vision transformer (ViT) neural network (R2023b 以降) |
W
waveletScattering | Wavelet time scattering |
word2ind | Map word to encoding index |
word2vec | 埋め込みベクトルへの単語のマッピング |
wordEmbedding | ベクトルへの単語のマッピングとその逆変換のための単語埋め込みモデル |
wordEmbeddingLayer | 深層学習ネットワーク用の単語埋め込み層 |
wordEncoding | Word encoding model to map words to indices and back |
writeWordEmbedding | 単語埋め込みファイルの書き込み |
X
xception | Xception 畳み込みニューラル ネットワーク (R2019a 以降) |
Y
yamnet | YAMNet neural network (R2020b 以降) |
yolov2ObjectDetector | Detect objects using YOLO v2 object detector (R2019a 以降) |
yolov3ObjectDetector | Detect objects using YOLO v3 object detector (R2021a 以降) |
yolov4ObjectDetector | Detect objects using YOLO v4 object detector (R2022a 以降) |
yoloxObjectDetector | Detect objects using YOLOX object detector (R2023b 以降) |