『ゼロから作るDeep Learning』で深層学習を学び、自分自身の物理ニューラルネットワーク=脳を訓練中だが、一通り用語を一覧にした。
理論、実装、その他さまざまな用語が混ざっているが、これらを見ながら説明できない用語をピックアップして、本書を復習していく。
なお、Pythonの基本的な文法など、分かっているものは省いた。
まずは、英語編。
activation function AdaGrad Adam AddLayer Affine AlexNet ALU AND gate argmax() Averageプーリング batch Batch Normalization CNN CNTK Convolution crop処理 cross entropy error CUDA cuDNN Data Augmentation DCGAN Deep Belief Network Deep Boltzman Machine Deep Q-Network DQN Dropout end-to-end Faster R-CNN CFN fine tuning flip処理 forward propagation fully-connected GAN GoogLeNet GPUコンピューティング gradient gradient ascent method gradient descent method half float Heの初期値 HOG identity_function() ILSVRC im2col Image.fromarray() ImageNet KNN L1ノルム L2ノルム learning rate LeNet load_mnist() loss function LRN matrix Maxノルム Maxプーリング mean squared error MNIST Momentum MulLayer nan NAND gate NIC np.arange() np.argmax() np.array np.dot() np.exp() np.int np.maximum() np.mdim() np.random.choice() np.random.randn() np.sum() np.zeros_like() numerical differentiation numerical_gradient() N次元配列 one-hot表現 optimizer OrderedDict ORgate overfitting padding pickle PIL plt.plot() plt.show() plt.title() plt.xlabel() plt.ylabel() R-CNN range() relu() ReLU関数 reshape() ResNet RMSProp RNN SegNet SGD SIFT sigmoid() SimpleConvNet softmax() Softmax-widh-Loss step_function() stochastic gradient descent stride SURF SVM tanh関数 TensorFlow transpose TwoLayerNet VGG Weight decay Xavierの初期値 XOR gate y.astype()