×
TensorFlow 教程TensorFlow 简介TensorFlow 安装人工智能简介TensorFlow 数学基础机器学习和深度学习TensorFlow 基础TensorFlow 卷积神经网络TensorFlow 递归神经网络TensorBoard 可视化TensorFlow 单词嵌入TensorFlow 单层感知TensorFlow 线性回归TFLearn 安装和使用TensorFlow CNN和RNN区别TensorFlow KerasTensorFlow 分布式计算TensorFlow 导出TensorFlow 多层感知器学习TensorFlow 感知器隐藏层TensorFlow 优化器TensorFlow XOR实现TensorFlow 梯度下降优化TensorFlow 成型图表TensorFlow 识别图像神经网络训练的建议

TensorFlow优化器


优化器是扩展类,其中包括用于训练特定模型的附加信息。优化器类使用给定的参数进行初始化,但重要的是要记住不需要Tensor。优化器用于提高训练特定模型的速度和性能。

TensorFlow的基本优化器是 -

tf.train.Optimizer

此类在tensorflow/python/training/optimizer.py 路径中定义。

以下是Tensorflow中的一些优化器 -

  • 随机梯度下降
  • 随机梯度下降与梯度剪裁
  • 动量
  • Nesterov动量
  • Adagrad
  • Adadelta
  • RMSProp
  • Adam
  • Adamax
  • SMORMS3

这里我们将专注于介绍随机梯度下降,下面是创建优化器的代码 -

def sgd(cost, params, lr = np.float32(0.01)):
   g_params = tf.gradients(cost, params)
   updates = []

   for param, g_param in zip(params, g_params):
      updates.append(param.assign(param - lr*g_param))
   return updates

基本参数在特定功能中定义。在随后的章节中,将重点介绍梯度下降优化以及优化器的实现。


分类导航

关注微信下载离线手册

bootwiki移动版 bootwiki
(群号:472910771)