博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
神经网络的训练的大致流程
阅读量:6239 次
发布时间:2019-06-22

本文共 849 字,大约阅读时间需要 2 分钟。

batch_size = n# 每次读取一小部分数据作为当前的训练数据来执行反向传播算法x = tf.placeholder(tf.float32, shape=(batch_size, feature_num), name="x-input")y_= tf.placeholder(tf.float32, shape=(batch_size, 1), name='y-input')# 定义神经网络结构和优化算法loss = ...# loss = -tf.reduce_mean(y_ * tf.log(tf.clip_by_value(y, 1e-10, 1.0)))    ## cross_entropy(交叉熵)learning_rate = 0.001#定义反向传播算法 train_step = tf.train.AdamOptimizer(learning_rate).minimize(loss)  # 优化算法# 训练神经网络with tf.Session() as sess:    # 参数初始化    init_op = tf.global_variables_initializer()    sess.run(init_op)        ...        # 训练模型。    STEPS = ...    # 迭代的更新参数    for i in range(STEPS):        # 准备batch_size个训练数据。一般将所有训练数据打乱之后再选取可以得到更好的优化效果。        current_X, current_Y = ...        # 对`tf.GraphKeys.TRAINABLE_VARIABLES`集合中的变量进行优化,使得当前batch下损失最小        sess.run(train_step, feed_dict = {x : current_X, y : current_Y})
探寻有趣之事!

转载地址:http://vckia.baihongyu.com/

你可能感兴趣的文章
linux性能剖析工具
查看>>
flutter中的异步
查看>>
计算机高手也不能编出俄罗斯方块——计算机达人成长之路(16)
查看>>
error LNK2001: 无法解析的外部符号 __CrtDbgReport
查看>>
【多线程】的简单理解&进程 and【你的电脑是几核的?】
查看>>
# 2017-2018-1 20155224 《信息安全系统设计基础》第七周学习总结
查看>>
scikit-learn预处理实例之一:使用FunctionTransformer选择列
查看>>
【距离GDOI:137天】 扩展KMP...字符串QAQ
查看>>
Oracle 10g 下载地址
查看>>
c# Unity依赖注入WebService
查看>>
邮件客户端导入邮件通讯录地址薄
查看>>
java中异常抛出后代码还会继续执行吗
查看>>
oracle 学习摘记
查看>>
IOS代码布局(一) UIView
查看>>
如何解决开机出现Missing operating system的故障
查看>>
Android AudioPolicyService服务启动过程
查看>>
SVG的a链接
查看>>
MSSQL查找前一天,前一月,前一年的数据,对比当前时间记录查找超过一年,一月,一天的数据...
查看>>
基于三星I9250演示自己弄的Miracast功能-手机对手机
查看>>
【转】MOCK测试
查看>>