当前位置: 首页 > news >正文

韶关做网站seo推广公司

韶关做网站,seo推广公司,中文域名价格,插画原画十大培训机构一个图(Graph)代表一个计算任务,且在模型运行时,需要把图放入会话(session)里被启动。一旦模型开始运行,图就无法修改了。TensorFlow把这种图一般称为静态图。 动态图是指在Python中代码被调用后,其操作立即被执行的计算。 它与静态图最大的区别是不需要使用session来建立会话…

一个图(Graph)代表一个计算任务,且在模型运行时,需要把图放入会话(session)里被启动。一旦模型开始运行,图就无法修改了。TensorFlow把这种图一般称为静态图。

动态图是指在Python中代码被调用后,其操作立即被执行的计算。

它与静态图最大的区别是不需要使用session来建立会话。即在静态图中,需要在会话中调用run方法才可以获得某个张量、常量或变量的具体值,而在动态图里,在创建动态图的过程中,默认已经建立了一个session。所有的代码都在该session中进行,而且该session具有进程相同的生命周期。

使用动态图时,直接运行就可以计算得到 它们的具体值,甚至还可以和numpy数组混合计算。它使得TensorFlow的学习变得更简单,也使研发更直观。

Eager Execution是一种命令式编程环境,运行后返回具体的值。一般更多用于研究和实验。它的优点有:

        ①直观的界面,可以自然地组织代码结构并使用Python数据结构。快速迭代小模型和小型数据集

        ②更轻松的调试功能,直接调用操作以检查正在运行的模型并测试更改。使用标准Python调试工具可以进行即时错误报告

        ③自然控制流程。使用Python控制流程而不是图控制流程,简化了动态模型的规范

        ④适用于几乎所有可用的TensorFlow运算

        ⑤它还可以在GPU上运行,提高神经网络的训练速度

激活Eager模式

        激活Eager模式的代码如下:

import tensorflow as tf
tf.enable_eager_execution()

        如果程序的后面需要优化器,也可以在这里先定义:

tfe = tf.contrib.eager

        注意:Eager模式在程序开始就要激活,并且不能与普通模式混用。一旦开启Eager模式便不能撤销,不能实现静态图中关闭session的功能,且只执行一次,无法实现多session操作。这也是动态图的不足之处。如果当前代码只需要一个session来完成的话,可以优先选择动态图Eager来实现。

使用Eager模式

示例代码如下:

import tensorflow.compat.v1 as tf
tf.disable_v2_behavior()
tf.enable_eager_execution()import numpy as npa = tf.constant([[1,2],[3,4]])
print("a = ",a)b = tf.Variable(np.zeros((2,2)))
print("\n b = ",b)c = [[2.]]
m = tf.matmul(c,c)
print("hello,{}".format(m))


可以看到在Eager执行下,a和b操作后的返回值是tf.Tensor,其包含了具体值。不再像Graph模式下那样只是一个计算图节点的符号句柄。由于Eager模式可以立即看到结果,非常有助于程序debug。

Eager模式下的基本运算

        TensorFlow提供了丰富的操作库,如tf.add,tf.matmul,tf.square等,使用它们生成的结果都是张量Tensor。在Eager模式下,可以直接使用这些操作输出运算结果。

示例代码如下:

import tensorflow.compat.v1 as tf
tf.disable_v2_behavior()
tf.enable_eager_execution()print(tf.add(1,2))
print(tf.square(8))
print(tf.reduce_sum([1,2,3]))
print(tf.square(2) + tf.square(3))

动态控制流

        在Eager模式下,TensorFlow也可以像Python定义函数一样,自定义函数,实现动态控制流。

示例代码如下:

import tensorflow.compat.v1 as tf
tf.disable_v2_behavior()
tf.enable_eager_execution()def function(num):counter = tf.constant(0)num = tf.convert_to_tensor(num)for num in range(1,num.numpy() + 2):num = tf.constant(num)if int(num % 2) == 0 and int(num % 4) == 0:print("good")elif int(num % 2) == 0:print("hi")elif int(num % 4) == 0:print("hello")else:print(num.numpy())counter += 1function(16)

        在实际的编程过程中,为了提高效率,也可以在Eager模式下训练模型。

示例代码如下:

import tensorflow as tf
tf.compat.v1.enable_eager_execution()#创建训练数据
Num_Test = 1000
train_X = tf.compat.v1.random_normal([Num_Test])
train_Y = train_X * 5 +2#搭建正向模型
#定义运算结构
def prediction(input,weight,bias):return input * weight + bias#搭建反向模型
def loss(weights,biases):error = prediction(train_X,weights,biases) - train_Yreturn tf.reduce_mean(tf.square(error))def grad(weights,biases):#前向计算,得到loss,同时将操作记录到tape上,用于计算梯度with tf.GradientTape() as tape:loss_value = loss(weights,biases)#反向播放tape,得到梯度return tape.gradient(loss_value,[weights,biases])#定义迭代参数和学习率
train_steps = 200
learning_rate = 0.01#定义学习参数的变量
W = tf.Variable(5.)
B = tf.Variable(10.)print("Initial loss:{:.3f}".format(loss(W,B)))#训练模型
for i in range(train_steps):dW,dB = grad(W,B)W.assign_sub(dW * learning_rate)B.assign_sub(dB * learning_rate)if i % 20 == 0:print("Loss at step {:03d}:{:.3f}".format(i,loss(W,B)))print("Final loss:{:.3f}".format(loss(W,B)))
print("W = {},B = {}".format(W.numpy(),B.numpy()))

http://www.mnyf.cn/news/48163.html

相关文章:

  • 制作网站的商家湖南网站建设推广
  • 包头正大光电 做网站网络销售怎么做才能做好
  • 做景观设计比赛的网站哪里可以引流到精准客户呢
  • 网站建设实训个人总结1000字seo关键词优化软件合作
  • 专业做网站联系方式seo服务收费
  • 想开个小说网站怎么做百度知道首页
  • 手机网站 兼容最新新闻事件今天
  • 设备管理系统下载镇江百度关键词优化
  • 注册360建筑网平台seo最新
  • 建设淘宝网站的意义搜索引擎seo关键词优化效果
  • 网站添加客服怎么做长沙市网站制作
  • 宁波 网站建设电商具体是做什么的
  • 骨干专业建设验收网站百度网站站长工具
  • 上海英文网站建设公司如何软件网站优化公司
  • 网站建设7关键词搜索广告
  • 网站做反向代理后样式加载错误爱站网官网查询域名
  • 重庆包装设计公司网站seo入门基础教程
  • 怎么做有趣的微视频网站优化seo是什么
  • 网站的竞价怎么做公司推广渠道有哪些
  • 门头设计菏泽seo
  • 永年网站制作seo北京网站推广
  • wordpress站下所有标签东莞日增感染人数超25万
  • 做网站聚合做权重难吗杭州网站优化培训
  • 黑龙江省瑞驰建设集团网站网站搭建软件
  • 网站建设流程图在线制作舆情分析报告范文
  • 建站平台 phpwind百度网站排名查询
  • 网站后台更新内容后精准客户信息一条多少钱
  • 跳转链接生成器网站seo优化建议
  • 五八同城客服网站怎么做餐饮管理和营销方案
  • 汉阳网站建设公司做网站