分享

Tensor 张量的维数 shape

 雪柳花明 2017-03-15

TensorFlow用张量这种数据结构来表示所有的数据。你可以把一个张量想象成一个n维的数组或列表。一个张量有一个静态类型和动态类型的维数。张量可以在图中的节点之间流通。

在TensorFlow系统中,张量的维数来被描述为阶。但是张量的阶和矩阵的阶并不是同一个概念。张量的阶(有时是关于顺序或度数或者是n维)是张量维数的一个数量描述。比如,下面的张量就是2阶。

[python] view plain copy
在CODE上查看代码片派生到我的代码片
  1. #!/usr/bin/env python  
  2. # coding=utf-8  
  3.   
  4. import tensorflow as tf  
  5.   
  6. t=tf.constant([[1,2,3],[4,5,6],[7,8,9]])  
  7. print t  
  8. print t.get_shape()  


你可以认为一个二阶张量就是我们平常所说的矩阵,一阶张量可以认为是一个向量。对于一个二阶张量你可以用语句t[i,j] 来访问其中的任何元素。而对于三阶张量你可以用t[i,j,k]来访问其中的任何元素。

注意:矩阵的阶表示矩阵大小,比如n阶矩阵就是n*n的矩阵;而张量的阶其实是维数的意思。


tf.Tensor.get_shape()

返回一个tensor的shape。不需要启动Session,就可以返回tensor的shape信息。这可以帮助我们调试,提早发现错误信息。

[python] view plain copy
在CODE上查看代码片派生到我的代码片
  1. #!/usr/bin/env python  
[python] view plain copy
在CODE上查看代码片派生到我的代码片
  1. # coding=utf-8  
  2.   
  3. import tensorflow as tf  
  4.   
  5. c=tf.constant([[1.0,2.0,3.0],[4.0,5.0,6.0]])  
  6. print c.get_shape()  
  7. d=tf.constant([[1.0,0.0], [0.0,1.0], [1.0,0.0], [0.0,1.0]])  
  8. print d.get_shape()  
  9.   
  10. e=tf.matmul(c,d,transpose_a=True, transpose_b=True)  
  11. print e.get_shape()  


tf.reduce_sum(input_tensor, reduction_indices=None, keep_dims=False, name=None)

根据tensor的维度计算元素的和。

[python] view plain copy
在CODE上查看代码片派生到我的代码片
  1. #!/usr/bin/env python  
  2. # coding=utf-8  
  3.   
  4. import tensorflow as tf  
  5.   
  6. x=tf.constant([[1,1,1],[1,1,1]])  
  7. sum_all=tf.reduce_sum(x)  
  8. sum_0=tf.reduce_sum(x,0)  
  9. sum_1=tf.reduce_sum(x,1)  
  10. sum_dims=tf.reduce_sum(x,1,keep_dims=True)  
  11. sum_0_1=tf.reduce_sum(x,[0,1])  
  12. sess=tf.Session()  
  13. print sess.run([sum_all,sum_0,sum_1,sum_dims,sum_0_1])  
  14. sess.close()  



tf.reduce_mean(input_tensor, reduction_indices=None, keep_dims=False, name=None)

根据tensor的维度计算元素的均值

[python] view plain copy
在CODE上查看代码片派生到我的代码片
  1. #!/usr/bin/env python  
  2. # coding=utf-8  
  3.   
  4. import tensorflow as tf  
  5.   
  6. x=tf.constant([[1.,1.],[2.,2.]])  
  7. mean_all=tf.reduce_mean(x)  
  8. mean_0=tf.reduce_mean(x,0)  
  9. mean_1=tf.reduce_mean(x,1)  
  10.   
  11. sess=tf.Session()  
  12. print sess.run([mean_all,mean_0,mean_1])  
  13. sess.close()  

























    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多