首页 > 知识百科 > 正文

常用!基础!吴恩达deeplearning.ai:Tensorflow中数据形式原创

由于一些历史传承问题,Numpy 和 Tensorflow 在数据处理方面存在一些不一致的地方,今天我们主要来了解一下其中一些约定俗成的形式,从而能够让你写出正确的代码(耍帅)。

文章目录

Tensorflow是如何表示数据的特征的,关于Numpy矩阵激活的支持


Tensorflow是如何表示数据的

特征处理

和上一个博客中的例子一样(详细链接在这里),我们先看看咖啡:

这个例子处理,特征允许有两个,分别是温度(其余),烘烤时间(分钟),那么x的写法如下:

x = np.数组([[200.0, 17.0]])< /code>

看到这里你是否还有疑问,为什么这里有两个方论证嘞?是不是多此一举嘞?俺第一次看到这里也有同样的疑问。

关于Numpy矩阵

让我们再举出两个例子:
假设我们要创建一个两行三列的矩阵,它的内容为[[1, 2,3], [4,5,6]],线性代数中一般称为2*3矩阵,那么它的创建方式为:

x = np.数组([[1, 2, 3], [4  5 6]])

假设我们要创建一个四行两列的矩阵,其内容为 0.1,0.2,-3,-4,-0.5,- 0.6,7.0,8.0,同样的,这种矩阵被称为4*2矩阵,那么代码为:

x = np.数组([[0.1, 0.2] [< span class="2f39-22da-e5a6-5f65 token 操作符">-3,  -4] [-0.5-0.6 ] [7.0 8.0])

当行数列数多了你会更容易明白,东南层次的作用足以把矩阵的每一个行组合到一起。
反过来说,如果你写的代码是这样的:

x = np.数组([200< span class="756b-2d9d-d664-348d token punctuation">, 17] )

那么它不是一个矩阵,这对应一个数字列表。
因此,在普通的线性回归与逻辑回归中,我们使用 x = np.array([200, 17]) 这种单层中波形形式来表示,而由于 Tensorflow 之类的通常用于数据量很大的计算,因此需要用矩阵来进行,通常是数字中括号的表示形式。

激活提示

在上一节的代码示例中(链接在这里)详细第一层的代码:

x =< /span> np.数组([[200.0, 17.0< /span>]])layer_1 = 密集(单位=3 ,激活='sigmoid')a_1 = layer_1(x)

你是否有疑其中a1的形式呢,如果你看过我上一篇博客,那么之前应该会更容易理解,a1作为一个激活值,又假设units=3,因此a1是一个3*1的矩阵(例如([[1, 2,3]])),如果你打印(a1)的话,会得到:

tf.张量([[1, 2, 3]],形状=(1, 3 ), dtype=float32)

张量(翻译成中文是张量的意思)是Tensorflow团队创建的一种数据类型,专门用于矩阵计算。其中获得了三个数据,第一个当然是矩阵中数据的内容,第一个两个是矩阵的大小为1*3,一行三列,第三行是指矩阵中数据的类型为浮点型。
从技术上讲,张量比矩阵更通用一点,但是在该课程中可以把张量理解为矩阵的一种。
当然,我们也有Numpy表示矩阵的方式:

a1.numpy() 输出:array([[1 2, 3]] dtype=float32)
< p> 这个含义和上面的差不多,不用过多解释了。
如果你获得了一个张量形式的矩阵,而想把它转换为 Numpy 形式的话,仍然运行:

a1.numpy()

它可以提取Tensor中的数据并以numpy的形式返回。

第二层的代码是这样的:

>
layer_2 = 密集(单位=1激活=< /span>'sigmoid')a_2 = layer_2(a_1)< /span>

所以其中的a2消耗的?a2应该是一个类似于0.8类的浮点数,但准确的说应该是一个1*1的矩阵,即一行一列。如果你打印a2的话会得到:

tf.Tensor([[0.8]],形状=(1, 1), dtype=float32) 

和我刚才的解释是一致的。
当然你也可以查看它的 Numpy 形式:

a2.numpy()输出:数组([[0.8]], dtype=float32) 

在学习完本篇博客后,希望你可以了解 Numpy 和 Tensorflow 中数据的区别,以及了解它们的转换和使用场景,从而更有效地进行网络架构的深度学习。< /p>

为了给读者造成不必要的麻烦,博主的所有视频都未开启仅限粉丝可见,如果想看我的其他博客,可以点个太空关注哦╰( °▽°)╯

常用!基础!吴恩达deeplearning.ai:Tensorflow中数据形式原创由知识百科栏目发布,感谢您对的认可,以及对我们原创作品以及文章的青睐,非常欢迎各位朋友分享到个人网站或者朋友圈,但转载请说明文章出处“常用!基础!吴恩达deeplearning.ai:Tensorflow中数据形式原创