TensorFlow-谷歌深度学习库 体验一二三

小说:开户送彩金28元娱乐城作者:辛纯乙秉更新时间:2018-10-19字数:89749

那两个司机急忙将这些尸体给搬到外面去了。他们在那里发动汽车,可是由于他们心中极为的害怕,一连发动了几次都发动不起来。

线上娱乐注册送体验

悟空道:“法身又怎样,一人只有一念,若再造出一个来……咦,师父,九天玄女既已化成毗蓝婆菩萨,为何又造嫦娥出来?”
“呵呵!”刘皓直直冲到另一个沙之逆罚面前却被一把巨大的土矛个刺穿了,只可惜刺穿的是一个残影留下的只有一声冷笑。

含光门的撞击声并没有传到大明宫,李亨是被一阵急促的拍门声惊醒,有宦官惊惶禀报道:“陛下,出事了”

一个TensorFlow的运算可以看作是一个数据流图。

一个呢则由一组操作和数据集组成。

  1. 操作(operation)代表运算单元
  2. 数据(tensor) 代表在各运算单元流动的数据单元

要想使用一个数据流图,必须把它注册为默认的图。

注意:图这个class并不是线程安全的,它所有的方法也不是。

将一个图设为默认的图的方法:

g = tf.Graph()
with g.as_default(): # 将图设为默认
    # define operations and tensors in g
    c = tf.constant(30.0)

as_default(self)

返回一个将Graph设为默认的context manager。如果你想要在一个进程中创建多个图考虑使用。如果你不显示调用,一个全局默认图将被提供。

默认图所属当前线程,如果你创建了一个新的线程,你必须在那个线程中显示调用as_default方法。

 

创建常量tensor

constant(value, dtype=None, shape=None, name="Const", verify_shape=False)

"""

Args:
value: A constant value (or list) of output type `dtype`.

dtype: The type of the elements of the resulting tensor.

shape: Optional dimensions of resulting tensor.

name: Optional name for the tensor.

verify_shape: Boolean that enables verification of a shape of values.

Returns:
A Constant Tensor.

Raises:
TypeError: if shape is incorrectly specified or unsupported.

"""

传入value创建常量tensor。value可以是一个常量值或常量列表。 参数shape是可选的,如果不提供默认为传入value的shape。

同理,dtype也是可选的,不提供则默认为传入value的dtype。

```python
# Constant 1-D Tensor populated with value list.
tensor = tf.constant([1, 2, 3, 4, 5, 6, 7]) => [1 2 3 4 5 6 7]

# Constant 2-D tensor populated with scalar value -1.
tensor = tf.constant(-1.0, shape=[2, 3]) => [[-1. -1. -1.]
[-1. -1. -1.]]
```
创建变量tensor

  w = tf.Variable(<initial-value>, name=<optional-name>)

一个变量维持图的状态。 变量在定义的时候要声明它的类型和shape, 在创建之后虽然值是可以改变的, 但类型和shape是固定的。

和其他tensor一样,被创建的变量可以被图中的操作当作输入使用。

当你启用已经定义好的图时,所有变量必须显示的被初始化,之后你才可以运行操作使用他们的值。你也可以从文件中读取完成初始化步骤。

创建placeholder

placeholder(dtype, shape=None, name=None)

给一个tensor插入placeholder,并且会在之后补充进去。

通过`Session.run()`的备选参数`feed_dict` 将之前的placeholder的值补进去, 如果你没有喂进任何数据就运行会话对象将报错。

 
    ```python
    x = tf.placeholder(tf.float32, shape=(1024, 1024))
    y = tf.matmul(x, x)
    
    with tf.Session() as sess:
      print(sess.run(y))  # ERROR: will fail because x was not fed.
    
      rand_array = np.random.rand(1024, 1024)
      print(sess.run(y, feed_dict={x: rand_array}))  # Will succeed.
    ```

 

计算logits tensor

logits = tf.matmul(tf_train_dataset, weights) + biases

计算softmax cross entropy,loss tensor

loss = tf.reduce_mean(
     tf.nn.softmax_cross_entropy_with_logits(labels=tf_train_labels, logits=logits))

 

softmax_cross_entropy_with_logits_v2(_sentinel=None, labels=None, logits=None, dim=-1, name=None)

Args:
_sentinel: Used to prevent positional parameters. Internal, do not use.
labels: Each row `labels[i]` must be a valid probability distribution.
logits: Unscaled log probabilities.
dim: The class dimension. Defaulted to -1 which is the last dimension.
name: A name for the operation (optional).

Returns:
A 1-D `Tensor` of length `batch_size` of the same type as `logits` with the
softmax cross entropy loss.

计算probability errors。 对于每一个想要预测的内容, 它必须有且只有一个标签。

参数为logits和labels,这个函数内部会自动处理soft max。

softmax: 将score转化成probability

def softmax(x):
    """Compute softmax values for each sets of scores in x."""
    return np.exp(x) / np.sum(np.exp(x), axis = 0)

one-hot-encoding: 正确的label标为1,其他均为0. 比如有a,b,c三个label,a为正确的label标为1,b和c标为0

cross-entropy(用来衡量performance): 

计算所有样本的综合loss:

优化处理Optimizer: Gradient Descent Optimizer, 定义operation

使用梯度下降法找到最小的loss。 这个operation会更新涉及到的tensor的值。

class GradientDescentOptimizer(tensorflow.python.training.optimizer.Optimizer)
 __init__(self, learning_rate, use_locking=False, name="GradientDescent")
 Construct a new gradient descent optimizer. 
 Args:
 learning_rate: A Tensor or a floating point value.  The learning rate to use.
minimize(self, loss, global_step=None, var_list=None, gate_gradients=1, aggregation_method=None, colocate_gradients_with_ops=False, name=None, grad_loss=None) Add operations to minimize `loss` by updating `var_list`. This method simply combines calls `compute_gradients()` and `apply_gradients()`.
If you want to process the gradient before applying them call `compute_gradients()` and `apply_gradients()` explicitly instead of using this function. Args: loss: A `Tensor` containing the value to minimize. global_step: Optional `Variable` to increment by one after the variables have been updated. Returns: An Operation that updates the variables in `var_list`. If `global_step` was not `None`, that operation also increments `global_step`. Raises: ValueError: If some of the variables are not `Variable` objects.

什么是梯度下降?

误差方程 (Cost Function). 用来计算预测出来的和我们实际中的值有多大差别. 在预测数值的问题中. W是我们神经网络中的参数, 假设我们初始化的 W 在一个位置. 而这个位置的斜率也就是梯度下降中的梯度. loss误差最小的时候正是这条曲线最低的地方, 不过 W 却不知道这件事情, 他目前所知道的就是梯度线为自己在这个位置指出的一个下降方向, 我们就要朝着这个梯度的方向下降一点点. 在做一条切线, 发现我还能下降, 那我就朝着梯度的方向继续下降, 这时, 再展示出现在的梯度, 因为梯度线已经躺平了, 我们已经指不出哪边是下降的方向了, 所以这时我们就找到了 W 参数的最理想值. 简而言之, 就是找到梯度线躺平的点

Session(会话)

用来运行tensorflow operation的类

会话对象封装了一个供ops类执行并且可以评估tensor的环境。

会话类会拥有自己的资源,为确保在使用后这些资源被释放,可以使用context manager

 # Using the context manager.
 with tf.Session() as sess:
     sess.run(...)

在初始化创建一个会话对象的时候,如果没有指明图那么一个默认的图会被启用。如果你拥有多个图,那么你需要为每一个图初始化一个会话对象。

 

在会话类中,首先要初始化所有变量。使用global_variables_initializer()返回一个op并运行来初始化。

global_variables_initializer()
Returns an Op that initializes global variables.
Returns:
An Op that initializes global variables in the graph.

 

编辑:安开道马

发布:2018-10-19 06:14:39

当前文章:http://www.leetaemin.cn/bu8rq/43933.html

注册送20元体验金电玩 旋乐吧注册送100元体验金 不限ip开户即送74元彩金可提现 自动送彩金娱乐平台 线上娱乐自动送59元现金可提现 开户即送69元现金 不限ip开户即送56元现金 旋乐吧开户送74元现金

88782 40909 20749 31083 22592 7968921354 33123 22131

我要说两句: (0人参与)

发布