解释逻辑回归函数如何与Tensorflow一起使用?

Tensorflow是Google提供的一种机器学习框架。它是一个开放源代码框架,与Python结合使用以实现算法,深度学习应用程序等等。它用于研究和生产目的。它具有优化技术,可帮助快速执行复杂的数学运算。

可以使用下面的代码行在Windows上安装'tensorflow'软件包-

pip install tensorflow

Tensor是TensorFlow中使用的数据结构。它有助于连接流程图中的边缘。该流程图称为“数据流程图”。张量不过是多维数组或列表。可以使用三个主要属性来标识它们:

等级-讲述张量的维数。可以理解为张量的顺序或已定义的张量中的维数。

类型-它告诉与张量元素关联的数据类型。它可以是一维,二维或n维张量。

形状-它是行和列的总数。

我们正在使用Google合作实验室来运行以下代码。Google Colab或Colaboratory可以帮助通过浏览器运行Python代码,并且需要零配置和对GPU(图形处理单元)的免费访问。合作已建立在Jupyter Notebook的基础上。

以下是一个例子-

示例

def logistic_reg(x):
   return tf.nn.softmax(tf.matmul(x, A) + b)
def cross_entropy(y_pred, y_true):
   y_true = tf.one_hot(y_true, depth=num_classes)
   y_pred = tf.clip_by_value(y_pred, 1e-9, 1.)
   return tf.reduce_mean(-tf.reduce_sum(y_true * tf.math.log(y_pred),1))
def accuracy_val(y_pred, y_true):
   correct_prediction = tf.equal(tf.argmax(y_pred, 1), tf.cast(y_true, tf.int64))
   return tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
optimizer = tf.optimizers.SGD(learning_rate)
def run_optimization(x, y):
   with tf.GradientTape() as g:
      pred = logistic_reg(x)
      loss = cross_entropy(pred, y)
   gradients = g.gradient(loss, [A, b])
   optimizer.apply_gradients(zip(gradients, [A, b]))

代码信用-https://github.com/aymericdamien/TensorFlow-Examples/blob/master/tensorflow_v2/notebooks/2_BasicModels/logistic_regression.ipynb

输出结果

Once the functions are called, the optimization process begins.
Here, we are using the stochastic gradient descent optimizer.
This means, the optimal values for the ‘weight’ and ‘bias’ are tried to be computed.
Once these gradients are computed, the ‘weight’ and ‘bias’ values are updated.

解释

  • 定义了一个名为“ logistic_reg”的函数,该函数给出输入数据的softmax值。

  • 它对logit进行归一化以包含概率分布。

  • 定义了交叉熵损失函数,该函数将标签编码为一个热向量。

  • 格式化预测值以减少log错误。

  • 需要计算精度度量,因此定义了一个函数。

  • 定义了随机梯度下降优化器。

  • 定义了一个优化功能,该功能可以计算梯度并更新权重和偏差的值。

猜你喜欢