跳转至

Basics of Nerual Network Programming👀

约 441 个字 预计阅读时间 1 分钟

Binary Classification👀

本节以 logistic 回归(一个用于二分分类的算法)来阐述,以求更好地理解

比如对于一张图片的识别,输入是图片,输出是是否是猫(1 表示是“猫”)

图片在计算机中的表示方法
  • 计算机要保存一张图片,要保存三个独立矩阵,分别对应图片中的红、绿、蓝三个颜色通道。
  • 那么如果输入图片是 64 ✖️ 64 像素的,那么就有三个 64 ✖️ 64 的矩阵,矩阵中的值分别代表对应颜色的亮度(即 pixel intensity value)
    • 要把这些像素亮度值放进一个特征向量中,就是把这些像素值全部提出来,放进一个特征向量 \(x\) 。方法如下:
      • 定义一个特征向量 \(x\) 来表示这张图片,依次列红、绿、蓝的每个像素值得到一个很长的特征向量
      • 如果图片是 64 ✖️ 64 的,那么向量 \(x\) 的总维度是 64 * 64 * 3 = 12288
      • \(n_x\) (or \(n\)) = 12288 来表示输入的特征向量的维度
  • 在二分分类问题中,目标是训练处一个分类器(classfier),它以图片的特征向量 \(x\) 作为输入,预测输出的结果标签 \(y\)(0 or 1)

Notation

  1. 用一对 \((x, ~ y)\) 来表示一个单独的样本
    • \(x \in \mathbb{R} ^{n_x}, y \in {0, 1}\) ( \(n_x\) 表示特征向量的维度)
  2. \(m\) 个训练样本(training example):\({(x^{(1)}, ~ y^{1}), (x^{(2)}, ~ y^{2}), \dots , (x^{(m)}, ~ y^{m})}\)
    • \((x^{(i)}, ~ y^{i})\) 表示样本 i, \(m\) 表示训练集中样本的个数,有时候为了更直白使用 \(m_{train}\)
    • 当说到测试集时,常用 \(m_{text}\) 表示测试集的样本数

Logistic Regression👀