神经网络可以理解为试图模仿人脑工作的隐藏层,输入层和输出层的网络。
隐藏的层可以可视化为输入数据本身的抽象表示。这些层借助其自身的内部逻辑帮助神经网络理解数据的各种特征。
这些神经网络是不可解释的模型。不可解释的模型是即使我们观察到隐藏层也无法解释或理解的模型。这是因为神经网络具有内部工作的逻辑,这是我们无法理解的。
然后我们可以看到它是数值的向量。由于神经网络的输出是数值向量,因此我们需要有一个显式的输出层,以弥合实际数据与网络对数据表示之间的差距。
输出层可以理解为转换器,可以帮助我们理解网络的逻辑并转换目标值。
名为“通用逼近定理”的定理表明,包含一个隐藏层的前馈网络可用于表示任何函数。
这意味着包含一个隐藏层的神经网络的功能不受限制。但是在现实生活中,不能很好地使用具有一个隐藏层的神经网络。
神经网络是有助于处理信息的数学模型。它不是一组代码行,而是有助于处理输入/信息并给出结果的模型或系统。
信息以最简单的形式处理被称为“神经元”的基本元素。神经元已连接,并借助连接链接帮助它们之间交换信号/信息。
神经元之间的此连接链接可能很强,也可能很弱,并且这些连接链接的强度决定了处理信息的方法。
每个神经元都有一个内部状态,可以通过其他神经元的传入连接来确定。
每个神经元都有一个根据其状态计算的激活函数,这有助于确定其输出信号。
神经网络可以理解为数学运算的计算图。
神经网络的两个主要特征-
建模
学习
它说明了连接类型:是前馈,循环,多层,卷积还是单层。它还说明了层数以及每一层中的神经元数。
它讲述了训练神经网络的方法。训练神经网络的常用方法是使用梯度下降和反向传播。