Processing math: 100%

模型表示实例 I

  • 神经网络的样例与直观理解
  • 单层神经元表示逻辑运算: 逻辑与(AND)、逻辑或(OR)

神经网络的直观理解

从本质上讲,神经网络能够通过学习得出其自身的一系列特征。

在普通的逻辑回归中,我们被限制为使用数据中的原始特征x0,x1,x2,x3我们虽然可以使用一些二项式项来组合这些特征,但是我们仍然受到这些原始特征的限制。

在神经网络中,原始特征只是输入层,在我们上面三层的神经网络例子中,第三层也就是输出层做出的预测利用的是第二层的特征,而非输入层中的原始特征,我们可以认为第二层中的特征是神经网络通过学习后自己得出的一系列用于预测输出变量的新特征。

神经网络中,单层神经元(无中间层)的计算可用来表示逻辑运算,比如逻辑与(AND)、逻辑或(OR)。

逻辑与(AND)

我们可以用这样的一个神经网络表示 AND 函数: 假设输入x1,x20

其中 θ0=30, θ1=20, θ2=20 输出函数 hθ(x)即为:hθ(x)=g(30+20x1+20x2)

g(x)的图像是:

那么,x1,x2一共四种可能取值,得到的结果分别如下:

所以我们的: hθ(x)x1ANDx2

逻辑或(OR) 与 AND 整体一样,区别只在于权值的取值不同。

牛刀小试

我们来实现一个单层网络(感知机).

# todo 实现与网络

import numpy as np

def sigmoid(x):
    return 1/(1+np.exp(-x))

class Net():
    def __init__(self,theta):
        self.theta=theta
    def run(self,X):   
        output = sigmoid(np.matmul(self.theta,X))
        return output

net = Net(np.array([[-30,20,20]]))
    

Start interactive mode