LED半导体照明网讯 “智能照明当下很火,未来市场很大”。这是大家在热聊的话题。照明人如何来讲好智能照明?我觉得应该先讲“智能”,以后再来讲“智能”之应用——智能照明。
维基百科关于“智能”是这样定义的:智能是指生物一般性的精神能力。这个能力包括以下几点:理解、计划、解决问题,抽象思维,表达意念以及语言和学习的能力。当然这里不是讨论生物体本身的智能,而是“人工智能”,是指由人工制造出来的系统所表现出来的智能。
既然要机器模仿人的智能,就要从人产生智能根源的神经细胞说起。神经细胞结构大致可分为:树突、突触、细胞体及轴突。单个神经细胞可被视为一种只有两种状态的机器——激动时为‘是’,而未激动时为‘否’。
Frank Rosenblatt在1957年发明了感知机,它正是此种生物神经细胞的简单抽象。Frank的伟大可想而知,他把人工智能的大门打开,让后人有机会进去探索。感知机究竟是什么鬼?感知机是使用特征向量来表示的前馈神经网络,它是一种二元分类器,把矩阵上的输入x(实数值向量)映射到输出值y上。x的取值范围可以是负无穷到正无穷。
输出y如果要来表达“是” “否”两种状态,那么需要有一个映射关系,叫“logistic回归”:
画成图来理解就更直观:
这里
很明显,我们把横轴的值映射到了纵轴0~1的范围。只要k值足够大,y值为1;k值足够小,y值为0,以此来表达“是”和“否”两种状态。
Logistic回归的本质就是要学习得到恰当的θ值,使得y的输出只有0和1两种状态,这就使神经细胞“是”“否”两种状态得到抽象的表达。
为了计算机便于处理,我们希望两种状态用“-1”和“1”来表达:
抽象化完成后,接下来就要看下感知机的结构:
假设有n维输入的单个感知机(如上图所示),a1至an为n维输入向量的各个分量,ω1至ωn为各个输入分量链接到感知机的权重,b为偏置,f(·)为激活函数,t为标量输出。t的数学描述为:
感知器的学习就是通过对所有训练实例输入进行多次的迭代进行更新的方式来建模。假如存在一个正的几何间隔δ和权重向量ω,对训练集所有输入都满足:
此训练集就被叫做线性分隔的。
反过来,如果训练集是线性可分的,那么感知机能否在有限次的迭代后收敛,也就是找到分隔平面,能将训练集以“-1”和“1”分隔开?形象一点,如下图所示:
这里迭代的次数我们也叫误分次数k;为了方便分析,令偏置b=0, ω的范2数║ω║=1;输入向量的最大平均值R≥║xi║。误分权重向量会在每次训练出现误差后更新:
因为有:
代入上式,可得到新的迭代形式:
继续迭代到最后:
范2数的叉乘会大于它们的内积,又可以进一步化简为:
为了把R也拉进来做文章,需要对k+1的迭代权重再平方进行解析:
因为R≥║xi║,2yixi·ωk≤0,所以可得到
联合两个迭代化简形式
最终可得到
也就是讲,误分的次数最多也是R2 /δ2, 在此迭代次数后,感知机能找到超平面来二分训练集。
行文到此,感知机的预期功能得到验证,这就是现代科学方法证明感知机模拟神经细胞可行性的历史性突破,归功Frank。
注:本文由行家说APP与行家专栏作者魏泽科联合出品。授权或者加入,请联系微信号:hangjia199。