cs231n notes#1: linear-classify

2018-04-09  本文已影响0人  db24cc

agenda

abstract

去年看完了cs231n 的视频,一直没有抽出时间总结和弄下作业, 这里总结一下笔记注解,原笔记, 线性分类是基础,中间包括的好多概念后续在CNN,RNN复用,相对比较简单.
线性分类模型:给定N个图片x的byte array长度为D, 固定分类K, 通过被训练过的参数矩阵W([KxD])和b(Kx1), 把一个输入图片经过线性运算 fW(x) + b 映射出对应K个分类的置信度的过程.
已CIFAR-10为例,N = 50,000, 每张的大小D=32x32x3,输出分类K=10,用线性运算做分类, W = 10x3072, b = 10x1, 把输入3072 byte的图像数据map成得分的过程
具有这几个特点:

直觉解释

线性函数具有对某种颜色在特定位置的敏感, 这里不是形状或者更高级的特征(the function has the capacity to like or dislike certain colors at certain positions in the image).比如船的分类器在图片边缘蓝色通过激励,使符合的图片得分高 另外一种直观的理解方式:把图像理解成二位空间的一个点, 通过线性分类划分各自的zone,github原图如下:

还有一种直观的解释:把它理解成模板匹配, 图像的一行数据和W的一列match贡献正得分.额外有一点注意因为线性分类的特点,大海蓝色内积得分应高于船的分类,线性分类器对双头马也是高分的,因为训练数据中既有头在左边的也有头在右边的.线性分类对车的识别效果就差很多了,因为激活敏感是基于颜色+位置,车可以有各种各样的颜色.

Loss function

SVM vs Softmax


两个loss的倾向是不同的,大小不具有可比性.
In practice, SVM and Softmax are usually comparable. The performance difference between the SVM and Softmax are usually very small, and different people will have different opinions on which classifier works better.
SVM不care 错误的差异, softmax care.
作者做了一个online的小玩具直观可以diff两者感官上的不同.http://vision.stanford.edu/teaching/cs231n-demos/linear-classify/
上一篇 下一篇

猜你喜欢

热点阅读