计算所一日游&面谈小记&补姿势

2018-01-07  本文已影响0人  kirai

周五去计算所面谈,被得知是打ACM的就没有被问任何传统概念上的算法,倒是盯着简历被问了一堆曾经做过的模式识别相关的内容。经典模型的原理对答如流,唯独最经典的三种目标检测特征:hog、lbp、haar中的haar我是一点都没有看过的(偷懒了),于是似乎被鄙视了一下?
  最终的结果,老师对我很满意,我对老师也很满意(???),直接被安利了一坨实验室项目,以及问要不要直接来做毕设。
  刘老师所在的实验室是泛在计算系统研究中心,是去年1月份新合并的实验室,研究方向有很多,刘老师研究的方向大致就是计算机视觉和模式识别,曾经做过一些针对性比较强的课题,在官网上看到她十年前就发过好几篇顶会,但是随后就不再更新了,只是当面聊才得知最近因为深度学习很火于是他们也开始做这方面的研究了。
  在计算所的楼里转了转,感觉不错,很像一个大厂。听LZG说网特别烂,上百度要6s,叫我做好准备,我:emmmm…
  回学校颓了一晚上,第二天开始找haar的资料,准备补一下这个。于是就翻到了龙女士(???)的这篇硕士论文

基于Adaboost的人脸检测方法及眼睛定位算法研究 龙伶敏 电子科技大学

本来只是想撸一下haar特征的,但是感觉一般毕业论文都会把研究路径写得比较详细(比期刊高到不知道哪里去了),于是顺便读完了整本。

补了一些姿势:

haar特征:定义模板,模板有两部分,用模板按比例放缩对图像进行分两部分求和再作差,主要用了一个矩阵前缀和优化,是个非常简单的dp,我觉得其实可以用二维树状数组来替代这个预处理,但是优势仅能在颜色分布比较单一的条件下才有效。由于图像有可能非常大,所以还需要类似水平或者垂直深度直方图之类的手段进行粗定位,之后在定位的范围内使用haar特征,这具体实现要分析检测目标的色彩深度特点。

PAC(概率近似正确框架):从合理数量的训练数据中通过合理的计算量可靠的学习到知识,使得保证假设是有一定概率为正确的一种设计分类器的思路。

Boost&AdaBoost算法:将弱学习分类器通过某种(比如级联)方式结合起来,构造成强分类器的一种分类算法。

瀑布(Cascade)算法:基于AdaBoost算法的强分类算法。

隐马尔科夫模型:似乎在cv上很少用,还有什么跃迁矩阵。算了,我连马尔科夫链是什么都不知道,这个弃了。

这篇论文读完可以说是收获很多,除了haar特征以外,还学到了不少图形学方面的知识,以及做研究和写论文的思路。
  这篇论文其实还是有很多细节处理得比较粗糙的,比如论文第39页设置窗口放大系数为1.2的时候并没有阐述原因,只是随口一提。39、40页提到多ROI区域合并的时候简单使用坐标的几何中心以及区域边长均值做合并后的ROI,诸如此类。
  
  以及自己的一些想法:文章里提到过一个利用离散对称变换的方法定位一个对称特征(比如眼睛),其实我觉得这里可以把对称思想应用到直方图中,做一侧的对称采样点,求差的绝对值最小,认为是对称。

上一篇下一篇

猜你喜欢

热点阅读