人脸识别有价值吗?达到什么程度才叫人脸识别?
2015年在德国汉诺威,马云在讲台上推行“人脸支付”技术。当时我看到这个新闻的时候,我就对我的同事说,这纯粹是一个不懂数字图像技术的人在作秀,搞噱头。我同事听到我这么一说,呵呵一声,伟人的境界与眼光你怎么会懂。马云在商业上很牛,这点我没有意见,本人也很佩服他。术业有专攻,马云不懂人脸识别技术的瓶颈,也实属正常,但是,阿里那帮技术大牛不会不知道。
我在这里就讲解一下这个人脸识别技术的发展与现状。人脸识别是基于数字图像处理,数字图像处理一直都是比较前沿的研究方向。数字图像处理技术的后期就会发展为人工智能(AI)。为什么会发展为人工智能(AI),这个我会另写文章专门描述,如果大家感兴趣的话可以先看美剧<疑犯追踪>。
上图
图片来源网络其实这个美剧对数字图像处理的技术细节理解并不是太深,但已经很不错了,本人强烈推荐。
——————————————————————分割线
我在这里说的数字图像处理技术,区别于美工用的PS,虽然后者也是图像处理技术。
图像处理技术其实用的很广泛,比如大家用微信、支付宝中的扫二维码支付功能,超市用的扫码机器。再比如,工厂用图像处理检查零件是否合格,甚至是我们用的激光鼠标都用了图像处理技术。
人脸识别有价值吗?达到什么程度才叫人脸识别? 图片来源网络但是有这么广泛用途的图像处理技术,为什么就不能用手机进行人脸识别呢?那你们可能会问,有些手机在拍照时,在人脸上自动标注正方形,然到不是人脸识别?这个应该叫人脸检测,换句话检测是不是人脸。它的技术原理实现起来也相对简单些,特征法结合帧差法、光流法就可以做到,当然也要处理手机抖动。但人脸识别是有“记忆性”的,如同,我们上班指纹打卡进行指纹比对,在这之前管理员会叫我们要录入指纹。你们也会发现这么一个现象,机器会让你们多输入几次,为什么?因为这样可以提高指纹识别的准确性。人脸识别也是同理,它需要拍照,保存这个人的人脸数据,再进行比对,所以有一定的“记忆性”。虽然和指纹识别基本原理相同,但是两者之间有巨大的差别,指纹在按压之后所保存的图片数据是二维数据,而现在成熟的数字图像处理技术基本也是针对二维数据。这也是为什么对二维码进行识别还比较准确的原因。
然而,我们的人脸是三维数据啊!!!三维的人脸拍成二维的照片,在经过二值化、分水岭等图像技术处理,就丢失了大量的数据,手机或普通摄像头识别人脸,怎么会准确。这也是为什么阿里巴巴相关视频会出现用“纹身图案”来做支付凭证的画面,美其名曰,选择自已喜欢的物品来支付,是支付方式的伟大创新。这个思维确实也特别不错,不过你们确定已经掌握了此项技术?不过纹身是可以做到的,简单的纹身图案是二维数据嘛。所以,马云的“刷脸支付”要能实现绝非一朝一夕。
那怎样才能做到准确且适应多场景的人脸识别?注意是准确且适应多场景!准确且适应多场景!重要的事说三遍。因为你不做到这两点,人脸支付就没有任何意义,因为现实世界的支付场景太复杂。而目前的图像处理技术,大都是针对某个环境下的所做的处理,这也是为什么图像处理在工厂用的还不错,因为工厂是可以控制环境保持固定明暗和固定背景的嘛。现在的机器人也是同理,它处理莫个特定场景下的特定任务还可以,换个环境和任务试试!
从生物角度出发,为什么我们人类自己进行人脸识别很准确(首先把人类“智能”放一边),因为从信息数据量接收来说,我们人眼是全息摄像头比手机上哪个普通摄像头接收数据以及处理要复杂的多。以下是两者区别:
1、全息照片和普通的科普照片是不一样的,在适当的光照下,全息照片上显示出来的景象是立体的,可看到景物的各个侧面。
2、全息照相和常规照相之不同还在于,常规照相只是记录了被摄物体表面光线强弱的变化,即只记录了光的振幅;而全息照相则记录了光波的全部信息,除振幅外,还记录了光波的相位.这样就把空间物体光波场的全部信息都贮存记录了下来.然后利用全息照片对特定波长单色照明光的衍射,把原空间景象显现出来.它可将一个“冻结”了的景物重新“复活”后显现在人们眼前。
3、普通照相只能存贮被摄物体光强度的空间分布,不能满足人们希望在特定环境下能够感知真实3D场景的要求;而全息照相是通过记录照射物体的物光波与相应的参考光波的干涉条纹,从而记录下包括物体振幅(光强)和相位在内的全部光场信息,故称“全息”。
以下就是我对手机进行人脸识别技术的建议:
1.提高全息摄像的硬件水平。
2.建立相应的基金会,鼓励大学、研究所研究在全息摄像头下的全息图像处理算法,尤其是多摄像头下图像处理算法。
总结,图像处理算法是人工智能(AI)的前奏,所以,其中的人脸识别对未来发展的意义也非常大。但是现阶段,推“人脸支付”实际商业和社会意义不大。还有我是挺尊敬马云的