黑洞图片的背后,是图像处理技术的成熟!
前言:
就在昨天,人类历史上第一张黑洞图像被“拍”出来了。
请配戴眼镜查看高清大图
尽管黑洞的第一张真身照是一张模糊、不规则的圆环,但这张照片的背后凝结了目前最先进的探测技术,整个过程历时十余年,动用了来自非洲、亚洲、欧洲、北美洲和南美洲的200多名研究人员,八个探测望远镜不分昼夜观测,最终的这张图像也有可能获得诺贝尔奖。
这一切成就,都离不开视界望远镜和背后的计算。
人类“拍”到的第一张黑洞照片,并不是像我们拿手机拍照那样,点下屏幕就好,而是需要分布在全球各地的许多天文望远镜在同一时间“按下快门”,记录无线电数据。
然后,再依靠机器学习算法,把数据拼到一起,重建出图像。
图片的形成过程:
其实拍摄这些图片来自智利、夏威夷、南极洲、亚利桑那、西班牙、墨西哥六个地方的一共八台天文望远镜。天文望远镜获取的数据量非常大,然而这些数据里面不仅仅包含黑洞,还包含天空中的各种复杂、凌乱的数据,科学家们要靠这些数据,拼出一张完整的黑洞写真。
2017年4月5日,由位于南极、智利、墨西哥、美国夏威夷、美国亚利桑那州、西班牙的8台亚毫米射电望远镜同时对黑洞展开观测,利用甚长基线干涉测量技术(VLBI)将这8台望远镜构建成超级“虚拟”望远镜——视界面望远镜(EHT),EHT口径13000公里,约等同于地球直径。
处理照片:
其实,天文望远镜早就拍完了照片,而“洗照片”的过程长达两年。为什么“洗照片”时间如此之长?
因为这类观测的数据处理并非只用一套现成的方法。多台望远镜之间的钟差、望远镜自身状态随时间的微小改变等问题都会影响观测精度。另一方面,“拍照”对象黑洞本身也在不断变化,科学家需要探索新方法对“相机”进行校准,建立模型,以提升合成图像的质量和精度。
本来,根据天文望远镜数据还原天体图像,用成像算法即可。
然而面对PB级稀疏、嘈杂的数据,想靠人力从中找出图像太难了。于是,科学家们使用了机器学习方法。
图像处理经常被处理成反问题,什么是反问题:
考虑正问题f=Au+n,n是观测噪声,反问题就是在有了观测f的条件下怎么获得真实图片u
如果A是一个恒同算子,反问题就是去燥
如果A是一个模糊,反问题就是去模糊
如果A是一个CT,反问题就是CT恢复
在将算法之前说一下这个问题意义,打个比方你要做核磁共振,你要绑在床上听着快一个小时噪声,那么你就希望A这个算法进行sample 次数变少,那么如果我算法更厉害,你mri时间会越少。
有人说,这个问题简单
就好了,那么如果A不可逆呢?
你说这个也简单,最小二乘啊
,那么你就是没有考虑到n--观测噪声
考虑一个去模糊问题,如果有噪声,直接求逆结果会是怎么样的呢?
噪声在求逆的时候无数倍的被放大了,产生了棋盘一样的artifact
那么怎么解决问题呢?加入正则项!
这里的R的作用时
如果u不是“图片”,那么R值大一点
如果u像一张图片,R的值小一点
数学家就花了很久来构造R,第一个成功的是total variation,定义为
那么我们用到的这个算法是什么样的呢:
对于simulate数据
用了total variation的效果是
为什么呢,为了达到这个分辨尺度,根据测不准原理,他们需要整个地球半径的天文望远镜。但是事实上我们造不出来这么大的望远镜,只能用九个观测站点的数据来做。这是一个高度不适定的反问题,那么需要更好的正则项。
设计正则项他们用到的想法是学习
From Learning Models of Natural Image Patches to Whole Image Restoration
他们用高斯混合模型对图片patch进行建模,学习出图片patch的distribution作为上面问题的正则项。
ted talk里面还将到他们用了多个数据集去学习,用日常图片,宇宙照片,望远镜数据。。学习出来了很多个正则项,发现恢复出来的图片都是这样的图片。
其实看到这里,我们已经是很震惊了,原来霍金的黑洞论真实存在,我们人类还宇宙面前真的很渺小。但是随着科技的不断发展,我们人类也会认识更加深入的宇宙。
为了帮助大家让学习变得轻松、高效,给大家免费分享一大批资料,让AI越来越普及。在这里给大家推荐一个人工智能Python学习交流群:705673780欢迎大家进群交流讨论,学习交流,共同进步。
当真正开始学习的时候难免不知道从哪入手,导致效率低下影响继续学习的信心。
但最重要的是不知道哪些技术需要重点掌握,学习时频繁踩坑,最终浪费大量时间,所以拥有有效资源还是很有必要的。