OpenCV 学习笔记

OpenCV 笔记(30):图像降噪算法——非局部均值滤波

2024-04-13  本文已影响0人  fengzhizi715

1. 非局部均值滤波

非局部均值滤波(Non-Local Means,NL-Means)是一种非线性的图像去噪算法。它基于图像中的像素具有相似结构这一假设,利用图像的全局信息来对图像进行去噪。

1.1 全局算法 VS 局部算法

非局部均值滤波在计算每个像素点的估计值时,会考虑图像中所有与该像素点具有相似邻域结构的像素点。因此,非局部均值滤波是一种全局算法

那么相对于全局算法的局部算法是什么呢?局部算法是指仅利用图像局部信息进行处理的算法。例如其邻域窗口内的信息,来计算该像素点的估计值。常用的局部算法包括:

局部算法的优点是计算量小,速度快。但其缺点是去噪效果有限,容易造成图像细节丢失。

1.2 均值滤波和非局部均值滤波的区别

均值滤波:对于图像中的每个像素点,其滤波值是其邻域窗口内所有像素点的平均值。

非局部均值滤波:该算法需要计算图像中所有像素与当前像素之间的相似性。首先需要定义一个大的搜索窗口一个小的邻域窗口。搜索窗口用于搜索与当前像素点具有相似邻域结构的像素点,邻域窗口用于计算像素点之间的相似度。邻域窗口在搜索窗口中滑动,对于搜索窗口内的每个像素点,计算其与当前像素点的邻域窗口的相似度,并将其作为权重。相似度越大则权重越大。

非局部均值滤波的基本原理与均值滤波类似都要取平均值,但是非局部均值滤波在计算中加入了每一个点的权重。

非局部均值滤波是一种比均值滤波更先进的图像去噪方法,但其计算量也更大。

1.3 非局部均值滤波的原理

非局部均值滤波的公式如下:

\tilde u(x) = \sum\limits_{y \in {\Omega _x}} {w(x,y)v(y)}

其中,w(x,y) 是一个权重,表示在原始图像 v 中,像素 x 和像素 y 的相似度。\Omega _x是像素 x 的搜索窗口。\tilde u(x)是滤波后的图像。

非局部均值滤波的示意.png

常用的相似度度量方法包括:欧式距离、高斯相似度、L1 范数、L2 范数、MSE 等等。

衡量两个图像块的相似度最常用的方法是计算他们之间的欧氏距离:

w(x,y) = {1 \over {n(x)}}e^ -{{\left\| {{\bf{V}}(x) - {\bf{V}}(y)} \right\|_{2,a}^2} \over {{h^2}}}

其中:

非局部均值滤波的复杂度跟图像的大小、搜索窗口的大小、相似度计算方法、权重计算方法密切相关。

2. 非局部均值滤波的实现

下面的例子,是在图像中添加斑点噪声,然后用非局部均值滤波消除噪声。

#include <opencv2/opencv.hpp>
#include <opencv2/core.hpp>
#include <opencv2/highgui.hpp>
#include <random>

using namespace std;
using namespace cv;

void addSpeckleNoise(Mat& image, double scale, Mat &dst) {
    dst = image.clone();
    RNG rng;

    dst.forEach<Pixel>([&](Pixel &p, const int * position) -> void {
        int row = position[0];
        int col = position[1];

        double random_value = rng.uniform(0.0, 1.0);
        double noise_intensity = random_value * scale;
        dst.at<Vec3b>(row, col) = dst.at<Vec3b>(row, col) + Vec3b(noise_intensity * 255, noise_intensity * 255, noise_intensity * 255);
    });
}

//NL-means 算法的实现
void nonlocalMeansFilter(Mat& src, Mat& dst, int templeteWindowSize, int searchWindowSize, double h, double sigma = 0.0){
    //邻域的大小不能超过搜索窗口的大小
    if (templeteWindowSize > searchWindowSize){
        cout << "searchWindowSize should be larger than templeteWindowSize" << endl;
        return;
    }

    if (dst.empty())
        dst = Mat::zeros(src.size(), src.type());

    const int tr = templeteWindowSize >> 1;//tr为邻域的中心位置
    const int sr = searchWindowSize >> 1;  //sr为搜索域的中心位置
    const int bb = sr + tr;//需增加的边界宽度
    const int D = searchWindowSize*searchWindowSize;//搜索域中的元素个数
    const int H = D / 2 + 1;//搜索域中的中心点位置
    const double div = 1.0 / (double)D;//均匀分布时,搜索域中的每个点的权重大小
    const int tD = templeteWindowSize*templeteWindowSize;//邻域中的元素个数
    const double tdiv = 1.0 / (double)(tD);//均匀分布时,搜索域中的每个点的权重大小

    //扩充边界
    Mat boardSrc;
    copyMakeBorder(src, boardSrc, bb, bb, bb, bb, cv::BORDER_DEFAULT);

    //weight computation;
    vector<double> weight(256 * 256 * src.channels());
    double* w = &weight[0];
    const double gauss_sd = (sigma == 0.0) ? h : sigma;//高斯标准差
    double gauss_color_coeff = -(1.0 / (double)(src.channels())) * (1.0 / (h*h));//高斯颜色系数
    int emax=0;

    //w[i]保存方差,即邻域平均欧氏距离对应的高斯加权权重,供后面计算出欧式距离后调用
    for (int i = 0; i < weight.size(); i++){
        double v = std::exp(max(i - 2.0*gauss_sd*gauss_sd, 0.0)*gauss_color_coeff);
        w[i] = v;
        if (v<0.001){
            emax = i;
            break;
        }
    }

    for (int i = emax; i < weight.size(); i++)
        w[i] = 0.0;

    int height = src.rows;
    int width = src.cols;

    if (src.channels() == 3){
        const int cstep = (int)boardSrc.step - templeteWindowSize * 3;
        const int csstep = (int)boardSrc.step - searchWindowSize * 3;
#pragma omp parallel for
        for (int j = 0; j<height; j++){
            uchar* d = dst.ptr(j);
            int* ww = new int[D];//D 为搜索域中的元素数量,ww用于记录搜索域每个点的邻域方差
            double* nw = new double[D];//根据方差大小高斯加权归一化后的权重
            for (int i = 0; i<width; i++){
                double tweight = 0.0;
                //search loop
                uchar* tprt = boardSrc.data + boardSrc.step * (sr + j) + 3 * (sr + i);
                uchar* sptr2 = boardSrc.data + boardSrc.step * j + 3 * i;
                for (int l = searchWindowSize, count = D - 1; l--;){
                    uchar* sptr = sptr2 + boardSrc.step * (l);
                    for (int k = searchWindowSize; k--;){
                        //templete loop
                        int e = 0;
                        uchar* t = tprt;
                        uchar* s = sptr + 3 * k;
                        for (int n = templeteWindowSize; n--;){
                            for (int m = templeteWindowSize; m--;){
                                // computing color L2 norm
                                e += (s[0] - t[0])*(s[0] - t[0]) + (s[1] - t[1])*(s[1] - t[1]) + (s[2] - t[2])*(s[2] - t[2]);//L2 norm
                                s += 3;
                                t += 3;
                            }
                            t += cstep;
                            s += cstep;
                        }
                        const int ediv = e*tdiv;
                        ww[count--] = ediv;
                        //get weighted Euclidean distance
                        tweight += w[ediv];
                    }
                }

                //weight normalization
                if (tweight == 0.0){
                    for (int z = 0; z<D; z++) nw[z] = 0;
                    nw[H] = 1;
                }else{
                    double itweight = 1.0 / (double)tweight;
                    for (int z = 0; z<D; z++) nw[z] = w[ww[z]] * itweight;
                }
                double r = 0.0, g = 0.0, b = 0.0;
                uchar* s = boardSrc.ptr(j + tr); s += 3 * (tr + i);
                for (int l = searchWindowSize, count = 0; l--;){
                    for (int k = searchWindowSize; k--;)
                    {
                        r += s[0] * nw[count];
                        g += s[1] * nw[count];
                        b += s[2] * nw[count++];
                        s += 3;
                    }
                    s += csstep;
                }
                d[0] = saturate_cast<uchar>(r);
                d[1] = saturate_cast<uchar>(g);
                d[2] = saturate_cast<uchar>(b);
                d += 3;
            }//i
            delete[] ww;
            delete[] nw;
        }//j
    } else if (src.channels() == 1){
        const int cstep = (int)boardSrc.step - templeteWindowSize;//在邻域比较时,从邻域的上一行末尾跳至下一行开头
        const int csstep = (int)boardSrc.step - searchWindowSize;//搜索域循环中,从搜索域的上一行末尾跳至下一行开头
#pragma omp parallel for
        for (int j = 0; j<height; j++){
            uchar* d = dst.ptr(j);
            int* ww = new int[D];
            double* nw = new double[D];
            for (int i = 0; i<width; i++){
                double tweight = 0.0;
                uchar* tprt = boardSrc.data + boardSrc.step * (sr + j) + (sr + i);
                uchar* sptr2 = boardSrc.data + boardSrc.step * j + i;
                for (int l = searchWindowSize, count = D - 1; l--;){
                    uchar* sptr = sptr2 + boardSrc.step * (l);
                    for (int k = searchWindowSize; k--;){
                        int e = 0;
                        uchar* t = tprt;
                        uchar* s = sptr + k;
                        for (int n = templeteWindowSize; n--;){
                            for (int m = templeteWindowSize; m--;){
                                e += (*s - *t)*(*s - *t);
                                s++;
                                t++;
                            }
                            t += cstep;
                            s += cstep;
                        }
                        const int ediv = e*tdiv;
                        ww[count--] = ediv;
                        tweight += w[ediv];
                    }
                }

                if (tweight == 0.0){
                    for (int z = 0; z<D; z++) nw[z] = 0;
                    nw[H] = 1;
                }else{
                    double itweight = 1.0 / (double)tweight;
                    for (int z = 0; z<D; z++) nw[z] = w[ww[z]] * itweight;
                }
                double v = 0.0;
                uchar* s = boardSrc.ptr(j + tr); s += (tr + i);
                for (int l = searchWindowSize, count = 0; l--;){
                    for (int k = searchWindowSize; k--;){
                        v += *(s++)*nw[count++];
                    }
                    s += csstep;
                }
                *(d++) = saturate_cast<uchar>(v);
            }//i
            delete[] ww;
            delete[] nw;
        }//j
    }
}

int main() {
    Mat src = imread(".../girl.jpg");

    imshow("src", src);

    Mat result;

    Mat dst4;
    addSpeckleNoise(src,0.5,dst4);
    imshow("addSpeckleNoise", dst4);

    nonlocalMeansFilter(dst4, result, 3, 15, 40,40);
    imshow("removeSpeckleNoise", result);

    waitKey(0);
    return 0;
}
斑点噪声和使用非局部均值滤波后的效果.png

OpenCV 提供了非局部均值滤波算法,并对其进行了加速。

int main() {
    Mat src = imread(.../girl.jpg");

    imshow("src", src);

    Mat result;

    Mat dst4;
    addSpeckleNoise(src,0.5,dst4);
    imshow("addSpeckleNoise", dst4);

    fastNlMeansDenoisingColored(dst4,result,40,40);
    imshow("removeSpeckleNoise2", result);

    waitKey(0);
    return 0;
}

3. 总结

非局部均值滤波能够有效地去除图像中的各种噪声,包括高斯噪声、椒盐噪声、纹理噪声等。非局部均值滤波能够较好地保留图像的细节,对噪声的类型和分布不敏感,具有较强的鲁棒性。

当然,非局部均值滤波的缺点也很明显:计算量大,容易受到图像边缘的影响等等。

非局部均值滤波的计算量大、速度慢是可以通过减少搜索窗口大小、采用快速相似度计算方法、利用图像的稀疏性、并行化计算、利用硬件加速等方法来加速。

上一篇下一篇

猜你喜欢

热点阅读