分享

OpenCV常见的优化方法和技巧总结

 mscdj 2019-02-15

 一、OpenCV常见的优化方法总结

1.1 cv::imread()设置reduce模式:

1.2 查表法:LUT,

1.3 像素遍历

1.4 openCL加速:使用UMat结构代替Mat

1.5 release内存释放

1.6 多线程加速处理OpenMP

1.7 使用积分图:integral

二、OpenCV常用技巧总结

释放Mat图像内存空间:

Mat多通道合并和分割

释放图像通道分割的图像空间

计算运行时间

关于vector内存释放的问题:

OpenCV LUT:

opencv多通道的使用 

opencv中Mat与数组之间值传递的快速方法

图像的遍历的快速方法

图像遍历优化和加速的常用方法:

防止图像Rect区域越界的好方法

获取OpenCV版本

读写XML或者yml文件数据的

Mat矩阵的运算,易错的问题

Mat和IplImage相互转换

Mat::data指针讲解

OpenCV Mat数据类型及位数总结

Mat矩阵插入新的矩阵

颜色空间缩减的方法

YUV444,YUV422,YUV420解释


 一、OpenCV常见的优化方法总结

1.1 cv::imread()设置reduce模式:

  cv::imread()设置reduce模式, 读取缩放的低分辨率小图,或者直接读取灰度图,可以做到自适应,先用EXIF信息读取图像的分辨率,当分辨率大于一定阈值,则设置读取模式为:IMREAD_REDUCED_COLOR_2或者IMREAD_REDUCED_COLOR_4 ,避免内存过大以及编程resieze耗时

1.2 查表法:LUT,

    使用lut的方法法,远快于每个像素都计算的方法

1.3 像素遍历

    openCV像素遍历常用的是三种方法:ptr指针,迭代器(iterator)以及动态地址at

    使用Mat的ptr指针进行图像遍历更加高效,

特别的:一般图像行与行之间往往存储是不连续的,但是有些图像可以是连续的,Mat提供了一个检测图像是否连续的函数isContinuous()。当图像连通时,我们就可以把图像完全展开,看成是一行进行处理。

动态地址at不适合用于像素遍历,速度太慢了,比较适合随机访问的方式

1.4 openCL加速:使用UMat结构代替Mat

    高性能:OpenCL的相关用法:UMat

    在OpenCV3中,OCL module已经被舍弃。而是使用更易上手的Transparent API来替代 OCL module。因此只需要使用 UMat来替换Mat,而其余的代码保持不变,即可实现加速.

    Mat转换成UMat可以使用Mat::copyTo(OutputArray dst),也可以使用Mat::getUMat(int access_flags)

  1. #include <chrono>
  2. #include <opencv2/opencv.hpp>
  3. #define millisecond 1000000
  4. #define DEBUG_PRINT(...) printf( __VA_ARGS__); printf("\n")
  5. #define DEBUG_TIME(time_) auto time_ =std::chrono::high_resolution_clock::now()
  6. #define RUN_TIME(time_) (double)(time_).count()/millisecond
  7. using namespace std;
  8. void main() {
  9. string image_path = "1.jpg";
  10. cv::Mat image1 = cv::imread(image_path);
  11. cv::Mat dest1;
  12. DEBUG_PRINT("image size:[%d,%d]", image1.cols, image1.rows);
  13. //Mat convert to UMat
  14. //cv::UMat image2= image1.getUMat(cv::ACCESS_FAST);//ACCESS_READ, ACCESS_WRITE, ACCESS_RW和ACCESS_FAST
  15. cv::UMat image2;
  16. image1.copyTo(image2);
  17. cv::UMat dest2;
  18. DEBUG_TIME(T0);
  19. cv::blur(image1, dest1, cv::Size(15, 15));
  20. DEBUG_TIME(T1);
  21. cv::blur(image2, dest2, cv::Size(15, 15));
  22. DEBUG_TIME(T2);
  23. //UMat convert to Mat
  24. cv::Mat dest3;
  25. dest2.copyTo(dest3);
  26. DEBUG_PRINT("CPU:%3.3fms", RUN_TIME(T1 - T0));
  27. DEBUG_PRINT("GPU:%3.3fms", RUN_TIME(T2 - T1));
  28. }

image size:[2000,3008]
CPU:18.039ms
GPU:9.623ms 

    说明:图像越大,计算越复杂时,使用OpenCL加速的效果更明显,如果使用分辨率小图,其GPU的计算速度未必比CPU的快!! 

   参考资料: https://blog.csdn.net/amusi1994/article/details/79529870

《OpenCV3.x中UMat对象介绍与使用》https://blog.csdn.net/jia20003/article/details/69802932

1.5 release内存释放

 

1.6 多线程加速处理OpenMP

举个例子:并行化for语句

  1.   #pragma omp parallel for [clause[clause…]]
  2.   for(index = first; qualification; index_expr)
  3. {…}

    第一句中[]的部分是可选的,由自己的程序并行特点而定。大家先不要把精力放到这里面。后面的文章中会继续讲解的。

编写规则
    1、index的值必须是整数,一个简单的for形式:for(int i = start; i < end; i++){…} 。

    2、start和end可以是任意的数值表达式,但是它在并行化的执行过程中值不能改变,也就是说在for并行化执行之前,编译器必须事先知道你的程序执行多少次,因为编译器要把这些计算分配到不同的线程中执行。

    3、循环语句只能是单入口但出口的。这里只要你避免使用跳转语句就行了。具体说就是不能使用goto、break、return。但是可以使用continue,因为它并不会减少循环次数。另外exit语句也是可以用的,因为它的能力太大,他一来,程序就结束了。

openMP参考资料:

https://www.cnblogs.com/ospider/p/5265975.html 

《openMP编程探索1——编程基础》https://blog.csdn.net/bendanban/article/details/6302857 

《openMP编程探索2——循环并行化》:https://blog.csdn.net/bendanban/article/details/6303100

1.7 使用积分图:integral

  积分图定义为:积分图中坐P(x,y)的值为其左上角的所有像素之和

如上图所示,为了求该矩形区域的灰度之和。我们可以用以下公式表示: 
S=S(A)+S(D)-S(B)-S(C)
需要注意的是,这里的总和并不包含点A,B,C的像素值。如上图所示的小像素点,A,B,C所在的像素点不在矩形区域以内。

另外,有的时候不一定只是像素灰度值和,只要符合积分图这一种计算思想的,均可以用积分图来简化计算。 
如果是求矩形区域的像素点平方和,也可以用

二、OpenCV常用技巧总结

释放Mat图像内存空间:

  1. Mat image = imread("D:\\OpencvTest\\1.jpg");
  2. image.release();

Mat多通道合并和分割

  1. #include <opencv2/opencv.hpp>
  2. using namespace std;
  3. using namespace cv;
  4. /*
  5. 将多个mat合并为多通道mat
  6. */
  7. cv::Mat mergeMultiChannels(cv::Mat A,cv::Mat B) {
  8. cv::Mat AB;
  9. vector<cv::Mat> ABchannels;
  10. ABchannels.push_back(A);
  11. ABchannels.push_back(B);
  12. cv::merge(ABchannels, AB);
  13. return AB;
  14. }
  15. /*
  16. 将6通道的mat分割成2个三通道的mat
  17. */
  18. void splitMultiChannels(cv::Mat mat,cv::Mat &A,cv::Mat &B) {
  19. vector<cv::Mat> channels;
  20. cv::split(mat, channels);//分割image1的通
  21. vector<cv::Mat> Avec, Bvec;
  22. Avec.push_back(channels[0]);
  23. Avec.push_back(channels[1]);
  24. Avec.push_back(channels[2]);
  25. Bvec.push_back(channels[3]);
  26. Bvec.push_back(channels[4]);
  27. Bvec.push_back(channels[5]);
  28. cv::merge(Avec, A);
  29. cv::merge(Bvec, B);
  30. }
  31. void main(){
  32. int width = 100;
  33. int height = 100;
  34. //cv::Mat AB = cv::Mat::zeros(cv::Size(width,height),CV_32FC(6));
  35. cv::Mat A1 = cv::Mat::zeros(cv::Size(width, height), CV_32FC3) + cv::Scalar(0.1, 0.2, 0.3);
  36. cv::Mat B1 = cv::Mat::zeros(cv::Size(width, height), CV_32FC3) + cv::Scalar(0.4, 0.5, 0.6);
  37. cv::Mat AB=mergeMultiChannels(A1, B1);//合并为6通道
  38. cv::Mat A2,B2;
  39. splitMultiChannels(AB, A2, B2);//分割为三通道
  40. return;
  41. }

释放图像通道分割的图像空间

  1. std::vector<cv::Mat> layers;
  2. split(image, layers);
  3. // free memory
  4. for (auto ii = 0; ii < layers.size(); ii++)
  5. layers[ii].release();
  6. layers.clear();

计算运行时间

  1. using namespace cv;
  2. //设置宏定义
  3. #define TB__(A) int64 A; A = cv::getTickCount()
  4. #define TE__(A) cout << #A << " : " << 1.E3 * double(cv::getTickCount() - A)/double(cv::getTickFrequency()) << "ms" << endl
  5. // 使用方法:
  6. TB__(cpu_cvt);
  7. #pragma omp parallel for num_threads(4)
  8. for (int k = 0; k < REPEATES; k++)
  9. cv::cvtColor(cpu_src, cpu_dst, CV_BGR2Lab);
  10. TE__(cpu_cvt);

 

  1. #include <chrono>
  2. //run times test...
  3. #ifdef __DEBUG__TIME__ON
  4. #define LOG_TIME LOGE
  5. #define RUN_TIME(time_) (double)(time_).count()/millisecond
  6. //设置计算运行时间的宏定义
  7. #define DEBUG_TIME(time_) auto time_ =std::chrono::high_resolution_clock::now()
  8. #define DEBUG_TIME_PRINT(time_) printf("run time: %s=%3.3f ms\n", #time_,(double)(time_).count()/millisecond)
  9. #else
  10. #define DEBUG_TIME(time_)
  11. #endif

 

关于vector内存释放的问题:

    由于vector的内存占用空间只增不减,比如你首先分配了10,000个字节,然后erase掉后面9,999个,留下一个有效元素,但是内存占用仍为10,000个。所有内存空间是在vector析构时候才能被系统回收。empty()用来检测容器是否为空的,clear()可以清空所有元素。但是即使clear(),vector所占用的内存空间依然如故,无法保证内存的回收。

    如果需要空间动态缩小,可以考虑使用deque。如果是vector类型,可以考虑用swap()来帮助你释放内存。具体方法如下:
标准模板:

  1. //放在头文件
  2. template < class T >
  3. void ClearVector(vector< T >& vt)
  4. {
  5. vector<T> vtTemp;
  6. vtTemp.swap(vt);
  7. };

     swap()是交换函数,使vector离开其自身的作用域,从而强制释放vector所占的内存空间,总而言之,释放vector内存最简单的方法是vector<Point>().swap(pointVec)。当时如果pointVec是一个类的成员,不能把vector<Point>().swap(pointVec)写进类的析构函数中,否则会导致double free or corruption (fasttop)的错误,原因可能是重复释放内存。(前面的pointVec.swap(vector<Point> ())用G++编译没有通过)
     如果vector中存放的是指针,那么当vector销毁时,这些指针指向的对象不会被销毁,那么内存就不会被释放。如下面这种情况,vector中的元素时由new操作动态申请出来的对象指针:

  1. #include <vector>
  2. using namespace std;
  3. vector<void *> v;

    每次new之后调用v.push_back()该指针,在程序退出或者根据需要,用以下代码进行内存的释放:

  1. for (vector<void *>::iterator it = v.begin(); it != v.end(); it ++)
  2. if (NULL != *it)
  3. {
  4. delete *it;
  5. *it = NULL;
  6. }
  7. v.clear();

OpenCV LUT:

   多用LUT可以大大降低处理时间:比如下面是实现图像Gamma矫正的函数,其中使用了LUT,这比使用for循环遍历每个像素值,快很多,特别是图片很大的时候:

  1. void gammaCorrection(cv::Mat& dst, float fGamma)
  2. {
  3. cv::Mat lut(1, 256, CV_8U);
  4. uchar *p = lut.data;
  5. for (int i = 0; i < 256; i++)
  6. {
  7. p[i] = cv::saturate_cast<uchar>(pow((float)(i / 255.0), fGamma) * 255.0f);
  8. }
  9. cv::LUT(dst, lut, dst);
  10. }

opencv多通道的使用 

  1. typedef cv::Vec<float, 8> Vec8f;
  2. E2 = cv::Mat::zeros(srcImage.rows, srcImage.cols, CV_32FC(8));//背景 E(0)值
  3. //Mat bigMat = cv::Mat::zeros(cv::Size(256, 256), CV_8UC(8));
  4. //CV_32FC3
  5. std::cout << "channel = " << E2.channels() << " \n ";
  6. for (int i = 0; i < E2.rows; i++)
  7. {
  8. for (int j = 0; j < E2.cols; j++)
  9. {
  10. for (int c = 0; c < E2.channels(); c++)
  11. {
  12. std::cout << "channel = " << c << " ";
  13. std::cout << E2.at<Vec8f>(i, j)[c] << " ;i = " << i << " j= " << j << " c= " << c << "\n";
  14. }
  15. }
  16. }

opencv中Mat与数组之间值传递的快速方法

       利用Mat来存储数据,避免使用数组等操作

  1. cv::Mat mean = (cv::Mat_<float>(2, 1) << 0.4404, 0.3111);
  2. cout << "mean=" << mean << endl;
  3. float a=mean.at<float>(0, 0);
  4. float b = mean.at<float>(0, 0);

       将数组内容传递给Mat,示例代码:

  1. unsigned char cbuf[height][width];
  2. cv::Mat img(height, width, CV_8UC1, (unsigned char*)cbuf);

       将Mat中的内容传递给数组,如果Mat中的数据是连续的,那么对于传递到一维vector我们可以这样:

  1. std::vector<uchar> array(mat.rows*mat.cols);
  2. if (mat.isContinuous())
  3. array = mat.data;

       同样的,传递到一维数组我们可以这样

  1. unsigned char *array=new unsigned char[mat.rows*mat.cols];
  2. if (mat.isContinuous())
  3. array = mat.data;

        对于二维vector的传值,我们可以这样处理

  1. uchar **array = new uchar*[mat.rows];
  2. for (int i=0; i<mat.rows; ++i)
  3. array[i] = new uchar[mat.cols];
  4. for (int i=0; i<mat.rows; ++i)
  5. array[i] = mat.ptr<uchar>(i);

图像的遍历的快速方法

      OpenCV图像遍历最高效的方法是指针遍历方法。因为图像在OpenCV里的存储机制问题,行与行之间可能有空白单元(一般是补够4的倍数或8的倍数,有些地方也称作“位对齐”,目前我用到的FreeImage和c#中的bitmap中的存储机制也是这样的)。这些空白单元对图像来说是没有意思的,只是为了在某些架构上能够更有效率,比如intel MMX可以更有效的处理那种个数是4或8倍数的行。Mat提供了一个检测图像是否连续的函数isContinuous()。当图像连通时,我们就可以把图像完全展开,看成是一行。因此最高效的遍历方法如下:

  1. void imageCopy(const Mat& image,Mat& outImage)
  2. {
  3. int nr=image.rows;
  4. int nc=image.cols;
  5. outImage.create(image.size(),image.type());
  6. if(image.isContinuous()&&outImage.isContinuous())
  7. {
  8. nr=1;
  9. nc=nc*image.rows*image.channels();
  10. }
  11. for(int i=0;i<nr;i++)
  12. {
  13. const uchar* inData=image.ptr<uchar>(i);
  14. uchar* outData=outImage.ptr<uchar>(i);
  15. for(int j=0;j<nc;j++)
  16. {
  17. *outData++=*inData++;
  18. }
  19. }
  20. }

     PS:一般经过裁剪的Mat图像,都不再连续了,如cv::Mat crop_img = src(rect);crop_img 是不连续的Mat图像,如果想转为连续的,最简单的方法,就是将不连续的crop_img 重新clone()一份给新的Mat就是连续的了。关于Mat连续存储的问题,可见:http://blog.csdn.net/guyuealian/article/details/78614662


图像遍历优化和加速的常用方法:

1、加减法比乘除法快,因此应避免使用乘除法

2、不能避免乘除法时,考虑使用“移位运算”

3、像素查表法LUT,远快于每个像素都计算的方法

4、使用常量,会比使用变量快:如:

  1. //使用变量相乘
  2. int a=100;
  3. int b=200;
  4. int c=a*b;
  5. //使用常量相乘
  6. int c=100*200;

   PS:特别是在for循环中,能用常量表示的,就不要用变量表示,所以“多使用宏定义define,准没错

 实例代码:第四种的fast_ergodic4遍历方法是最快的

  1. #include <opencv2/opencv.hpp>
  2. #include <iostream>
  3. using namespace std;
  4. #define chans 3
  5. cv::Mat fast_ergodic4(cv::Mat image) {
  6. if (!image.isContinuous())
  7. {
  8. return image;
  9. }
  10. int rows = image.rows;
  11. int cols = image.cols;
  12. /*使用常量会比变量快,因此当图像通道确定时,请将chans改为数字常量,如1,3,4等*/
  13. //int chans = image.channels();
  14. cv::Mat outImage = cv::Mat::zeros(image.size(), image.type());
  15. cols = cols*rows*chans;
  16. uchar* inData = image.data;
  17. uchar* outData = outImage.data;
  18. for (int j = 0; j < cols; j += chans)
  19. {
  20. outData[j] = 10 + inData[j];//B
  21. outData[j + 1] = 10 + inData[j + 1];//G
  22. outData[j + 2] = 10 + inData[j + 2];//R
  23. //outData[j + 3] = 10 + inData[j + 3];//A
  24. }
  25. return outImage;
  26. }
  27. cv::Mat fast_ergodic3(cv::Mat image) {
  28. int rows = image.rows;
  29. int cols = image.cols;
  30. /*使用常量会比变量快,因此当图像通道确定时,请将chans改为数字常量,如1,3,4等*/
  31. //int chans = image.channels();
  32. cv::Mat outImage = cv::Mat::zeros(image.size(), image.type());
  33. //outImage.create(image.size(), image.type());
  34. if (image.isContinuous())
  35. {
  36. cols = cols*rows;
  37. rows = 1;
  38. }
  39. //else
  40. //{
  41. // image = image.clone();
  42. // rows = 1;
  43. // cols = cols*image.rows*chans;
  44. //}
  45. cols *= chans;
  46. for (int i = 0; i < rows; i++)
  47. {
  48. uchar* inData = image.ptr<uchar>(i);
  49. uchar* outData = outImage.ptr<uchar>(i);
  50. for (int j = 0; j < cols; j += chans)
  51. {
  52. outData[j] = 10 + inData[j];//B
  53. outData[j + 1] = 10 + inData[j + 1];//G
  54. outData[j + 2] = 10 + inData[j + 2];//R
  55. //outData[j + 3] = 10 + inData[j + 3];//A
  56. }
  57. }
  58. return outImage;
  59. }
  60. /*避免乘法*/
  61. cv::Mat fast_ergodic2(cv::Mat image) {
  62. int rows = image.rows;
  63. int cols = image.cols;
  64. /*使用常量会比变量快,因此当图像通道确定时,请将chans改为数字常量,如1,3,4等*/
  65. //int chans = image.channels();
  66. cv::Mat outImage = cv::Mat::zeros(image.size(), image.type());
  67. cols *= chans;
  68. for (int i = 0; i < rows; i++)
  69. {
  70. uchar* inData = image.ptr<uchar>(i);
  71. uchar* outData = outImage.ptr<uchar>(i);
  72. for (int j = 0; j < cols; j += chans)
  73. {
  74. outData[j] = 10 + inData[j];//B
  75. outData[j + 1] = 10 + inData[j + 1];//G
  76. outData[j + 2] = 10 + inData[j + 2];//R
  77. //outData[j + 3] = 10 + inData[j + 3];//A
  78. }
  79. }
  80. return outImage;
  81. }
  82. /*一般的指针遍历方法*/
  83. cv::Mat fast_ergodic1(cv::Mat image) {
  84. int rows = image.rows;
  85. int cols = image.cols;
  86. /*使用常量会比变量快,因此当图像通道确定时,请将chans改为数字常量,如1,3,4等*/
  87. //const int chans = image.channels();
  88. cv::Mat outImage = cv::Mat::zeros(image.size(), image.type());
  89. for (int i = 0; i < rows; i++)
  90. {
  91. uchar* inData = image.ptr<uchar>(i);
  92. uchar* outData = outImage.ptr<uchar>(i);
  93. for (int j = 0; j < cols; j++)
  94. {
  95. outData[j * chans] = 10 + inData[j * chans];//B
  96. outData[j * chans + 1] = 10 + inData[j * chans + 1];//G
  97. outData[j * chans + 2] = 10 + inData[j * chans + 2];//R
  98. //outData[j * chans + 3] = 10 + inData[j * chans + 3];//A
  99. }
  100. }
  101. return outImage;
  102. }
  103. int main() {
  104. string path = "D:\\imageEnhance\\images\\1.jpg";
  105. cv::Mat src = cv::imread(path);
  106. printf("image size = w=%d, h=%d\n", src.cols, src.rows);
  107. cv::Mat image1 = src.clone();
  108. cv::Mat image2 = src.clone();
  109. cv::Mat image3 = src.clone();
  110. cv::Mat image4 = src.clone();
  111. double T0 = static_cast<double>(cv::getTickCount());
  112. cv::Mat outImage1 = fast_ergodic1(image1);
  113. double T1 = static_cast<double>(cv::getTickCount());
  114. cv::Mat outImage2 = fast_ergodic2(image2);
  115. double T2 = static_cast<double>(cv::getTickCount());
  116. cv::Mat outImage3 = fast_ergodic3(image3);
  117. double T3 = static_cast<double>(cv::getTickCount());
  118. cv::Mat outImage4 = fast_ergodic4(image4);
  119. double T4= static_cast<double>(cv::getTickCount());
  120. printf("fast_ergodic1=%3.3fms\n", (T1 - T0) * 1000 / cv::getTickFrequency());
  121. printf("fast_ergodic2=%3.3fms\n", (T2 - T1) * 1000 / cv::getTickFrequency());
  122. printf("fast_ergodic3=%3.3fms\n", (T3 - T2) * 1000 / cv::getTickFrequency());
  123. printf("fast_ergodic4=%3.3fms\n", (T4 - T3) * 1000 / cv::getTickFrequency());
  124. //cv::imshow("src", src); cv::waitKey(30);
  125. //cv::imshow("outImage1", outImage1);
  126. //cv::imshow("outImage2", outImage2);
  127. //cv::imshow("outImage3", outImage3);
  128. //cv::imshow("outImage4", outImage4);
  129. cv::waitKey(0);
  130. }

 


防止图像Rect区域越界的好方法

     OpenCV的cv::Rect提供了很多实用的方法,可参考:http://blog.csdn.net/da_yuan8421/article/details/60959419:

     在对图像进行处理时,经常需要截取图像中的某一区域进行处理,如果截取的区域越界时,就容易导致图像崩溃。

  1. //求两个矩形的交集和并集
  2. rect = rect1 & rect2;
  3. rect = rect1 | rect2;
  4. //对矩形进行对比,返回布尔变量
  5. rect1 == rect2;
  6. rect1 != rect2;

   利用两个Rect的交集,我们可以很轻松的避免图像裁剪区域越界的情况,如下:

  1. Rect rect;
  2. rect.x = -10;
  3. rect.y = -10;
  4. rect.height = 100000;
  5. rect.width = 20000;
  6. rect &= Rect(0, 0, src.cols, src.rows);//求交集
  7. cv::Mat crop_img = src(rect);

    上例子,原图src的大小=200*200,需要裁剪为rect=[-10,-10,10000,20000],为了避免裁剪Rect越界,需要特殊的保护,最简单的方法就是,加入这句话:rect &= Rect(0, 0, src.cols, src.rows),这个交集的Rect肯定是不会越界。


获取OpenCV版本

  1. #define CV_VERSION_ID CVAUX_STR(CV_MAJOR_VERSION) CVAUX_STR(CV_MINOR_VERSION) CVAUX_STR(CV_SUBMINOR_VERSION)
  2. //若你OpenCV的版本是3.2.0,那麽输出为:
  3. cout << CV_VERSION_ID << endl;//320
  4. cout << CVAUX_STR(CV_MAJOR_VERSION) << endl;//3
  5. cout << CVAUX_STR(CV_MINOR_VERSION) << endl;//2
  6. cout << CVAUX_STR(CV_SUBMINOR_VERSION) << endl;//0

读写XML或者yml文件数据的

   read.xml文本内容:

  1. <?xml version="1.0"?>
  2. <opencv_storage>
  3. <TrainingData type_id="opencv-matrix">
  4. <rows>10</rows>
  5. <cols>8</cols>
  6. <dt>f</dt>
  7. <data>
  8. 10. 10. 10. 10. 10. 10. 10. 10.
  9. 11. 11. 11. 11. 11. 11. 11. 11.
  10. 12. 12. 12. 12. 12. 12. 12. 12.
  11. 13. 13. 13. 13. 13. 13. 13. 13.
  12. 14. 14. 14. 14. 14. 14. 14. 14.
  13. 15. 15. 15. 15. 15. 15. 15. 15.
  14. 16. 16. 16. 16. 16. 16. 16. 16.
  15. 17. 17. 17. 17. 17. 17. 17. 17.
  16. 18. 18. 18. 18. 18. 18. 18. 18.
  17. 19. 19. 19. 19. 19. 19. 19. 19.
  18. </data></TrainingData>
  19. <classes type_id="opencv-matrix">
  20. <rows>10</rows>
  21. <cols>1</cols>
  22. <dt>f</dt>
  23. <data>
  24. 0. 1. 2. 3. 4. 5. 6. 7. 8. 9.
  25. </data></classes>
  26. </opencv_storage>

OpenCV读写方法:

  1. //读xml_test.xml文本的数据
  2. FileStorage fs_read;
  3. Mat TrainningData;
  4. Mat Classes;
  5. string readPath = "D:\\SmartAlbum\\image1\\read.xml";
  6. bool bR = fs_read.open(readPath, FileStorage::READ);
  7. if (bR)
  8. {
  9. fs_read["TrainingData"] >> TrainningData;
  10. fs_read["classes"] >> Classes;
  11. cout << TrainningData << endl;
  12. cout << Classes << endl;
  13. }
  14. fs_read.release();
  15. //将数据写到xml_write.xml文本中 (若不存在会自动创建一个空的xml文件)
  16. string writePath = "D:\\SmartAlbum\\image1\\write.xml";
  17. cv::FileStorage fs_write;
  18. bool bW=fs_write.open(writePath, FileStorage::WRITE);
  19. if (bW)
  20. {
  21. fs_write << "TrainingData" << TrainningData;
  22. fs_write << "classes" << Classes;
  23. }
  24. fs_write.release();

     保存Vector数据的方法

  1. #include <vector>
  2. #include<algorithm>
  3. #include <iostream>
  4. #include <string>
  5. #include "opencv2/opencv.hpp"
  6. using namespace std;
  7. using namespace cv;
  8. template<typename _Tp>
  9. void saveVector(FileStorage &fs, vector<_Tp> v,string nodeName) {
  10. fs << nodeName << "["; // 开始时,先输入"["
  11. for (size_t i = 0; i < v.size(); i++)
  12. {
  13. fs << v.at(i);
  14. }
  15. fs << "]";
  16. }
  17. template<typename _Tp>
  18. bool readVector(FileStorage &fs, vector<_Tp> &v, string nodeName) {
  19. FileNode n = fs[nodeName];
  20. if (n.type() != FileNode::SEQ)
  21. {
  22. cout << "err" << endl;
  23. return false;
  24. }
  25. FileNodeIterator it = n.begin(), it_end = n.end();
  26. for (; it != it_end; ++it) {
  27. v.push_back((_Tp)*it);
  28. }
  29. return true;
  30. }
  31. int main()
  32. {
  33. string savePath = "D:\\SmartAlbum\\image1\\data.xml";
  34. vector<string> imageName;
  35. imageName.push_back("image1.jpg");
  36. imageName.push_back("image2.jpg");
  37. imageName.push_back("image3.jpg");
  38. vector<int> level;
  39. level.push_back(1);
  40. level.push_back(2);
  41. level.push_back(3);
  42. FileStorage fw;
  43. string nodeName1 = "imageName";
  44. string nodeName2 = "level";
  45. //将数据写到xml_write.xml文本中 (若已存在该文件,则会清空当前文件内容再写入)
  46. if (fw.open(savePath, FileStorage::WRITE)) {
  47. saveVector<string>(fw, imageName, nodeName1);
  48. saveVector<int>(fw, level, nodeName2);
  49. }
  50. fw.release();
  51. //读取文件内容
  52. vector<string> imageName2;
  53. vector<int> level2;
  54. string readPath = savePath;
  55. FileStorage fr;
  56. if (fr.open(readPath, FileStorage::READ)) {
  57. readVector<string>(fr, imageName2, nodeName1);
  58. readVector<int>(fr, level2, nodeName2);
  59. }
  60. fr.release();
  61. system("pause");
  62. return 0;
  63. }

若不未知结点名称,可以直接遍历文件的结点,访问元素,如:

  1. cv::FileStorage pfs(fileToRead, cv::FileStorage::READ);
  2. cv::FileNode fn = pfs.root();
  3. for (cv::FileNodeIterator fit = fn.begin(); fit != fn.end(); ++fit)
  4. {
  5. cv::FileNode item = *fit;
  6. std::string somekey = item.name();//可以获得node的名称
  7. std::cout << somekey << std::endl;
  8. }

Mat矩阵的运算,易错的问题

       注意Mat矩阵可以进行加减乘除的基本运算,但一个int型的常数和一个Scalar类型的常数进行运算是有区别的,以“+”为例子(也可以用cv::add()代替)

  1. cv::Mat test = cv::Mat::zeros(cv::Size(100,100), CV_8UC3);
  2. cv::Mat test1 = test + 128;//仅第1通道被赋值为128
  3. cv::Mat test2 = test + cv::Scalar(128, 128, 128);//三个通道都被赋值为128

Mat和IplImage相互转换

     Mat 是OpenCV和C++的接口矩阵类,ImlImage是OpenCV和C语言的接口的结构体,但是C++程序有时候时候还是要用到ImlImage,例如在MFC中的Picture Control显示图片。Mat和IplImage相互转换方法:

  1. //IplImage—>Mat
  2. //EXAMPLE:
  3. //浅拷贝:
  4. IplImage* pBinary=cvLoadImage("c://temp.jpg",0);
  5. Mat Img;
  6. Img=cvarrToMat(pBinary);
  7. //深拷贝只需要再在Mat里创建一个新的Mat对象,然后进行数据的复制,再用上述的函数进行数据头的复制(浅拷贝):
  8. IplImage* pBinary=cvLoadImage("c://temp.jpg", 0);
  9. Mat ImgTemp;
  10. Img=cvarrToMat(pBinary);
  11. Mat Img = ImgTemp.clone();
  12. //Mat—>IplImage
  13. //EXAMPLE:
  14. //浅拷贝:
  15. Mat Img=imread("1.jpg");
  16. IplImage* pBinary = &IplImage(Img);
  17. //深拷贝只要再加一次复制数据:
  18. IplImage *input = cvCloneImage(pBinary);

       https://blog.csdn.net/lijiayu2015/article/details/52438160


Mat::data指针讲解

       http://lib.csdn.net/article/opencv/24030


OpenCV Mat数据类型及位数总结

  1. char ->CV_8SC
  2. unsigned char,uchar ->CV_8UC
  3. unsigned short int,ushort->CV_16UC
  4. short int->CV_16SC
  5. int ->CV_32SC
  6. float ->CV_32FC
  7. double->CV_64FC

float:  4字节,6-7位有效数字 -3.4E-38 到 3.4E38    
double: 8字节,15~16位有效数字 -1.7E-308 到 1.7E308

    在OpenCV里面,许多数据结构为了达到內存使用的最优化,通常都会用它最小上限的空间来分配变量,有的数据结构也会因为图像文件格式的关系而给予适当的变量,因此需要知道它们声明的空间大小来配置适当的变量。一 般标准的图片,为RGB格式它们的大小为8bits格式,范围为0~255,对一个int空间的类型来说实在是太小,整整浪费了24bits的空间,假设有个640*480的BMP文件空间存储內存,那整整浪费了640*480*3*(32-8)bits的內存空间,总共浪费了2.6MB!,也就是那 2.6MB内什么东西都没存储,如果今天以8bits的格式来存储则只使用到0.6MB的內存而已(640*480*3*(8)+54 bits),因此,对于文件格式的对应是一件很重要的事。
    在这边除了要考虑bits的空间大小外,还要考虑使用类型的正负号的问题,一般的图像文件是不存在负号的,如果今天即使选则正确的空间大小,可是出现的结果却是负的,那就功亏一篑了。这里除了Float及double类型,char,int,short int都是用二的补数表示法,它们不具正负号bit,而Float,double则是用IEEE 754,在第32bit,64bit上有一个正负号bit.

cvCreateImage()及cvCreateMat()对应

1.Unsigned 8bits(一般的图像文件格式使用的大小)
IplImage数据结构参数:IPL_DEPTH_8U
CvMat数据结构参数:CV_8UC1,CV_8UC2,CV_8UC3,CV_8UC4

变量类型 空间大小 范围 其他
uchar 8bits 0~255 (OpenCV缺省变量,同等unsigned char)
unsigned char 8bits 0~255  

 

2.Signed 8bits
IplImage数据结构参数:IPL_DEPTH_8S
CvMat数据结构参数:CV_8SC1,CV_8SC2,CV_8SC3,CV_8SC4

 

变量类型 空间大小 范围 其他
char 8bits -128~127  

 

3.Unsigned 16bits
IplImage数据结构参数:IPL_DEPTH_16U
CvMat数据结构参数:CV_16UC1,CV_16UC2,CV_16UC3,CV_16UC4
 

变量类型 空间大小 范围 其他
ushort 16bits 0~65535 (OpenCV缺省变量,同等unsigned short int)
unsigned short int 16bits 0~65535 (unsigned short)

 

4.Signed 16bits
IplImage数据结构参数:IPL_DEPTH_16S
CvMat数据结构参数:CV_16SC1,CV_16SC2,CV_16SC3,CV_16SC4
 

变量类型 空间大小 范围 其他
short int 16bits -32768~32767 (short)

 

5.Signed 32bits
IplImage数据结构参数:IPL_DEPTH_32S
CvMat数据结构参数:CV_32SC1,CV_32SC2,CV_32SC3,CV_32SC4
 

变量类型 空间大小 范围 其他
int 32bits -2147483648~2147483647 (long)

 

6.Float 32bits

IplImage数据结构参数:IPL_DEPTH_32F
CvMat数据结构参数:CV_32FC1,CV_32FC2,CV_32FC3,CV_32FC4
 

变量类型 空间大小 范围 其他
float 32bits 1.18*10-38~3.40*1038  

 

7.Double 64bits

CvMat数据结构参数:CV_64FC1,CV_64FC2,CV_64FC3,CV_64FC4
 

变量类型 空间大小 范围 其他
double 64bits 2.23*10-308~1.79*10308  

 

8.Unsigned 1bit

IplImage数据结构参数:IPL_DEPTH_1U

变量类型 空间大小 范围 其他
bool 1bit 0~1  

 

其他变量对应

1.Signed 64bits

int64

long long

2.Unsigned 64 bits

uint64

unsigned long long


Mat矩阵插入新的矩阵

  1. enum insertType
  2. {
  3. Top = 0,
  4. Bottom = 1,
  5. Left = 2,
  6. Right = 3
  7. };
  8. /*
  9. * cv::Mat src:原始数据矩阵
  10. * cv::Mat inMat:被插入的数据矩阵
  11. * insertType fea_type:插入类型:
  12. Top = 0 //在src矩阵顶部插入矩阵inMat
  13. Bottom = 1 //在src矩阵低部插入矩阵inMat
  14. Left = 2 //在src矩阵左部插入矩阵inMat
  15. Right = 3 //在src矩阵右部插入矩阵inMat
  16. */
  17. cv::Mat insertMat(cv::Mat src, cv::Mat inMat,insertType type) {
  18. cv::Mat dest= src.clone();
  19. int inNum = 0;
  20. if (type== Top)
  21. {
  22. inNum = inMat.rows;
  23. cv::copyMakeBorder(dest, dest, inNum, 0, 0, 0, cv::BORDER_CONSTANT, cv::Scalar(0, 0, 0, 0));
  24. cv::Rect r(0, 0, dest.cols, inNum);
  25. inMat.copyTo(dest(r));
  26. }else if(type == Bottom)
  27. {
  28. inNum = inMat.rows;
  29. cv::copyMakeBorder(dest, dest, 0, inNum,0, 0, cv::BORDER_CONSTANT, cv::Scalar(0, 0, 0, 0));
  30. cv::Rect r(0, dest.rows - inNum, dest.cols, inNum);
  31. inMat.copyTo(dest(r));
  32. }else if (type == Left)
  33. {
  34. inNum = inMat.cols;
  35. cv::copyMakeBorder(dest, dest, 0, 0, inNum, 0, cv::BORDER_CONSTANT, cv::Scalar(0, 0, 0, 0));
  36. cv::Rect r(0, 0, inNum, dest.rows);
  37. inMat.copyTo(dest(r));
  38. }else if (type == Right)
  39. {
  40. inNum = inMat.cols;
  41. cv::copyMakeBorder(dest, dest, 0, 0, 0, inNum, cv::BORDER_CONSTANT, cv::Scalar(0, 0, 0, 0));
  42. cv::Rect r(dest.cols- inNum, 0, inNum, dest.rows);
  43. inMat.copyTo(dest(r));
  44. }
  45. return dest;
  46. }

颜色空间缩减的方法

  1. cv::Mat CreatTable(int level) {
  2. Mat lookUpTable(1, 256, CV_8UC1);
  3. uchar *p = lookUpTable.data;
  4. int div = 256 / level;
  5. for (size_t i = 0; i < 256; i++)
  6. {
  7. p[i] = (i / div)*div;
  8. }
  9. return lookUpTable;
  10. }
  11. static cv::Mat lookUpTable = CreatTable(64);
  12. void main() {
  13. string p1= "D:\\SmartAlbum\\image1\\B\\B15.jpg";
  14.     cv::Mat image1 = cv::imread(p1);
  15.     cv::Mat dest;
  16.     cv::LUT(image1, lookUpTable2, dest);
  17.     cv::waitKey(0);
  18. }

YUV444,YUV422,YUV420解释

https://blog.csdn.net/mandagod/article/details/78605586

     通常我们用RGB表示一种彩色。计算机系统里的LCD显示的数据就是RGB来表示每个像素的颜色。
而在我们生活里,有黑白电视机与彩色电视机两种,拍摄节目源时不可以用两种不同的摄像机来存放两种图像数据。
所以为了兼容两种电视机,专家就引入YUV格式代替RGB,其中Y表示亮度, U和V表示色差。 黑白电视机只用Y信号, 而彩色电视机可由YUV转换成RGB再显示颜色。

     通常我们所用的YUV格式是 ITU-R 的标准 , 也叫YCbCr。YUV是由RGB格式的数据转换得来。

  1. Y Y = 0.299 x R + 0.587 x G + 0.114 x B + 0
  2. U Cb = -0.169 x R - 0.331 x G + 0.499 x B + 128
  3. V Cr = 0.499 x R - 0.418 x G - 0.0813 x B + 128
  4. Y Y = 0.299 x R + 0.587 x G + 0.114 x B + 0
  5. U Cb = -0.169 x R - 0.331 x G + 0.499 x B + 128
  6. V Cr = 0.499 x R - 0.418 x G - 0.0813 x B + 128

YUV4:4:4 
     其实就是YUV的数据各占用8位, 每个像素都由YUV组成

  1. 同一行的相邻4个像素数据: Y0U0V0 Y1U1V1 Y2U2V2 Y3U3V3

  2. 存储时: Y0 U0 V0 Y1 U1 V1 Y2 U2 V2 Y3 U3 V3 //即每个像素YUV的数据都会存放起来

  3. 为什么叫4:4:4 , 意思就是4个像素里的数据有4个Y, 4个U, 4个V

YUV4:2:2
     其实绝大部分相邻的两个像素,数据差异应不大。所以为了节点空间便于存储,丢失每个像素的部分数据。
     专家研究表明我们人对亮度比较敏感,而对色彩不怎么敏感。所以每个像素的亮度Y数据是绝对不动的,而色差数据可以进行丢弃。

  1. 同一行的相邻4个像素数据: Y0U0V0 Y1U1V1 Y2U2V2 Y3U3V3

  2. 存储时: Y0 U0 Y1 V1 Y2 U2 Y3 V3 // 每两个相邻的像素, 一个丢弃V数据,一个丢弃U数据

  3. 为什么叫4:2:2, 意思就是相邻的4个像素里有4个Y, 2个U, 2个V。 按上面存储的顺序也叫YUYV.

  4. 但还原成RGB数据必须需要YUV, 像第一个像素只有Y0U0是没法还原的,这时只能用下一像素的V1数据。

  5. 还原时的YUV: [Y0U0V1] [Y1U0V1] [Y2U2V3] [Y3U2V3] //这样还原理论上会对图像的质量有影响的,但我们看不出来的.

YUV4:2:0
     专家们进一步研究表示,每一行的相邻两个像素与下一行同位置的两个像素数据差异不大,可以进一步的丢数据。

  1. 如两行的像素数据:

  2. Y00U00V00 Y01U01V01 Y02U02V02 Y03U03V03 ....

  3. Y88U88V88 Y89U89V89 Y90U90V90 Y91U91V91 ....

  4.  
  5. 存储时: Y00U00 Y01 Y02U02 Y03 //每个像素的Y数据保留, 两个像素数据只保留一个U数据。这一行不保留V数据(YUV: 420)

  6. Y88V88 Y89 Y90V90 Y91 // .... 两个像素数据只保留一个V数据, 这行不保留U数据(YUV: 402)

  7.  
  8. 还原时只能相同位置的上下两行4个像素结合还原:

  9. Y00U00V88 Y01U00V88 Y02U02V90 Y03U02V90

  10. Y88U00V88 Y89U00V88 Y90U02V90 Y91U02V90

     yuv数据还分成打包的,平面的。
     打包的意思是: yuv数据是顺序存放Y,接着U,再接着V数据存放。
     平面的意思是: yuv数据是分成三个地方存放, 一个地方只存Y数据, 一个只存U数据, 一个只存V数据

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多