• <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>

            關于雙目立體視覺的一些總結(二)

            https://blog.csdn.net/u014629875/article/details/51340144

            上一篇只是對于雙目立體視覺做了一個簡單的介紹,這里就我在做這個的時候碰到的一些問題做一個梳理。
            1.
            首先要糾正一下之前一個錯誤:cvRemap函數只接受灰度圖。其實這個函數要求src與dst大小格式通道必須一致就行,并不需要一定為灰度數據。當時下這個結論主要是因為被OpenCV的圖像矩陣數據格式搞得很暈,為了先出個結果。后來有了要輸出三通道數據的需要,倒是研究了一下OpenCV圖像的數據格式。 
            矩陣元素類型包括了兩部分信息,首先是元素數據的類型,還有就是該元素包含的通道個數。
            /*Mat_<uchar>對應的是CV_8U,Mat_<uchar>對應的是CV_8U,Mat_<char>對應的是CV_8S,Mat_<int>對應的是CV_32S,Mat_<float>對應的是CV_32F,Mat_<double>對應的是CV_64F*/
            #define CV_8U   0
            #define CV_8S   1   
            #define CV_16U  2
            #define CV_16S  3
            #define CV_32S  4
            #define CV_32F  5
            #define CV_64F  6
            1
            2
            3
            4
            5
            6
            7
            8
            9
            灰度圖就用CV_8U,三通道圖就用CV_8UC3,像我得出的視差圖數據就用CV_16S來存儲,三維坐標信息的數據就用CV_32FC3的類型,總之按需求定。
            2.
            通過雙目獲取物體的三維信息之后,我的目標是把這個三維信息投影到地面平面上進行分析,所以需要建立空間坐標系與地面平面坐標系之間的轉化關系。 
            由于我只需要一個投影面,并不需要關注這個面是不是就是地面,只需要與地面平行即可,所以并不需要事先測定地面,這樣的話建立轉化就簡單了很多。
            從左片中取一些地面上的像素點,計算出它們在空間坐標系中的三維坐標,用最小二乘擬合出這些點所在的平面Ax+By+Cz = D;
            空間坐標系是以左相機光心為原點,視軸為Z軸,基線為X軸(方向指向右相機)的右手系。由于我只要求一個投影平面,坐標系可以任意,不妨取上述擬合平面Ax+By+Cz = D與Z軸的交點為地面平面坐標系的原點o,與X軸的交點作為x軸正半軸上的點,由此可建立一個地面投影面的坐標系。
            幾個坐標點:o(0,0,D);x(DADA,0,0);Y(-DA,D+DA2BD+DA2B,0)。可得到幾個坐標向量:ox = (DADA,0,-D);oy = (-DA,D+DA2BD+DA2B,-D);oz = (A,B,C);
            假設空間中有一個點S(Xs,Ys,Zs);向量oS = (Xs,Ys,Zs - D);現在要求S在xoy平面上的投影,記作p。oS在oz上的投影為h = os⋅oz|oz|⋅ozos·oz|oz|·oz;所以op = oS - h,得到op之后求它在ox和oy上的投影即可得到投影面上的二維坐標。
            這樣三維信息就投影到了地面上,可以進行分析了。
            3.
            我需要把相機拍攝的運動物體(行人)提取出來,目前用的最多的有兩種方法: 
            (1)基于背景建模: 
            利用背景建模方法,提取出前景運動的目標,在目標區域內進行特征提取,然后利用分類器進行分類,判斷是否包含行人;
            (2)基于統計學習的方法: 
            目前行人檢測最常用的方法,根據大量的樣本構建行人檢測分類器。提取的特征主要有目標的灰度、邊緣、紋理、顏色、梯度直方圖等信息。
            由于當前時間較緊,現階段只有背景建模提取前景的方法,后續會嘗試將兩者結合使用。 
            我用的是最簡單的方法,即幀差法,有兩種普遍的方法,一種是前后幀相減,一種是三幀法,簡要代碼如下:
            /*前后幀相減*/
            VideoCapture video("../camera.avi");
            Mat img1, img2, gray1, gray2, grayDiff;
            int diff_threshold = 20;  //幀差閾值
            while(1)
            {
                video.read(img1);
                objectDetector(img1);
                cvtColor(img1,gray1,CV_BGR2GRAY);
                video.read(img2);
                cvtColor(img2,gray2,CV_BGR2GRAY);
                subtract(gray1,gray2,grayDiff);
                for(int i = 0; i < grayDiff.rows; ++i)
                {
                    for(int j = 0; j < grayDiff.cols; ++j)
                    {
                        if( abs(grayDiff.at<uchar>(i,j)) >= diff_threshold )
                        {
                            grayDiff.at<uchar>(i,j) = 255;
                        }
                        else
                        {
                            grayDiff.at<uchar>(i,j) = 0;
                        }
                    }
                }
                imshow("background",gray1);
                imshow("zhencha",grayDiff);
                char c = cvWaitKey(33);
                if(c == 27)
                    break;
            }
            1
            2
            3
            4
            5
            6
            7
            8
            9
            10
            11
            12
            13
            14
            15
            16
            17
            18
            19
            20
            21
            22
            23
            24
            25
            26
            27
            28
            29
            30
            31
            32
            33
            34
            35
            36
            /*三幀法*/
            VideoCapture video("../camera.avi");
            Mat img1, img2, gray1, gray2;
            Mat img3, gray3, grayDiff1, grayDiff2;
            int diff_threshold = 20;  //幀差閾值
            while(1)
            {
                video.read(img1);
                video.read(img2);
                video.read(img3);
                cvtColor(img1,gray1,CV_BGR2GRAY);
                cvtColor(img2,gray2,CV_BGR2GRAY);
                cvtColor(img3,gray3,CV_BGR2GRAY);
                subtract(gray1,gray2,grayDiff1);
                subtract(gray2,gray3,grayDiff2);
                for(int i = 0; i < grayDiff1.rows; ++i)
                {
                    for(int j = 0; j < grayDiff2.cols; ++j)
                    {
                        if( abs(grayDiff1.at<uchar>(i,j)) >= diff_threshold )
                        {
                            grayDiff1.at<uchar>(i,j) = 255;
                        }
                        else
                        {
                            grayDiff1.at<uchar>(i,j) = 0;
                        }
                        if( abs(grayDiff2.at<uchar>(i,j)) >= diff_threshold )
                        {
                            grayDiff2.at<uchar>(i,j) = 255;
                        }
                        else
                        {
                            grayDiff2.at<uchar>(i,j) = 0;
                        }
                    }
                }
                bitwise_and(grayDiff1,grayDiff2,grayDiff);//和運算
                imshow("background",img2);
                imshow("zhencha",grayDiff);
                char c = cvWaitKey(33);
                if(c == 27)
                    break;
            }
            1
            2
            3
            4
            5
            6
            7
            8
            9
            10
            11
            12
            13
            14
            15
            16
            17
            18
            19
            20
            21
            22
            23
            24
            25
            26
            27
            28
            29
            30
            31
            32
            33
            34
            35
            36
            37
            38
            39
            40
            41
            42
            43
            44
            45
            46
            47
            48
            得到前景之后就可以利用之前建立的坐標系轉換得到人在地面上的投影,即我需要使用的深度信息。 
            --------------------- 
            作者:Array03 
            來源:CSDN 
            原文:https://blog.csdn.net/u014629875/article/details/51340144 
            版權聲明:本文為博主原創文章,轉載請附上博文鏈接!

            posted on 2018-11-13 14:54 zmj 閱讀(302) 評論(0)  編輯 收藏 引用

            日韩精品久久久久久久电影蜜臀| 色婷婷久久久SWAG精品| 久久99精品久久久久婷婷| 国产成人久久激情91| 久久免费小视频| 亚洲午夜久久久| 国产亚洲综合久久系列| 久久电影网| 久久A级毛片免费观看| 国产亚州精品女人久久久久久 | 2022年国产精品久久久久| 日本久久久精品中文字幕| 久久久亚洲欧洲日产国码是AV | 久久国产精品免费| 久久婷婷五月综合色高清| 久久精品国产72国产精福利| 久久亚洲精品中文字幕| 天天做夜夜做久久做狠狠| 66精品综合久久久久久久| 午夜久久久久久禁播电影| 看全色黄大色大片免费久久久| 亚洲精品无码久久一线| 中文字幕精品久久| 久久久久国产亚洲AV麻豆| 四虎国产永久免费久久| 久久91亚洲人成电影网站| 色偷偷久久一区二区三区| 亚洲午夜久久久影院| 久久综合久久综合亚洲| 久久久人妻精品无码一区| 国产伊人久久| 狠狠人妻久久久久久综合蜜桃| 久久夜色精品国产亚洲| 久久亚洲高清观看| 国产精品美女久久久网AV| 国产69精品久久久久9999| 国产精品免费看久久久香蕉| 久久久久久久尹人综合网亚洲| .精品久久久麻豆国产精品| 久久夜色精品国产亚洲| 国产精品美女久久久久AV福利|