Log-Polar変換なのですが、霊長類の網膜のモデルらしいです。
中心部は解像度が高いのですが、周辺部は低いという特性らしいです。

以下のような式で変換をします。(極座標変換でのrにlogをとったものです。)
logpolar.png


ですが、今まで行った回転のときのように、どの変換先の座標は元画像のどの位置を参照するかと考えます。
すなわち以下の逆変換を使います。
logpolar2.png



ソース


OpenCVのやりかたを真似したため、一部のみ抜粋です。
bmpが入力画像、lpcが出力画像です。
また、Mはformから入力された値を使用しました。256x256だと40くらいがよさそうです。
BiLinearInterpolationは以前の補間のさいに使用したものです。

画像を回転させる際の画素を補間するコード | 詠み人知らずの備忘録


Bitmap lpc = new Bitmap(bmp.Width, bmp.Height);

int cx = lpc.Width / 2;
int cy = lpc.Height / 2;

double M = Convert.ToDouble(textBox1.Text);

for (int i = 0; i < lpc.Width; i++)
{
    for (int j = 0; j < lpc.Height; j++)
    {
        double r = Math.Exp((double)i / (double)M);
        double x = r * Math.Cos(2 * Math.PI * j / lpc.Height) + cx;
        double y = r * Math.Sin(2 * Math.PI * j / lpc.Height) + cy;
        
        if (0 < x && x < bmp.Width - 1 && 0 < y && y < bmp.Height - 1)
        {
            Color bmpCol = BiLinearInterpolation(x, y, bmp);
            lpc.SetPixel(i, j, bmpCol);
        }

    }
}



結果

変換した結果、(x,y)と(rho,phi)の関係がどのような対応になるのかは、下記のサイトがイメージがつきやすいと思います。
Log polar transform - Rhea



※クリックで拡大します。

【元画像】
Lenna

【変換画像】
Lenna_log.png

【元画像】
Lenna_90.png

【変換画像】
Lenna_log90.png



画像の回転が、変換後の画像の下への移動としてあらわされています。
この考え方を、位相限定相関法(POC)と供に使用すると、角度のズレを判別できるためより便利な手法となります。(RIPOCという手法らしいです。)

位相限定相関法(POC) - スズメレンダラー・クマ将棋の開発日記

以前、Matlab(Octave)で実装した。
位相限定相関法(POC)




位相画像をOpenCVSharpで実装した
位相画像をC#とOpenCVSharpで実装

の続きです。

ソース

ソースはクラスもきちんと作れていないし、汚いソースなので紙面の都合上、肝の部分だけ抜粋します。

あとバグがありそうですので・・・見つけたらオシエテクダサイ。

// DFT用の最適サイズを計算し,そのサイズを返却する。
public static int GetOptimalDFTSize(int size)
{
    return Cv.GetOptimalDFTSize(size);
}

public static CvMat dft(IplImage img)
{
    IplImage reimg = Cv.CreateImage(img.Size, BitDepth.F64, 1);
    IplImage imimg = Cv.CreateImage(img.Size, BitDepth.F64, 1);
    IplImage cmpimg = Cv.CreateImage(img.Size, BitDepth.F64, 2);

    // (1)入力画像を実数配列にコピーし,虚数配列とマージして複素数平面を構成
    Cv.Scale(img, reimg, 1.0, 0.0);
    Cv.Zero(imimg);
    Cv.Merge(reimg, imimg, null, null, cmpimg);

    // (2)DFT用の最適サイズを計算し,そのサイズで行列を確保する
    int dft_M = GetOptimalDFTSize(img.Height);
    int dft_N = GetOptimalDFTSize(img.Width);

    CvMat dft_A = Cv.CreateMat(dft_M, dft_N, MatrixType.F64C2);

    // (3)複素数平面をdft_Aにコピーし,残りの行列右側部分を0で埋める
    CvMat tmp;
    Cv.GetSubRect(dft_A, out tmp, new CvRect(0, 0, img.Width, img.Height));
    Cv.Copy(cmpimg, tmp, null);
    if (dft_A.Cols > img.Width)
    {
        Cv.GetSubRect(dft_A, out tmp, new CvRect(img.Width, 0, dft_A.Cols - img.Width, img.Height));
        Cv.Zero(tmp);
    }

    // (4)離散フーリエ変換を行う
    Cv.DFT(dft_A, dft_A, DFTFlag.Forward, cmpimg.Height);
    //Cv.Split(dft_A, image_Re, image_Im, null, null);

    return dft_A;
}

public static IplImage idft(CvMat dft)
{
    // DFT用の最適サイズを計算し,そのサイズで行列を確保する
    int dft_M = GetOptimalDFTSize(dft.Height);
    int dft_N = GetOptimalDFTSize(dft.Width);
    IplImage img_Re = Cv.CreateImage(new CvSize(dft_N, dft_M), BitDepth.F64, 1);
    IplImage img_Im = Cv.CreateImage(new CvSize(dft_N, dft_M), BitDepth.F64, 1);

    // 逆変換
    Cv.DFT(dft, dft, DFTFlag.Inverse, dft_N);

    // 逆変換した画像を表示用の変数に格納
    Cv.Split(dft, img_Re, img_Im, null, null);

    return img_Re;
}

public static CvMat Conj(CvMat dft)
{
    int dft_M = Image.GetOptimalDFTSize(dft.Height);
    int dft_N = Image.GetOptimalDFTSize(dft.Width);

    using (CvMat srcRe = Cv.CreateMat(dft_M, dft_N, MatrixType.F64C1))
    using (CvMat srcIm = Cv.CreateMat(dft_M, dft_N, MatrixType.F64C1))
    {
        // 実部と虚部に分解
        Cv.Split(dft, srcRe, srcIm, null, null);
        for (int i = 0; i < dft_M; i++)
        {
            for (int j = 0; j < dft_N; j++)
            {
                srcIm[i, j] = -1 * srcIm[i, j];
            }
        }
        // 実部・虚部で計算した値をマージする
        Cv.Merge(srcRe, srcIm, null, null, dft);
    }
    return dft;
}

public static IplImage PhaseOnlyCorrelation(IplImage img1, IplImage img2)
{
    int dft_M = Image.GetOptimalDFTSize(img1.Height);
    int dft_N = Image.GetOptimalDFTSize(img1.Width);

    IplImage img = Cv.CreateImage(new CvSize(dft_M, dft_N), BitDepth.F64, 1);
    CvMat dft1 = Cv.CreateMat(dft_M, dft_N, MatrixType.F64C2);
    CvMat dft2 = Cv.CreateMat(dft_M, dft_N, MatrixType.F64C2);
    CvMat result = Cv.CreateMat(dft_M, dft_N, MatrixType.F64C2);

    // フーリエ変換
    dft1 = Image.dft(img1);
    // フーリエ変換後に複素共役にする
    dft2 = Image.Conj(Image.dft(img2));

    using (IplImage srcRe1 = Cv.CreateImage(new CvSize(dft_N, dft_M), BitDepth.F64, 1))
    using (IplImage srcIm1 = Cv.CreateImage(new CvSize(dft_N, dft_M), BitDepth.F64, 1))
    using (IplImage srcRe2 = Cv.CreateImage(new CvSize(dft_N, dft_M), BitDepth.F64, 1))
    using (IplImage srcIm2 = Cv.CreateImage(new CvSize(dft_N, dft_M), BitDepth.F64, 1))
    using (IplImage dstRe = Cv.CreateImage(new CvSize(dft_N, dft_M), BitDepth.F64, 1))
    using (IplImage dstIm = Cv.CreateImage(new CvSize(dft_N, dft_M), BitDepth.F64, 1))
    {
        // フーリエ変換した画像を実部と虚部に分解
        Cv.Split(dft1, srcRe1, srcIm1, null, null);
        Cv.Split(dft2, srcRe2, srcIm2, null, null);

        for (int i = 0; i < dft_M; i++)
        {
            for (int j = 0; j < dft_N; j++)
            {
                // 画像をかけあわせる F×G*
                dstRe[i, j] = srcRe1[i, j] * srcRe2[i, j] - srcIm1[i, j] * srcIm2[i, j];
                dstIm[i, j] = srcRe1[i, j] * srcIm2[i, j] + srcRe2[i, j] * srcIm1[i, j];

                // 絶対値を計算しその値で割る |F×G*|
                double spectrum = Math.Sqrt(dstRe[i, j] * dstRe[i, j] + dstIm[i, j] * dstIm[i, j]);
                dstRe[i, j] = dstRe[i, j] / spectrum;
                dstIm[i, j] = dstIm[i, j] / spectrum;
            }
        }
        // 計算結果を統合する
        Cv.Merge(dstRe, dstIm, null, null, result);
    }

    // 逆フーリエ変換
    img = idft(result);

    // データを解放
    dft1.Dispose();
    dft2.Dispose();
    result.Dispose();

    return img;
}



しかし、OpenCVって複素数をサポートしていないのかなぁ・・・
チャンネル毎に行うのはちょっと面倒で計算ミスが起こりそう・・・


結果

今回も画像はnashruddin.com - Phase Correlation in OpenCVさんから拝借したもので、行いました。


結果は以下のようになるようです。

相関値:0.6344
移動距離:(6,15)



1.jpg 2.jpg

POCを行ったグラフ
左上に白い点がありますが、そこがピーク値です。
POC1.png


ちなみに、私の計算結果は・・・
相関値:0.5904
移動距離:(6,15)



・・・あれ?ちょっと相関値が違う・・・
移動させた距離はあっているのだけどなぁ・・・


しばらく放置してしまいました。新年一つ目の内容は画像の拡大・縮小にしました。



画像を拡大・縮小させる場合は、回転させる場合と同様に考えます。
つまり、outputの画像の座標から必要なinputの画像の座標を求めて画素値を取得します。

コードは以下のように考えました。
Scaleが取得した拡大率になります。
for (int i = 0; i < bitmap.Width; i++)
{
    for (int j = 0; j < bitmap.Height; j++)
    {
        double x = i / Scale;
        double y = j / Scale;

        if (chk[flag](x, y, bmp))
        {
            Color bmpCol = func[flag](x, y, bmp);
            bitmap.SetPixel(i, j, bmpCol);
        }
    }
}


前回同様処理の肝の部分だけ書きました。
delegateを用いてfunc内で使用する補間用のメソッドを切り替えています。 詳細なコードは、
画像を回転させる際の画素を補間するコード
で記載した補間方法を使用しています。

拡大(1.3倍)

【ニアレストネイバー】
Near13.png


【バイリニア】
bilinear13.png


【バイキュービック】
bicubic13.png


【Lanczos2】
Lan2_13.png


バイリニアは若干ぼやけているように見えます。
下二つの違いがあるのですかねぇ・・・

縮小(0.75倍)

【ニアレストネイバー】
Near075.png


【バイリニア】
bilinear075.png


【バイキュービック】
bicubic075.png


【Lanczos2】
Lan2_075.png


ギザギザが目立つようです・・・
縮小の場合は低域通過フィルターで高域をカットしないとダメなようです。

以前行った。射影変換lでは変換したい座標をあらかじめ配列に格納して実行していましたが、
Pictureboxでクリックした座標を取得して変換を行います。

C#とOpenCVSharpを使って行います。

ソース

ソースは以下のようになります。

pictureBox1_MouseDownの引数「MouseEventArgs e」にてpictureboxをクリックした座標を取得できます。

プログラムとしては、4点pictureboxをクリックして、その後buttunを押すと、クリックした座標を使用して射影変換をします。
特にガードなど細かいことはしていませんのでご了承を・・・m(_ _)m
button1_Click、pictureBox1_MouseDownの部分が処理のメイン部分です。



using System;
using System.Collections.Generic;
using System.ComponentModel;
using System.Data;
using System.Drawing;
using System.Linq;
using System.Text;
using System.Windows.Forms;
using OpenCvSharp;
using OpenCvSharp.CPlusPlus;

namespace HomographyImage
{
    public partial class Form1 : Form
    {
        // 表示するBitmap  
        private Bitmap bmp = null;
        // 描画用Graphicsオブジェクト  
        private Graphics g = null;
        // クリック位置の描画用座標
        private Point[] point = new Point[4];
        private int clickcnt = 0;

        public Form1()
        {
            InitializeComponent();
        }

        private void UpdateForm(Bitmap bmp)
        {
            int margin = 50;
            int maxsize = 800;
            int width = maxsize;
            int height = maxsize;

            if (maxsize > bmp.Width)
            {
                width = bmp.Width;
            }
            if (maxsize > bmp.Height)
            {
                height = bmp.Height;
            }

            // Formのサイズを画像に応じて変更
            this.Width = pictureBox1.Location.X + width + margin;
            this.Height = pictureBox1.Location.Y + height + margin;

            pictureBox1.Height = height;
            pictureBox1.Width = width;

            // 画像を表示
            pictureBox1.Image = bmp;
        }


        private void 開くOToolStripMenuItem_Click(object sender, EventArgs e)
        {
            //「ファイルの種類」を設定
            openFileDialog1.Filter = "画像ファイル(BMP,JPEG,GIF,PNG)|*.bmp;*.jpg;*gif;*.png|すべてのファイル(*.*)|*.*";
            if (openFileDialog1.ShowDialog() == DialogResult.OK)
            {
                bmp = new Bitmap(openFileDialog1.FileName);

                // 表示を更新
                UpdateForm(bmp);
            }
        }

        private void 保存SToolStripMenuItem_Click(object sender, EventArgs e)
        {
            // ファイルのフィルタを設定する
            saveFileDialog1.Filter = "Jpeg Image|*.jpg|Bitmap Image|*.bmp|Gif Image|*.gif|PNG Image|*.png";

            saveFileDialog1.Title = "画像を保存";

            // 初期表示するファイル名を設定する
            saveFileDialog1.FileName = "";

            if (saveFileDialog1.ShowDialog() == DialogResult.OK)
            {
                Console.WriteLine(saveFileDialog1.FileName);
                string extension = System.IO.Path.GetExtension(saveFileDialog1.FileName);
                switch (extension.ToUpper())
                {
                    case ".JPEG":
                    case ".JPG":
                        pictureBox1.Image.Save(saveFileDialog1.FileName, System.Drawing.Imaging.ImageFormat.Jpeg);
                        break;
                    case ".BMP":
                        pictureBox1.Image.Save(saveFileDialog1.FileName, System.Drawing.Imaging.ImageFormat.Bmp);
                        break;
                    case ".GIF":
                        pictureBox1.Image.Save(saveFileDialog1.FileName, System.Drawing.Imaging.ImageFormat.Gif);
                        break;
                    case ".PNG":
                        pictureBox1.Image.Save(saveFileDialog1.FileName, System.Drawing.Imaging.ImageFormat.Png);
                        break;
                    default:
                        break;
                }
            }
        }

        private void 終了CToolStripMenuItem_Click(object sender, EventArgs e)
        {
            Environment.Exit(0);
        }

        private void pictureBox1_MouseDown(object sender, MouseEventArgs e)
        {
            if (bmp == null)
            {
                return;
            }

            // クリックした座標を取得
            point[clickcnt].X = e.X;
            point[clickcnt].Y = e.Y;

            //System.Diagnostics.Debug.WriteLine("({0},{1}) {2}", point[clickcnt].X, point[clickcnt].Y, clickcnt);

            // クリックした位置に点を描画
            g = pictureBox1.CreateGraphics();
            g.FillEllipse(Brushes.Aqua, point[clickcnt].X, point[clickcnt].Y, 10, 10);

            // 点の間でLineを引く
            if (clickcnt != 0)
            {
                Pen p = new Pen(Color.Aqua, 3);
                g.DrawLine(p, point[clickcnt], point[clickcnt - 1]);
                p.Dispose();
            }
            if (clickcnt == point.Length-1)
            {
                Pen p = new Pen(Color.Aqua, 3);
                g.DrawLine(p, point[clickcnt], point[(clickcnt + 1) % point.Length]);
                p.Dispose();
            }

            g.Dispose();

            clickcnt = (clickcnt + 1) % point.Length;
        }

        private void button1_Click(object sender, EventArgs e)
        {
            // クリックで取得した座標
            double[] a = new double[]{
                                point[0].X,point[0].Y,
                                point[1].X,point[1].Y,
                                point[2].X,point[2].Y,
                                point[3].X,point[3].Y
                                };

            // 変換先の頂点の座標
            double[] b = new double[]{
                                0, 0,
                                0, 511,
                                511, 511,
                                511, 0
                                };


            CvMat Mata = new CvMat(4, 2, MatrixType.F64C1, a);
            CvMat Matb = new CvMat(4, 2, MatrixType.F64C1, b);

            IplImage src = BitmapConverter.ToIplImage(bmp);
            IplImage dst = Cv.CreateImage(Cv.Size(512, 512), src.Depth, src.NChannels);

            //homography matrix
            CvMat homography = new CvMat(3, 3, MatrixType.F64C1);

            Cv.FindHomography(Mata, Matb, homography);
            Cv.WarpPerspective(src, dst, homography, Interpolation.Cubic);

            // pictureboxを更新
            UpdateForm(BitmapConverter.ToBitmap(dst));
        }

    }
}



結果

結果は以下のようになります。
クリックしていくたびに点が描画され領域が表示されます。


1_20121124221003.png


2_20121124221002.png


3_20121124221001.png


4_20121124221000.png


5.png


前回、前々回とバイリニア、バイキュービック補間を行っていましたが、
今回はLanczos(読めない)で行います。


参考にさせていただいたサイトは以下になります。理論的なところはこちらの方が詳しいです。
画像の拡大「Lanczos法」


結果

Lancoz2

Lancoz2.png


Lancoz3

Lancoz3.png


バイキュービック

Bicubic.png


どうやらうまくいっているようです。
FC2カウンター
プロフィール

詠み人知らず

Author:詠み人知らず
プログラム好きな名もなき凡人がお送りしています。(得意とは言っていない
最近の興味はPython、C#、Matlab(Octave)、画像処理、AR(拡張現実)、統計などなど・・・

気分で思いついたことを書くため話題に一貫性がないかもしれません。

カレンダー
03 | 2017/04 | 05
- - - - - - 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 - - - - - -
最新記事
タグクラウドとサーチ

カテゴリ
最新コメント
最新トラックバック
月別アーカイブ