您好,
会员登录 快速注册
退出 ( 条未读消息)
关于本站 意见反馈 首页

公告:小宅博客网可以开发票了,需要发票的,去群里找群主哈!!
全部文章分类
  • 人工智能 >

  • 编程语言 >

  • WPF系列 >

  • ASP.NET系列 >

  • Linux >

  • 数据库 >

  • 嵌入式 >

  • WEB技术 >

  • PLC系列 >

  • 微服务与框架 >

  • 小宅DIY >

  • 学习资料 >

OpenCv基础 ANN车牌识别 yolov5车牌识别 指针式仪表识别 ROS系列 YOLO Halcon Detectron2 昇腾AI ChatGPT在线体验 英伟达JETSON ChatGLM ChatTTS FunASR 地平线 ByteTrack 魔搭社区 LangChain
C C# C++ Python Java Go
WPF
ASP.NET小功能 GPS定位系统-MVC GPS定位系统-VUE ASP.NET WebRTC
Linux Linux内核 Shell MakeFile
MySql SqlServer Oracle
STM8 STM32 51单片机
VUE入门 HTML JavaScript CSS layui镜像网站 ElementUi中文官网 element-plus 图标
三菱 欧姆龙 西门子 施耐德 松下 台达
IOTSharp IOTGateway ABP FRAMEWORK Docker
亚克力音响 编程仙途:智驭万法
面试题与技巧 Python入门技能树 微软C#教程
首页 编程之美 工具下载 全国就业 流量地图 文心一言
OpenCv基础
内容介绍与资料分享 C# OpenCv环境搭建 C++ OpenCv环境搭建 Python OpenCv环境搭建 Java OpenCv环境搭建 OpenCv组件结构解析 OpenCv命名规范 OpenCv基本专业术语与方法 OpenCV 常用函数与构造体详细说明 创建画布 打开一张图片 利用imwrite生成透明png图像 图像打开、混合显示和输出 图像腐蚀 blur图像模糊(均值滤波) sobel边缘检测 canny边缘检测 Scharr滤波器 程序性能检测及优化 视频播放 摄像头录像与播放 双摄像头操作与图像相似度检测 颜色空间转换与物体追踪 彩色目标追踪 光流法运动目标检测 OpenCV中的稠密光流 背景减除 点追踪 人脸识别 支持向量机之SVM引导 支持向量机之处理线性不可分数据 ROI矩形截取 鼠标绘制矩形 用OpenCV进行基本绘图 绘图函数(python中文显示) 把鼠标当画笔 用滑动条做调色板 图像的基础操作 图像上的算术运算 多通道图像混合 图像的亮度、对比度调整 XML和YAML文件的写入 XML和YAML文件的读取 卷积操作 三种线性滤波 两种非线性滤波 7种图像处理形态学(1) 7种图像处理形态学(2) 漫水填充 图像缩放与图像金字塔 二值化基本阈值操作 图像阈值 Laplacian图像变换(拉普拉斯算子) 霍夫变换HoughLines边缘检测与线性矢量 霍夫变换HoughLinesP边缘检测与线性矢量 霍夫变换HoughCircles边缘检测与线性矢量 LSD快速直线检测 几何变换 remap重映射 remap实现多种重映射 仿射变换综合示例 直方图均衡化 CLAHE有限对比适应性直方图均衡化 draw最大的轮廓 轮廓的性质 点到多边形的最短距离 形状匹配 椭圆拟合与直线拟合 基础轮廓查找 查找并绘制轮廓综合示例 凸缺陷/凸包检测 凸包检测 创建包围轮廓的矩形边界 创建包围轮廓的圆形边 创建包围轮廓的矩形和圆形边界框 查找和绘制图片轮廓矩 分水岭算法 图像修补 H-S二维直方图的绘制/2D直方图 一维直方图的绘制 RGB三色直方图的绘制 直方图对比 使用掩膜绘制直方图 直方图反向投影 模板匹配 多对象模板匹配 cornerHarris角点检测 cornerHarris角点检测综合示例 Shi-Tomasi角点检测 亚像素级角点检测 角点检测的FAST算法(FAST特征检测器) 颜色识别 warpPerspective透视变换 SURF/SIFT特征点检测 SURF/SIFT特征描述 使用FLANN进行特征点匹配 FLANN结合SURF/SIFT进行关键点的描述和匹配 寻找已知物体(一) 寻找已知物体(二) 目标查找与跟踪 - Meanshift与CamShift BRIEF描述符 ORB ORB算法描述与匹配 LUT 图像灰度调整 离散傅里叶变换 双目摄像头与图像拼接 环境亮度检测 stitching 全景拼接 Maze-Solver迷宫解密 使用Haar分类器之面部检测 使用Haar分类器之行人检测 OpenCv Haar/LBP/HOG分类器-人脸识别 斑点检测 使用GrabCut算法进行交互式前景提取 对极几何 摄像机标定 姿势估计 立体图像中的深度地图 OpenCv中的KNN KNN手写数字识别 ​SVM手写数字识别(使用SVM进行手写数据OCR) 英文字母的OCR 预测手写数字(预测不准) K值聚类(一) K值聚类(二) 计算摄影学-图像去噪 高动态范围成像(HDRI或HDR) MSER区域检测 二维码、条形码识别 删除图像中的水印 OpenCv深度学习dnn Kinect-深度相机 OpenCv常用数学算法 360度旋转直线绘制 向量延长线上的像素扫描 Tools工具包-窗体分配
LSD快速直线检测
remap重映射
激萌の小宅 小宅博客网 OpenCv基础

文章作者:激萌の小宅

促销:¥0

价格:¥0

配送方式: 购买后立即生效(如购买异常,请联系站长)
付款之后一定要等待自动跳转结束,否则购买可能会失败
  • 0 天

    有效期

  • 0

    总销量

  • 0

    累计评价

几何变换

本章节内容是博主网上收集的。当前系列所有demo下载地址:

https://github.com/GaoRenBao/OpenCv4-Demo

不同编程语言对应的OpenCv版本以及开发环境信息如下: 

语言

OpenCv版本

IDE

C#

OpenCvSharp4.4.8.0.20230708

Visual Studio 2022

C++

OpenCv-4.5.5-vc14_vc15

Visual Studio 2022

Python

OpenCv-Python (4.6.0.66)

PyCharm Community Edition 2022.1.3


图像的几何变换,主要涉及到的内容包括:图像的平移、图像的旋转、图像透视变换、图像的仿射变换。这四种操作。

OpenCV 提供了两个变换函数虽cv2.warpAffine 和 cv2.warpPerspective虽使用䦈两个函数你可以实现所有类型的变换。cv2.warpAffine 接收的参数是2 × 3 的变换矩俤,而 cv2.warpPerspective 接收的参数是 3 × 3 的变换矩俤。


测试原图:

messi5.jpg


demo1:图像的平移操作

img.jpg


demo2:旋转图像操作

out.jpg


demo3:仿射变换的基本操作(左:原图;右:效果图)

drawing.png Output.jpg


demo4:透视变换的基本操作(左:原图;右:效果图)

sudoku.jpg Output2.jpg


C#版本运行代码如下:

using OpenCvSharp;

namespace demo
{
    internal class Program
    {
        static void Main(string[] args)
        {
            demo1();
            //demo2();
            //demo3();
            //demo4();
        }

        #region 图像的平移操作
        public static void demo1()
        {
            // 移动了100,50 个像素。
            Mat img = Cv2.ImRead("../../../images/messi5.jpg", 0);

            // Define the transformation matrix
            Mat M = new Mat(2, 3, MatType.CV_32FC1);
            M.Set<float>(0, 0, 1);
            M.Set<float>(0, 1, 0);
            M.Set<float>(0, 2, 100);
            M.Set<float>(1, 0, 0);
            M.Set<float>(1, 1, 1);
            M.Set<float>(1, 2, 50);

            // 应用平移变换  
            Mat dst = new Mat();
            Cv2.WarpAffine(img, dst, M, img.Size());

            Cv2.ImShow("img", dst);
            Cv2.WaitKey(0);
        }
        #endregion

        #region 旋转图像操作
        public static void demo2()
        {
            Mat img = Cv2.ImRead("../../../images/messi5.jpg", 0);
            Mat dst = new Mat();
            Mat rotMat = Cv2.GetRotationMatrix2D(new Point2f(img.Cols / 2, img.Rows / 2), 45, 0.5);
            Cv2.WarpAffine(img, dst, rotMat, new Size(img.Cols, img.Rows));
            Cv2.ImShow("img", dst);
            Cv2.WaitKey(0);
        }
        #endregion

        #region 仿射变换的基本操作
        public static void demo3()
        {
            Mat img = Cv2.ImRead("../../../images/drawing.png");

            Mat pts1 = new Mat(3, 2, MatType.CV_32FC1);
            pts1.Set<float>(0, 0, 50);
            pts1.Set<float>(0, 1, 50);
            pts1.Set<float>(1, 0, 200);
            pts1.Set<float>(1, 1, 50);
            pts1.Set<float>(2, 0, 50);
            pts1.Set<float>(2, 1, 200);

            Mat pts2 = new Mat(3, 2, MatType.CV_32FC1);
            pts2.Set<float>(0, 0, 10);
            pts2.Set<float>(0, 1, 100);
            pts2.Set<float>(1, 0, 200);
            pts2.Set<float>(1, 1, 50);
            pts2.Set<float>(2, 0, 100);
            pts2.Set<float>(2, 1, 250);

            Mat M = Cv2.GetAffineTransform(pts1, pts2);
            Mat dst = new Mat();
            Cv2.WarpAffine(img, dst, M, img.Size());

            Cv2.ImShow("Input", img);
            Cv2.ImShow("Output", dst);
            Cv2.WaitKey(0);
        }
        #endregion

        #region 透视变换的基本操作
        public static void demo4()
        {
            Mat img = Cv2.ImRead("../../../images/sudoku.jpg");

            Mat pts1 = new Mat(4, 2, MatType.CV_32FC1);
            pts1.Set<float>(0, 0, 56);
            pts1.Set<float>(0, 1, 65);
            pts1.Set<float>(1, 0, 368);
            pts1.Set<float>(1, 1, 52);
            pts1.Set<float>(2, 0, 28);
            pts1.Set<float>(2, 1, 387);
            pts1.Set<float>(3, 0, 389);
            pts1.Set<float>(3, 1, 390);

            Mat pts2 = new Mat(4, 2, MatType.CV_32FC1);
            pts2.Set<float>(0, 0, 0);
            pts2.Set<float>(0, 1, 0);
            pts2.Set<float>(1, 0, 300);
            pts2.Set<float>(1, 1, 0);
            pts2.Set<float>(2, 0, 0);
            pts2.Set<float>(2, 1, 300);
            pts2.Set<float>(3, 0, 300);
            pts2.Set<float>(3, 1, 300);

            Mat M = Cv2.GetPerspectiveTransform(pts1, pts2);
            Mat dst = new Mat();
            Cv2.WarpPerspective(img, dst, M, new Size(300, 300));

            Cv2.ImShow("Input", img);
            Cv2.ImShow("Output2", dst);
            Cv2.WaitKey(0);
        }
        #endregion
    }
}


C++版本运行代码如下:

#include <opencv2/opencv.hpp>
#include <opencv2/cvconfig.h>
#include <opencv2/imgproc/imgproc.hpp>
#include <opencv2/highgui/highgui.hpp>    

#include <io.h>
#include <string>
#include <iostream>

using namespace cv;
using namespace std;

// 图像的平移操作
void demo1()
{
    // 移动了100,50 个像素。
    Mat img = cv::imread("../images/messi5.jpg", 0);

    // Define the transformation matrix
    Mat M(2, 3, CV_32FC1);
    M.at<float>(0, 0) = 1;
    M.at<float>(0, 1) = 0;
    M.at<float>(0, 2) = 100;
    M.at<float>(1, 0) = 0;
    M.at<float>(1, 1) = 1;
    M.at<float>(1, 2) = 50;

    // 应用平移变换  
    Mat dst;
    cv::warpAffine(img, dst, M, img.size());

    cv::imshow("img", dst);
    cv::waitKey(0);
}

// 旋转图像操作
void demo2()
{
    Mat img = cv::imread("../images/messi5.jpg", 0);
    Mat dst;
    Mat rotMat = cv::getRotationMatrix2D(Point2f(img.cols / 2, img.rows / 2), 45, 0.6);
    cv::warpAffine(img, dst, rotMat, Size(img.cols * 2, img.rows * 2));
    cv::imshow("img", dst);
    cv::waitKey(0);
}

// 仿射变换的基本操作
void demo3()
{
    Mat img = cv::imread("../images/drawing.png");

    Mat pts1(3, 2, CV_32FC1);
    pts1.at<float>(0, 0) = 50;
    pts1.at<float>(0, 1) = 50;
    pts1.at<float>(1, 0) = 200;
    pts1.at<float>(1, 1) = 50;
    pts1.at<float>(2, 0) = 50;
    pts1.at<float>(2, 1) = 200;

    Mat pts2(3, 2, CV_32FC1);
    pts2.at<float>(0, 0) = 10;
    pts2.at<float>(0, 1) = 100;
    pts2.at<float>(1, 0) = 200;
    pts2.at<float>(1, 1) = 50;
    pts2.at<float>(2, 0) = 100;
    pts2.at<float>(2, 1) = 250;

    Mat M = cv::getAffineTransform(pts1, pts2);
    Mat dst;
    cv::warpAffine(img, dst, M, img.size());

    cv::imshow("Input", img);
    cv::imshow("Output", dst);
    cv::waitKey(0);
}

// 透视变换的基本操作
void demo4()
{
    Mat img = cv::imread("../images/sudoku.jpg");

    Mat pts1(4, 2, CV_32FC1);
    pts1.at<float>(0, 0) = 56;
    pts1.at<float>(0, 1) = 65;
    pts1.at<float>(1, 0) = 368;
    pts1.at<float>(1, 1) = 52;
    pts1.at<float>(2, 0) = 28;
    pts1.at<float>(2, 1) = 387;
    pts1.at<float>(3, 0) = 389;
    pts1.at<float>(3, 1) = 390;

    Mat pts2(4, 2, CV_32FC1);
    pts2.at<float>(0, 0) = 0;
    pts2.at<float>(0, 1) = 0;
    pts2.at<float>(1, 0) = 300;
    pts2.at<float>(1, 1) = 0;
    pts2.at<float>(2, 0) = 0;
    pts2.at<float>(2, 1) = 300;
    pts2.at<float>(3, 0) = 300;
    pts2.at<float>(3, 1) = 300;

    Mat M = cv::getPerspectiveTransform(pts1, pts2);
    Mat dst;
    cv::warpPerspective(img, dst, M, Size(300, 300));

    cv::imshow("Input", img);
    cv::imshow("Output", dst);
    cv::waitKey(0);
}

int main()
{
    demo1();
    //demo2();
    //demo3();
    //demo4();
}


Python版本运行代码如下:

demo1.py:图像的平移操作:

"""
http://docs.opencv.org/3.2.0/da/d6e/tutorial_py_geometric_transformations.html
函数 cv2.warpAffine() 的第三个参数的是 出图像的大小 ,它的格式应是图像的(宽,高) 。
图像的宽对应的是列数, 高对应的是行数。
"""

import cv2
import numpy as np

# 移动了100,50 个像素。
img = cv2.imread('../images/messi5.jpg', 0)
rows, cols = img.shape

M = np.float32([[1, 0, 100], [0, 1, 50]])
dst = cv2.warpAffine(img, M, (cols, rows))

cv2.imshow('img', dst)
cv2.imwrite('img.jpg', dst)
cv2.waitKey(0)
cv2.destroyAllWindows()


demo2.py:旋转图像操作:

# -*- coding: utf-8 -*-

# 旋转
import cv2
import numpy as np

img = cv2.imread('../images/messi5.jpg', 0)
rows, cols = img.shape

# 的第一个参数为旋转中心 第二个为旋转角度
# 第三个为旋转后的缩放因子
# 可以通过设置旋转中心,缩放因子,以及窗口大小来防止旋转后超出边界的问题
M = cv2.getRotationMatrix2D((cols / 2, rows / 2), 45, 0.6)

# 第三个参数是输出图像的尺寸中心
dst = cv2.warpAffine(img, M, (2 * cols, 2 * rows))

cv2.imshow('img', dst)
cv2.imwrite('img2.jpg', dst)
cv2.waitKey(0)  # & 0xFF
cv2.destroyAllWindows()


demo3.py:仿射变换的基本操作:

'''
仿射变换
在仿射变换中 原图中所有的平行线在结果图像中同样平行。
为了创建 这个矩阵,我们需要从原图像中找到三个点以及他们在 出图像中的位置。
然后 cv2.getAffineTransform 会创建一个 2x3 的矩  最后 个矩 会 传给 函数 cv2.warpAffine。
'''

import cv2
import numpy as np
from matplotlib import pyplot as plt

img = cv2.imread('../images/drawing.png')
rows, cols, ch = img.shape
print(img.shape)

pts1 = np.float32([[50, 50], [200, 50], [50, 200]])
pts2 = np.float32([[10, 100], [200, 50], [100, 250]])

M = cv2.getAffineTransform(pts1, pts2)
dst = cv2.warpAffine(img, M, (cols, rows))

# plt.subplot(121, plt.imshow(img), plt.title('Input'))
# plt.subplot(122, plt.imshow(dst), plt.title('Output'))

plt.figure(figsize=(8, 7), dpi=98)
p1 = plt.subplot(211)
#p1.show(img) # 官方代码采用的是这个操作,运行会报错
plt.imshow(img)
p1.set_title('Input')

p2 = plt.subplot(212)
#p2.show(dst)# 官方代码采用的是这个操作,运行会报错
plt.imshow(dst)
p2.set_title('Output')

plt.show()


demo4.py:透视变换的基本操作:

# -*- coding: utf-8 -*-
'''
透视变换
对于透视变换 ,我们需要一个 3x3 变换矩 。
在变换前后直线 是直线。
构建 个变换矩  你需要在输入图像上找 4 个点, 以及他们在输出图 像上对应的位置。
四个点中的任意三个都不能共线。这个变换矩阵可以用函数 cv2.getPerspectiveTransform() 构建。
然后把这个矩阵传给函数 cv2.warpPerspective。

'''

import cv2
import numpy as np
from matplotlib import pyplot as plt

img = cv2.imread('../images/sudoku.jpg')
rows, cols, ch = img.shape

pts1 = np.float32([[56, 65], [368, 52], [28, 387], [389, 390]])
pts2 = np.float32([[0, 0], [300, 0], [0, 300], [300, 300]])

M = cv2.getPerspectiveTransform(pts1, pts2)
dst = cv2.warpPerspective(img, M, (300, 300))

plt.figure(figsize=(8, 7), dpi=98)
p1 = plt.subplot(211)
#p1.show(img) # 官方代码采用的是这个操作,运行会报错
plt.imshow(img)
p1.set_title('Input')

p2 = plt.subplot(212)
#p2.show(dst)# 官方代码采用的是这个操作,运行会报错
plt.imshow(dst)
p2.set_title('Output')

plt.show()


LSD快速直线检测
remap重映射

友情链接: CSDN激萌の小宅 95知识库 自考题库 罗分明个人网络博客 精益编程leanboot

小宅博客  www.bilibili996.com All Rights Reserved. 备案号: 闽ICP备2024034575号

网站经营许可证  福建省福州市 Copyright©2021-2025 版权所有

小宅博客
首页 智能家居 地图定位
公告:小宅博客网可以开发票了,需要发票的,去群里找群主哈!!

文章作者:激萌の小宅

促销:¥0

价格:¥0

配送方式: 购买后立即生效(如购买异常,请联系站长)
付款之后一定要等待自动跳转结束,否则购买可能会失败
  • 0 天

    有效期

  • 0

    总销量

  • 0

    累计评价

几何变换

本章节内容是博主网上收集的。当前系列所有demo下载地址:

https://github.com/GaoRenBao/OpenCv4-Demo

不同编程语言对应的OpenCv版本以及开发环境信息如下: 

语言

OpenCv版本

IDE

C#

OpenCvSharp4.4.8.0.20230708

Visual Studio 2022

C++

OpenCv-4.5.5-vc14_vc15

Visual Studio 2022

Python

OpenCv-Python (4.6.0.66)

PyCharm Community Edition 2022.1.3


图像的几何变换,主要涉及到的内容包括:图像的平移、图像的旋转、图像透视变换、图像的仿射变换。这四种操作。

OpenCV 提供了两个变换函数虽cv2.warpAffine 和 cv2.warpPerspective虽使用䦈两个函数你可以实现所有类型的变换。cv2.warpAffine 接收的参数是2 × 3 的变换矩俤,而 cv2.warpPerspective 接收的参数是 3 × 3 的变换矩俤。


测试原图:

messi5.jpg


demo1:图像的平移操作

img.jpg


demo2:旋转图像操作

out.jpg


demo3:仿射变换的基本操作(左:原图;右:效果图)

drawing.png Output.jpg


demo4:透视变换的基本操作(左:原图;右:效果图)

sudoku.jpg Output2.jpg


C#版本运行代码如下:

using OpenCvSharp;

namespace demo
{
    internal class Program
    {
        static void Main(string[] args)
        {
            demo1();
            //demo2();
            //demo3();
            //demo4();
        }

        #region 图像的平移操作
        public static void demo1()
        {
            // 移动了100,50 个像素。
            Mat img = Cv2.ImRead("../../../images/messi5.jpg", 0);

            // Define the transformation matrix
            Mat M = new Mat(2, 3, MatType.CV_32FC1);
            M.Set<float>(0, 0, 1);
            M.Set<float>(0, 1, 0);
            M.Set<float>(0, 2, 100);
            M.Set<float>(1, 0, 0);
            M.Set<float>(1, 1, 1);
            M.Set<float>(1, 2, 50);

            // 应用平移变换  
            Mat dst = new Mat();
            Cv2.WarpAffine(img, dst, M, img.Size());

            Cv2.ImShow("img", dst);
            Cv2.WaitKey(0);
        }
        #endregion

        #region 旋转图像操作
        public static void demo2()
        {
            Mat img = Cv2.ImRead("../../../images/messi5.jpg", 0);
            Mat dst = new Mat();
            Mat rotMat = Cv2.GetRotationMatrix2D(new Point2f(img.Cols / 2, img.Rows / 2), 45, 0.5);
            Cv2.WarpAffine(img, dst, rotMat, new Size(img.Cols, img.Rows));
            Cv2.ImShow("img", dst);
            Cv2.WaitKey(0);
        }
        #endregion

        #region 仿射变换的基本操作
        public static void demo3()
        {
            Mat img = Cv2.ImRead("../../../images/drawing.png");

            Mat pts1 = new Mat(3, 2, MatType.CV_32FC1);
            pts1.Set<float>(0, 0, 50);
            pts1.Set<float>(0, 1, 50);
            pts1.Set<float>(1, 0, 200);
            pts1.Set<float>(1, 1, 50);
            pts1.Set<float>(2, 0, 50);
            pts1.Set<float>(2, 1, 200);

            Mat pts2 = new Mat(3, 2, MatType.CV_32FC1);
            pts2.Set<float>(0, 0, 10);
            pts2.Set<float>(0, 1, 100);
            pts2.Set<float>(1, 0, 200);
            pts2.Set<float>(1, 1, 50);
            pts2.Set<float>(2, 0, 100);
            pts2.Set<float>(2, 1, 250);

            Mat M = Cv2.GetAffineTransform(pts1, pts2);
            Mat dst = new Mat();
            Cv2.WarpAffine(img, dst, M, img.Size());

            Cv2.ImShow("Input", img);
            Cv2.ImShow("Output", dst);
            Cv2.WaitKey(0);
        }
        #endregion

        #region 透视变换的基本操作
        public static void demo4()
        {
            Mat img = Cv2.ImRead("../../../images/sudoku.jpg");

            Mat pts1 = new Mat(4, 2, MatType.CV_32FC1);
            pts1.Set<float>(0, 0, 56);
            pts1.Set<float>(0, 1, 65);
            pts1.Set<float>(1, 0, 368);
            pts1.Set<float>(1, 1, 52);
            pts1.Set<float>(2, 0, 28);
            pts1.Set<float>(2, 1, 387);
            pts1.Set<float>(3, 0, 389);
            pts1.Set<float>(3, 1, 390);

            Mat pts2 = new Mat(4, 2, MatType.CV_32FC1);
            pts2.Set<float>(0, 0, 0);
            pts2.Set<float>(0, 1, 0);
            pts2.Set<float>(1, 0, 300);
            pts2.Set<float>(1, 1, 0);
            pts2.Set<float>(2, 0, 0);
            pts2.Set<float>(2, 1, 300);
            pts2.Set<float>(3, 0, 300);
            pts2.Set<float>(3, 1, 300);

            Mat M = Cv2.GetPerspectiveTransform(pts1, pts2);
            Mat dst = new Mat();
            Cv2.WarpPerspective(img, dst, M, new Size(300, 300));

            Cv2.ImShow("Input", img);
            Cv2.ImShow("Output2", dst);
            Cv2.WaitKey(0);
        }
        #endregion
    }
}


C++版本运行代码如下:

#include <opencv2/opencv.hpp>
#include <opencv2/cvconfig.h>
#include <opencv2/imgproc/imgproc.hpp>
#include <opencv2/highgui/highgui.hpp>    

#include <io.h>
#include <string>
#include <iostream>

using namespace cv;
using namespace std;

// 图像的平移操作
void demo1()
{
    // 移动了100,50 个像素。
    Mat img = cv::imread("../images/messi5.jpg", 0);

    // Define the transformation matrix
    Mat M(2, 3, CV_32FC1);
    M.at<float>(0, 0) = 1;
    M.at<float>(0, 1) = 0;
    M.at<float>(0, 2) = 100;
    M.at<float>(1, 0) = 0;
    M.at<float>(1, 1) = 1;
    M.at<float>(1, 2) = 50;

    // 应用平移变换  
    Mat dst;
    cv::warpAffine(img, dst, M, img.size());

    cv::imshow("img", dst);
    cv::waitKey(0);
}

// 旋转图像操作
void demo2()
{
    Mat img = cv::imread("../images/messi5.jpg", 0);
    Mat dst;
    Mat rotMat = cv::getRotationMatrix2D(Point2f(img.cols / 2, img.rows / 2), 45, 0.6);
    cv::warpAffine(img, dst, rotMat, Size(img.cols * 2, img.rows * 2));
    cv::imshow("img", dst);
    cv::waitKey(0);
}

// 仿射变换的基本操作
void demo3()
{
    Mat img = cv::imread("../images/drawing.png");

    Mat pts1(3, 2, CV_32FC1);
    pts1.at<float>(0, 0) = 50;
    pts1.at<float>(0, 1) = 50;
    pts1.at<float>(1, 0) = 200;
    pts1.at<float>(1, 1) = 50;
    pts1.at<float>(2, 0) = 50;
    pts1.at<float>(2, 1) = 200;

    Mat pts2(3, 2, CV_32FC1);
    pts2.at<float>(0, 0) = 10;
    pts2.at<float>(0, 1) = 100;
    pts2.at<float>(1, 0) = 200;
    pts2.at<float>(1, 1) = 50;
    pts2.at<float>(2, 0) = 100;
    pts2.at<float>(2, 1) = 250;

    Mat M = cv::getAffineTransform(pts1, pts2);
    Mat dst;
    cv::warpAffine(img, dst, M, img.size());

    cv::imshow("Input", img);
    cv::imshow("Output", dst);
    cv::waitKey(0);
}

// 透视变换的基本操作
void demo4()
{
    Mat img = cv::imread("../images/sudoku.jpg");

    Mat pts1(4, 2, CV_32FC1);
    pts1.at<float>(0, 0) = 56;
    pts1.at<float>(0, 1) = 65;
    pts1.at<float>(1, 0) = 368;
    pts1.at<float>(1, 1) = 52;
    pts1.at<float>(2, 0) = 28;
    pts1.at<float>(2, 1) = 387;
    pts1.at<float>(3, 0) = 389;
    pts1.at<float>(3, 1) = 390;

    Mat pts2(4, 2, CV_32FC1);
    pts2.at<float>(0, 0) = 0;
    pts2.at<float>(0, 1) = 0;
    pts2.at<float>(1, 0) = 300;
    pts2.at<float>(1, 1) = 0;
    pts2.at<float>(2, 0) = 0;
    pts2.at<float>(2, 1) = 300;
    pts2.at<float>(3, 0) = 300;
    pts2.at<float>(3, 1) = 300;

    Mat M = cv::getPerspectiveTransform(pts1, pts2);
    Mat dst;
    cv::warpPerspective(img, dst, M, Size(300, 300));

    cv::imshow("Input", img);
    cv::imshow("Output", dst);
    cv::waitKey(0);
}

int main()
{
    demo1();
    //demo2();
    //demo3();
    //demo4();
}


Python版本运行代码如下:

demo1.py:图像的平移操作:

"""
http://docs.opencv.org/3.2.0/da/d6e/tutorial_py_geometric_transformations.html
函数 cv2.warpAffine() 的第三个参数的是 出图像的大小 ,它的格式应是图像的(宽,高) 。
图像的宽对应的是列数, 高对应的是行数。
"""

import cv2
import numpy as np

# 移动了100,50 个像素。
img = cv2.imread('../images/messi5.jpg', 0)
rows, cols = img.shape

M = np.float32([[1, 0, 100], [0, 1, 50]])
dst = cv2.warpAffine(img, M, (cols, rows))

cv2.imshow('img', dst)
cv2.imwrite('img.jpg', dst)
cv2.waitKey(0)
cv2.destroyAllWindows()


demo2.py:旋转图像操作:

# -*- coding: utf-8 -*-

# 旋转
import cv2
import numpy as np

img = cv2.imread('../images/messi5.jpg', 0)
rows, cols = img.shape

# 的第一个参数为旋转中心 第二个为旋转角度
# 第三个为旋转后的缩放因子
# 可以通过设置旋转中心,缩放因子,以及窗口大小来防止旋转后超出边界的问题
M = cv2.getRotationMatrix2D((cols / 2, rows / 2), 45, 0.6)

# 第三个参数是输出图像的尺寸中心
dst = cv2.warpAffine(img, M, (2 * cols, 2 * rows))

cv2.imshow('img', dst)
cv2.imwrite('img2.jpg', dst)
cv2.waitKey(0)  # & 0xFF
cv2.destroyAllWindows()


demo3.py:仿射变换的基本操作:

'''
仿射变换
在仿射变换中 原图中所有的平行线在结果图像中同样平行。
为了创建 这个矩阵,我们需要从原图像中找到三个点以及他们在 出图像中的位置。
然后 cv2.getAffineTransform 会创建一个 2x3 的矩  最后 个矩 会 传给 函数 cv2.warpAffine。
'''

import cv2
import numpy as np
from matplotlib import pyplot as plt

img = cv2.imread('../images/drawing.png')
rows, cols, ch = img.shape
print(img.shape)

pts1 = np.float32([[50, 50], [200, 50], [50, 200]])
pts2 = np.float32([[10, 100], [200, 50], [100, 250]])

M = cv2.getAffineTransform(pts1, pts2)
dst = cv2.warpAffine(img, M, (cols, rows))

# plt.subplot(121, plt.imshow(img), plt.title('Input'))
# plt.subplot(122, plt.imshow(dst), plt.title('Output'))

plt.figure(figsize=(8, 7), dpi=98)
p1 = plt.subplot(211)
#p1.show(img) # 官方代码采用的是这个操作,运行会报错
plt.imshow(img)
p1.set_title('Input')

p2 = plt.subplot(212)
#p2.show(dst)# 官方代码采用的是这个操作,运行会报错
plt.imshow(dst)
p2.set_title('Output')

plt.show()


demo4.py:透视变换的基本操作:

# -*- coding: utf-8 -*-
'''
透视变换
对于透视变换 ,我们需要一个 3x3 变换矩 。
在变换前后直线 是直线。
构建 个变换矩  你需要在输入图像上找 4 个点, 以及他们在输出图 像上对应的位置。
四个点中的任意三个都不能共线。这个变换矩阵可以用函数 cv2.getPerspectiveTransform() 构建。
然后把这个矩阵传给函数 cv2.warpPerspective。

'''

import cv2
import numpy as np
from matplotlib import pyplot as plt

img = cv2.imread('../images/sudoku.jpg')
rows, cols, ch = img.shape

pts1 = np.float32([[56, 65], [368, 52], [28, 387], [389, 390]])
pts2 = np.float32([[0, 0], [300, 0], [0, 300], [300, 300]])

M = cv2.getPerspectiveTransform(pts1, pts2)
dst = cv2.warpPerspective(img, M, (300, 300))

plt.figure(figsize=(8, 7), dpi=98)
p1 = plt.subplot(211)
#p1.show(img) # 官方代码采用的是这个操作,运行会报错
plt.imshow(img)
p1.set_title('Input')

p2 = plt.subplot(212)
#p2.show(dst)# 官方代码采用的是这个操作,运行会报错
plt.imshow(dst)
p2.set_title('Output')

plt.show()