您好,
会员登录 快速注册
退出 ( 条未读消息)
关于本站 意见反馈 首页

公告:小宅博客网可以开发票了,需要发票的,去群里找群主哈!!
全部文章分类
  • 人工智能 >

  • 编程语言 >

  • WPF系列 >

  • ASP.NET系列 >

  • Linux >

  • 数据库 >

  • 嵌入式 >

  • WEB技术 >

  • PLC系列 >

  • 微服务与框架 >

  • 小宅DIY >

  • 学习资料 >

OpenCv基础 ANN车牌识别 yolov5车牌识别 指针式仪表识别 ROS系列 YOLO Halcon Detectron2 昇腾AI ChatGPT在线体验 英伟达JETSON ChatGLM ChatTTS FunASR 地平线 ByteTrack 魔搭社区 LangChain
C C# C++ Python Java Go
WPF
ASP.NET小功能 GPS定位系统-MVC GPS定位系统-VUE ASP.NET WebRTC
Linux Linux内核 Shell MakeFile
MySql SqlServer Oracle
STM8 STM32 51单片机
VUE入门 HTML JavaScript CSS layui镜像网站 ElementUi中文官网 element-plus 图标
三菱 欧姆龙 西门子 施耐德 松下 台达
IOTSharp IOTGateway ABP FRAMEWORK Docker
亚克力音响 编程仙途:智驭万法
面试题与技巧 Python入门技能树 微软C#教程
首页 编程之美 工具下载 全国就业 流量地图 文心一言
OpenCv基础
内容介绍与资料分享 C# OpenCv环境搭建 C++ OpenCv环境搭建 Python OpenCv环境搭建 Java OpenCv环境搭建 OpenCv组件结构解析 OpenCv命名规范 OpenCv基本专业术语与方法 OpenCV 常用函数与构造体详细说明 创建画布 打开一张图片 利用imwrite生成透明png图像 图像打开、混合显示和输出 图像腐蚀 blur图像模糊(均值滤波) sobel边缘检测 canny边缘检测 Scharr滤波器 程序性能检测及优化 视频播放 摄像头录像与播放 双摄像头操作与图像相似度检测 颜色空间转换与物体追踪 彩色目标追踪 光流法运动目标检测 OpenCV中的稠密光流 背景减除 点追踪 人脸识别 支持向量机之SVM引导 支持向量机之处理线性不可分数据 ROI矩形截取 鼠标绘制矩形 用OpenCV进行基本绘图 绘图函数(python中文显示) 把鼠标当画笔 用滑动条做调色板 图像的基础操作 图像上的算术运算 多通道图像混合 图像的亮度、对比度调整 XML和YAML文件的写入 XML和YAML文件的读取 卷积操作 三种线性滤波 两种非线性滤波 7种图像处理形态学(1) 7种图像处理形态学(2) 漫水填充 图像缩放与图像金字塔 二值化基本阈值操作 图像阈值 Laplacian图像变换(拉普拉斯算子) 霍夫变换HoughLines边缘检测与线性矢量 霍夫变换HoughLinesP边缘检测与线性矢量 霍夫变换HoughCircles边缘检测与线性矢量 LSD快速直线检测 几何变换 remap重映射 remap实现多种重映射 仿射变换综合示例 直方图均衡化 CLAHE有限对比适应性直方图均衡化 draw最大的轮廓 轮廓的性质 点到多边形的最短距离 形状匹配 椭圆拟合与直线拟合 基础轮廓查找 查找并绘制轮廓综合示例 凸缺陷/凸包检测 凸包检测 创建包围轮廓的矩形边界 创建包围轮廓的圆形边 创建包围轮廓的矩形和圆形边界框 查找和绘制图片轮廓矩 分水岭算法 图像修补 H-S二维直方图的绘制/2D直方图 一维直方图的绘制 RGB三色直方图的绘制 直方图对比 使用掩膜绘制直方图 直方图反向投影 模板匹配 多对象模板匹配 cornerHarris角点检测 cornerHarris角点检测综合示例 Shi-Tomasi角点检测 亚像素级角点检测 角点检测的FAST算法(FAST特征检测器) 颜色识别 warpPerspective透视变换 SURF/SIFT特征点检测 SURF/SIFT特征描述 使用FLANN进行特征点匹配 FLANN结合SURF/SIFT进行关键点的描述和匹配 寻找已知物体(一) 寻找已知物体(二) 目标查找与跟踪 - Meanshift与CamShift BRIEF描述符 ORB ORB算法描述与匹配 LUT 图像灰度调整 离散傅里叶变换 双目摄像头与图像拼接 环境亮度检测 stitching 全景拼接 Maze-Solver迷宫解密 使用Haar分类器之面部检测 使用Haar分类器之行人检测 OpenCv Haar/LBP/HOG分类器-人脸识别 斑点检测 使用GrabCut算法进行交互式前景提取 对极几何 摄像机标定 姿势估计 立体图像中的深度地图 OpenCv中的KNN KNN手写数字识别 ​SVM手写数字识别(使用SVM进行手写数据OCR) 英文字母的OCR 预测手写数字(预测不准) K值聚类(一) K值聚类(二) 计算摄影学-图像去噪 高动态范围成像(HDRI或HDR) MSER区域检测 二维码、条形码识别 删除图像中的水印 OpenCv深度学习dnn Kinect-深度相机 OpenCv常用数学算法 360度旋转直线绘制 向量延长线上的像素扫描 Tools工具包-窗体分配
使用FLANN进行特征点匹配
寻找已知物体(一)
激萌の小宅 小宅博客网 OpenCv基础

文章作者:激萌の小宅

促销:¥0

价格:¥0

配送方式: 购买后立即生效(如购买异常,请联系站长)
付款之后一定要等待自动跳转结束,否则购买可能会失败
  • 0 天

    有效期

  • 0

    总销量

  • 0

    累计评价

FLANN结合SURF/SIFT进行关键点的描述和匹配

视频讲解如下:


在本章节中给大家演示FLANN结合SURF/SIFT进行关键点的描述和匹配,主要函数:SURF和SIFT。

毛星云的代码为opencv-2.4.9版本的SURF功能演示,可是博主在opencv-2.4.9版本中并未发现SURF功能,目前只能演示SIFT了。

C#、C++版本中提供了Detect和DetectAndCompute两种算法,效果其实也都差不多,博主代码中两种操作方法都提供了,Python版本中好像好像无法使用Detect,执行后返回结果是空的。。。


当前系列所有demo下载地址:

https://github.com/GaoRenBao/OpenCv4-Demo

不同编程语言对应的OpenCv版本以及开发环境信息如下: 

语言

OpenCv版本

IDE

C#

OpenCvSharp4.4.8.0.20230708

Visual Studio 2022

C++

OpenCv-4.5.5-vc14_vc15

Visual Studio 2022

Python

OpenCv-Python (4.6.0.66)

PyCharm Community Edition 2022.1.3


首先呢,我们需要准备一张测试图片,由于采用摄像头实时识别的,进行测试的童鞋最好是自己拍摄一张自己测试环境的图片,当然你也可以直接用我的图片,并找个优酸乳进行测试。

1.jpg


C#版本运行效果如下:

C#.gif


C#版本代码如下:

using OpenCvSharp;
using System;
using System.Collections.Generic;

namespace demo
{
    internal class Program
    {
        /// <summary>
        /// 视频操作
        /// </summary>
        public static VideoCapture Cap = new VideoCapture();

        static void Main(string[] args)
        {
            //demo1();
            demo2();
            Cv2.WaitKey();
        }

        /// <summary>
        /// SURF
        /// </summary>
        static void demo1()
        {
            // 打开ID为0的摄像头
            Cap.Open(0);
            // 判断摄像头是否成功打开
            if (!Cap.IsOpened())
            {
                Console.WriteLine("摄像头打开失败.");
                return;
            }

            //Cap.Set(VideoCaptureProperties.FrameWidth, 640);  // 设置采集的图像宽度:640
            //Cap.Set(VideoCaptureProperties.FrameHeight, 480); // 设置采集的图像高度:480
            //Cap.Set(VideoCaptureProperties.Exposure, 0);     // 曝光

            // 载入源图片
            Mat trainImage = new Mat();
            for (int i = 0; i < 10; i++)
                Cap.Read(trainImage);

            Mat trainImage_gray = new Mat();
            Cv2.CvtColor(trainImage, trainImage_gray, ColorConversionCodes.BGR2GRAY);

            // 定义一个特征检测类对象
            var MySurf = OpenCvSharp.XFeatures2D.SURF.Create(80);
            Mat trainDescriptor = new Mat();
            KeyPoint[] train_keyPoint;

            // 模板类是能够存放任意类型的动态数组,能够增加和压缩数据
            // 方法1:计算描述符(特征向量),将Detect和Compute操作分开
            train_keyPoint = MySurf.Detect(trainImage_gray);
            MySurf.Compute(trainImage_gray, ref train_keyPoint, trainDescriptor);

            // 方法2:计算描述符(特征向量),将Detect和Compute操作合并
            //MySurf.DetectAndCompute(trainImage_gray, null, out train_keyPoint, trainDescriptor);

            // 创建基于FLANN的描述符匹配对象
            List<Mat> descriptors = new List<Mat>() { trainDescriptor };
            //BFMatcher matcher = new BFMatcher();
            FlannBasedMatcher matcher = new FlannBasedMatcher();
            matcher.Add(descriptors);
            matcher.Train();

            Mat testImage = new Mat();
            Mat testImage_gray = new Mat();

            while (true)
            {
                if (Cap.Read(testImage))
                {
                    // 转化图像到灰度
                    Cv2.CvtColor(testImage, testImage_gray, ColorConversionCodes.BGR2GRAY);

                    // 检测S关键点、提取测试图像描述符
                    Mat testDescriptor = new Mat();
                    KeyPoint[] test_keyPoint;

                    // 方法1:计算描述符(特征向量)
                    test_keyPoint = MySurf.Detect(testImage_gray);
                    MySurf.Compute(testImage_gray, ref test_keyPoint, testDescriptor);

                    // 方法2:计算描述符(特征向量)
                    //MySurf.DetectAndCompute(testImage_gray, null, out test_keyPoint, testDescriptor);

                    // 匹配训练和测试描述符
                    DMatch[][] matches = matcher.KnnMatch(testDescriptor, 2);

                    // 根据劳氏算法(Lowe's algorithm),得到优秀的匹配点
                    List<DMatch> goodMatches = new List<DMatch>();
                    for (int i = 0; i < matches.Length; i++)
                    {
                        if (matches[i][0].Distance < 0.6 * matches[i][1].Distance)
                            goodMatches.Add(matches[i][0]);
                    }

                    //绘制匹配点并显示窗口
                    Mat dstImage = new Mat();
                    Cv2.DrawMatches(testImage, test_keyPoint, trainImage, train_keyPoint, goodMatches, dstImage);

                    // 显示效果图
                    Cv2.ImShow("匹配窗口", dstImage);
                    // 按ESC退出
                    if (Cv2.WaitKey(10) == 27)
                        break;

                }
            }
        }

        /// <summary>
        /// SIFT
        /// </summary>
        static void demo2()
        {
            // 打开ID为0的摄像头
            Cap.Open(0);
            // 判断摄像头是否成功打开
            if (!Cap.IsOpened())
            {
                Console.WriteLine("摄像头打开失败.");
                return;
            }

            //Cap.Set(VideoCaptureProperties.FrameWidth, 640);  // 设置采集的图像宽度:640
            //Cap.Set(VideoCaptureProperties.FrameHeight, 480); // 设置采集的图像高度:480
            //Cap.Set(VideoCaptureProperties.Exposure, 0);     // 曝光

            // 载入源图片
            Mat trainImage = new Mat();
            for(int i = 0;i<10;i++)
                Cap.Read(trainImage);

            Mat trainImage_gray = new Mat();
            Cv2.CvtColor(trainImage, trainImage_gray, ColorConversionCodes.BGR2GRAY);

            // 定义一个特征检测类对象
            var MySift = OpenCvSharp.Features2D.SIFT.Create(80);
            Mat trainDescriptor = new Mat();
            KeyPoint[] train_keyPoint;

            // 模板类是能够存放任意类型的动态数组,能够增加和压缩数据
            // 方法1:计算描述符(特征向量),将Detect和Compute操作分开
            train_keyPoint = MySift.Detect(trainImage_gray);
            MySift.Compute(trainImage_gray, ref train_keyPoint, trainDescriptor);

            // 方法2:计算描述符(特征向量),将Detect和Compute操作合并
            // MySift.DetectAndCompute(trainImage_gray, null, out train_keyPoint, trainDescriptor);

            // 创建基于FLANN的描述符匹配对象
            List<Mat> descriptors = new List<Mat>() { trainDescriptor };
            FlannBasedMatcher matcher = new FlannBasedMatcher();
            matcher.Add(descriptors);
            matcher.Train();

            // 打开ID为0的摄像头
            Cap.Open(0);
            // 判断摄像头是否成功打开
            if (!Cap.IsOpened())
            {
                Console.WriteLine("摄像头打开失败.");
                return;
            }

            Mat testImage = new Mat();
            Mat testImage_gray = new Mat();

            while (true)
            {
                if (Cap.Read(testImage))
                {
                    // 转化图像到灰度
                    Cv2.CvtColor(testImage, testImage_gray, ColorConversionCodes.BGR2GRAY);

                    // 检测S关键点、提取测试图像描述符
                    Mat testDescriptor = new Mat();
                    KeyPoint[] test_keyPoint;

                    // 方法1:计算描述符(特征向量)
                    test_keyPoint = MySift.Detect(testImage_gray);
                    MySift.Compute(testImage_gray, ref test_keyPoint, testDescriptor);

                    // 方法2:计算描述符(特征向量)
                    // MySift.DetectAndCompute(testImage_gray, null, out test_keyPoint, testDescriptor);

                    // 匹配训练和测试描述符
                    DMatch[][] matches = matcher.KnnMatch(testDescriptor, 2);

                    // 根据劳氏算法(Lowe's algorithm),得到优秀的匹配点
                    List<DMatch> goodMatches = new List<DMatch>();
                    for (int i = 0; i < matches.Length; i++)
                    {
                        if (matches[i][0].Distance < 0.6 * matches[i][1].Distance)
                            goodMatches.Add(matches[i][0]);
                    }

                    //绘制匹配点并显示窗口
                    Mat dstImage = new Mat();
                    Cv2.DrawMatches(testImage, test_keyPoint, trainImage, train_keyPoint, goodMatches, dstImage);

                    // 显示效果图
                    Cv2.ImShow("匹配窗口", dstImage);
                    // 按ESC退出
                    if (Cv2.WaitKey(10) == 27)
                        break;
                }
            }
        }
    }
}


C++版本代码如下:

// 程序描述:FLANN结合SURF进行关键点的描述和匹配

#include <opencv2/opencv.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <opencv2/features2d.hpp>
#include <opencv2/features2d/features2d.hpp>

using namespace cv;
using namespace std;

int main()
{
	Mat trainImage, trainImage_gray;

	// 创建视频对象、定义帧率
	VideoCapture cap(0);

	// 载入图像、显示并转化为灰度图
	for (int i = 0; i < 10; i++)
		cap >> trainImage;

	imshow("原始图", trainImage);
	cvtColor(trainImage, trainImage_gray, COLOR_BGR2GRAY);

	// 检测SIFT关键点、提取训练图像描述符
	Ptr<SIFT> siftDetector = SIFT::create(80);
	vector<KeyPoint> train_keyPoint;
	Mat trainDescriptor;

	// 方法1:计算描述符(特征向量),将Detect和Compute操作分开
	//siftDetector->detect(trainImage_gray, train_keyPoint);
	//siftDetector->compute(trainImage_gray, train_keyPoint, trainDescriptor);

	// 方法2:计算描述符(特征向量),将Detect和Compute操作合并
	siftDetector->detectAndCompute(trainImage_gray, cv::Mat(), train_keyPoint, trainDescriptor);

	// 创建基于FLANN的描述符匹配对象
	FlannBasedMatcher matcher;
	vector<Mat> train_desc_collection(1, trainDescriptor);
	matcher.add(train_desc_collection);
	matcher.train();

	// 不断循环,直到q键被按下
	while (true)
	{
		//<1>参数设置
		int64 time0 = getTickCount();
		Mat testImage, testImage_gray;
		cap >> testImage;//采集视频到testImage中
		if (testImage.empty())
			continue;

		//imwrite("1.jpg", testImage);
		//imshow("testImage", testImage);
		//waitKey(0);

		//<2>转化图像到灰度
		cvtColor(testImage, testImage_gray, COLOR_BGR2GRAY);

		//<3>检测S关键点、提取测试图像描述符
		vector<KeyPoint> test_keyPoint;
		Mat testDescriptor;

		// 方法1:计算描述符(特征向量),将Detect和Compute操作分开
		//siftDetector->detect(testImage_gray, test_keyPoint);
		//siftDetector->compute(testImage_gray, test_keyPoint, testDescriptor);

		// 方法2:计算描述符(特征向量),将Detect和Compute操作合并
		siftDetector->detectAndCompute(testImage_gray, cv::Mat(), test_keyPoint, testDescriptor);

		//<4>匹配训练和测试描述符
		vector<vector<DMatch> > matches;
		matcher.knnMatch(testDescriptor, matches, 2);

		// <5>根据劳氏算法(Lowe's algorithm),得到优秀的匹配点
		vector<DMatch> goodMatches;
		for (unsigned int i = 0; i < matches.size(); i++)
		{
			if (matches[i][0].distance < 0.6 * matches[i][1].distance)
				goodMatches.push_back(matches[i][0]);
		}

		//<6>绘制匹配点并显示窗口
		Mat dstImage;
		drawMatches(testImage, test_keyPoint, trainImage, train_keyPoint, goodMatches, dstImage);
		imshow("匹配窗口", dstImage);

		//<7>输出帧率信息
		cout << "当前帧率为:" << getTickFrequency() / (getTickCount() - time0) << endl;

		// 按ESC退出
		if (waitKey(10) == 27)
			break;
	}

	return 0;
}


Python版本代码如下:

import cv2

Cap = cv2.VideoCapture(0)
# 判断视频是否打开
if not Cap.isOpened():
    print('Open Camera Error.')
    exit()

Cap.read()
Cap.read()
Cap.read()
Cap.read()

# 载入图像、显示并转化为灰度图
grabbed, trainImage = Cap.read()
# trainImage = cv2.imread("1.jpg")
trainImage_gray = cv2.cvtColor(trainImage, cv2.COLOR_BGR2GRAY)

# 检测SIFT关键点、提取训练图像描述符
sift = cv2.SIFT_create(80)

# 方法1:计算描述符(特征向量),将Detect和Compute操作分开
# train_keyPoint = sift.detect(trainImage_gray)
# (train_keyPoint, trainDescriptor) = sift.compute(trainImage_gray, train_keyPoint)

# 方法2:计算描述符(特征向量),将Detect和Compute操作合并
(train_keyPoint, trainDescriptor) = sift.detectAndCompute(trainImage_gray, None)

# 创建基于FLANN的描述符匹配对象
matcher = cv2.FlannBasedMatcher()  # cv2.BFMatcher() #建立匹配关系
matcher.add(trainDescriptor)
matcher.train()

# 读取图像
while True:
    grabbed, testImage = Cap.read()
    if testImage is None:
        continue

    testImage_gray = cv2.cvtColor(testImage, cv2.COLOR_BGR2GRAY)

    # 方法1
    # test_keyPoint = sift.detect(testImage_gray)
    # (test_keyPoint, testDescriptor) = sift.compute(testImage_gray, test_keyPoint)

    # 方法2
    (test_keyPoint, testDescriptor) = sift.detectAndCompute(testImage_gray, None)

    # 匹配训练和测试描述符
    matches = matcher.knnMatch(testDescriptor, trainDescriptor, 2)
    goodMatches = []
    # 舍弃大于0.7的匹配
    for m, n in matches:
        if m.distance < 0.7 * n.distance:
            goodMatches.append(m)

    # 画出匹配关系
    dstImage = cv2.drawMatches(testImage, test_keyPoint, trainImage, train_keyPoint, goodMatches, None)
    cv2.imshow("dstImage", dstImage)
    # 按ESC退出
    if cv2.waitKey(10) == 27:
        break

cv2.destroyAllWindows()


使用FLANN进行特征点匹配
寻找已知物体(一)

友情链接: CSDN激萌の小宅 95知识库 自考题库 罗分明个人网络博客 精益编程leanboot

小宅博客  www.bilibili996.com All Rights Reserved. 备案号: 闽ICP备2024034575号

网站经营许可证  福建省福州市 Copyright©2021-2025 版权所有

小宅博客
首页 智能家居 地图定位
公告:小宅博客网可以开发票了,需要发票的,去群里找群主哈!!

文章作者:激萌の小宅

促销:¥0

价格:¥0

配送方式: 购买后立即生效(如购买异常,请联系站长)
付款之后一定要等待自动跳转结束,否则购买可能会失败
  • 0 天

    有效期

  • 0

    总销量

  • 0

    累计评价

FLANN结合SURF/SIFT进行关键点的描述和匹配

视频讲解如下:


在本章节中给大家演示FLANN结合SURF/SIFT进行关键点的描述和匹配,主要函数:SURF和SIFT。

毛星云的代码为opencv-2.4.9版本的SURF功能演示,可是博主在opencv-2.4.9版本中并未发现SURF功能,目前只能演示SIFT了。

C#、C++版本中提供了Detect和DetectAndCompute两种算法,效果其实也都差不多,博主代码中两种操作方法都提供了,Python版本中好像好像无法使用Detect,执行后返回结果是空的。。。


当前系列所有demo下载地址:

https://github.com/GaoRenBao/OpenCv4-Demo

不同编程语言对应的OpenCv版本以及开发环境信息如下: 

语言

OpenCv版本

IDE

C#

OpenCvSharp4.4.8.0.20230708

Visual Studio 2022

C++

OpenCv-4.5.5-vc14_vc15

Visual Studio 2022

Python

OpenCv-Python (4.6.0.66)

PyCharm Community Edition 2022.1.3


首先呢,我们需要准备一张测试图片,由于采用摄像头实时识别的,进行测试的童鞋最好是自己拍摄一张自己测试环境的图片,当然你也可以直接用我的图片,并找个优酸乳进行测试。

1.jpg


C#版本运行效果如下:

C#.gif


C#版本代码如下:

using OpenCvSharp;
using System;
using System.Collections.Generic;

namespace demo
{
    internal class Program
    {
        /// <summary>
        /// 视频操作
        /// </summary>
        public static VideoCapture Cap = new VideoCapture();

        static void Main(string[] args)
        {
            //demo1();
            demo2();
            Cv2.WaitKey();
        }

        /// <summary>
        /// SURF
        /// </summary>
        static void demo1()
        {
            // 打开ID为0的摄像头
            Cap.Open(0);
            // 判断摄像头是否成功打开
            if (!Cap.IsOpened())
            {
                Console.WriteLine("摄像头打开失败.");
                return;
            }

            //Cap.Set(VideoCaptureProperties.FrameWidth, 640);  // 设置采集的图像宽度:640
            //Cap.Set(VideoCaptureProperties.FrameHeight, 480); // 设置采集的图像高度:480
            //Cap.Set(VideoCaptureProperties.Exposure, 0);     // 曝光

            // 载入源图片
            Mat trainImage = new Mat();
            for (int i = 0; i < 10; i++)
                Cap.Read(trainImage);

            Mat trainImage_gray = new Mat();
            Cv2.CvtColor(trainImage, trainImage_gray, ColorConversionCodes.BGR2GRAY);

            // 定义一个特征检测类对象
            var MySurf = OpenCvSharp.XFeatures2D.SURF.Create(80);
            Mat trainDescriptor = new Mat();
            KeyPoint[] train_keyPoint;

            // 模板类是能够存放任意类型的动态数组,能够增加和压缩数据
            // 方法1:计算描述符(特征向量),将Detect和Compute操作分开
            train_keyPoint = MySurf.Detect(trainImage_gray);
            MySurf.Compute(trainImage_gray, ref train_keyPoint, trainDescriptor);

            // 方法2:计算描述符(特征向量),将Detect和Compute操作合并
            //MySurf.DetectAndCompute(trainImage_gray, null, out train_keyPoint, trainDescriptor);

            // 创建基于FLANN的描述符匹配对象
            List<Mat> descriptors = new List<Mat>() { trainDescriptor };
            //BFMatcher matcher = new BFMatcher();
            FlannBasedMatcher matcher = new FlannBasedMatcher();
            matcher.Add(descriptors);
            matcher.Train();

            Mat testImage = new Mat();
            Mat testImage_gray = new Mat();

            while (true)
            {
                if (Cap.Read(testImage))
                {
                    // 转化图像到灰度
                    Cv2.CvtColor(testImage, testImage_gray, ColorConversionCodes.BGR2GRAY);

                    // 检测S关键点、提取测试图像描述符
                    Mat testDescriptor = new Mat();
                    KeyPoint[] test_keyPoint;

                    // 方法1:计算描述符(特征向量)
                    test_keyPoint = MySurf.Detect(testImage_gray);
                    MySurf.Compute(testImage_gray, ref test_keyPoint, testDescriptor);

                    // 方法2:计算描述符(特征向量)
                    //MySurf.DetectAndCompute(testImage_gray, null, out test_keyPoint, testDescriptor);

                    // 匹配训练和测试描述符
                    DMatch[][] matches = matcher.KnnMatch(testDescriptor, 2);

                    // 根据劳氏算法(Lowe's algorithm),得到优秀的匹配点
                    List<DMatch> goodMatches = new List<DMatch>();
                    for (int i = 0; i < matches.Length; i++)
                    {
                        if (matches[i][0].Distance < 0.6 * matches[i][1].Distance)
                            goodMatches.Add(matches[i][0]);
                    }

                    //绘制匹配点并显示窗口
                    Mat dstImage = new Mat();
                    Cv2.DrawMatches(testImage, test_keyPoint, trainImage, train_keyPoint, goodMatches, dstImage);

                    // 显示效果图
                    Cv2.ImShow("匹配窗口", dstImage);
                    // 按ESC退出
                    if (Cv2.WaitKey(10) == 27)
                        break;

                }
            }
        }

        /// <summary>
        /// SIFT
        /// </summary>
        static void demo2()
        {
            // 打开ID为0的摄像头
            Cap.Open(0);
            // 判断摄像头是否成功打开
            if (!Cap.IsOpened())
            {
                Console.WriteLine("摄像头打开失败.");
                return;
            }

            //Cap.Set(VideoCaptureProperties.FrameWidth, 640);  // 设置采集的图像宽度:640
            //Cap.Set(VideoCaptureProperties.FrameHeight, 480); // 设置采集的图像高度:480
            //Cap.Set(VideoCaptureProperties.Exposure, 0);     // 曝光

            // 载入源图片
            Mat trainImage = new Mat();
            for(int i = 0;i<10;i++)
                Cap.Read(trainImage);

            Mat trainImage_gray = new Mat();
            Cv2.CvtColor(trainImage, trainImage_gray, ColorConversionCodes.BGR2GRAY);

            // 定义一个特征检测类对象
            var MySift = OpenCvSharp.Features2D.SIFT.Create(80);
            Mat trainDescriptor = new Mat();
            KeyPoint[] train_keyPoint;

            // 模板类是能够存放任意类型的动态数组,能够增加和压缩数据
            // 方法1:计算描述符(特征向量),将Detect和Compute操作分开
            train_keyPoint = MySift.Detect(trainImage_gray);
            MySift.Compute(trainImage_gray, ref train_keyPoint, trainDescriptor);

            // 方法2:计算描述符(特征向量),将Detect和Compute操作合并
            // MySift.DetectAndCompute(trainImage_gray, null, out train_keyPoint, trainDescriptor);

            // 创建基于FLANN的描述符匹配对象
            List<Mat> descriptors = new List<Mat>() { trainDescriptor };
            FlannBasedMatcher matcher = new FlannBasedMatcher();
            matcher.Add(descriptors);
            matcher.Train();

            // 打开ID为0的摄像头
            Cap.Open(0);
            // 判断摄像头是否成功打开
            if (!Cap.IsOpened())
            {
                Console.WriteLine("摄像头打开失败.");
                return;
            }

            Mat testImage = new Mat();
            Mat testImage_gray = new Mat();

            while (true)
            {
                if (Cap.Read(testImage))
                {
                    // 转化图像到灰度
                    Cv2.CvtColor(testImage, testImage_gray, ColorConversionCodes.BGR2GRAY);

                    // 检测S关键点、提取测试图像描述符
                    Mat testDescriptor = new Mat();
                    KeyPoint[] test_keyPoint;

                    // 方法1:计算描述符(特征向量)
                    test_keyPoint = MySift.Detect(testImage_gray);
                    MySift.Compute(testImage_gray, ref test_keyPoint, testDescriptor);

                    // 方法2:计算描述符(特征向量)
                    // MySift.DetectAndCompute(testImage_gray, null, out test_keyPoint, testDescriptor);

                    // 匹配训练和测试描述符
                    DMatch[][] matches = matcher.KnnMatch(testDescriptor, 2);

                    // 根据劳氏算法(Lowe's algorithm),得到优秀的匹配点
                    List<DMatch> goodMatches = new List<DMatch>();
                    for (int i = 0; i < matches.Length; i++)
                    {
                        if (matches[i][0].Distance < 0.6 * matches[i][1].Distance)
                            goodMatches.Add(matches[i][0]);
                    }

                    //绘制匹配点并显示窗口
                    Mat dstImage = new Mat();
                    Cv2.DrawMatches(testImage, test_keyPoint, trainImage, train_keyPoint, goodMatches, dstImage);

                    // 显示效果图
                    Cv2.ImShow("匹配窗口", dstImage);
                    // 按ESC退出
                    if (Cv2.WaitKey(10) == 27)
                        break;
                }
            }
        }
    }
}


C++版本代码如下:

// 程序描述:FLANN结合SURF进行关键点的描述和匹配

#include <opencv2/opencv.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <opencv2/features2d.hpp>
#include <opencv2/features2d/features2d.hpp>

using namespace cv;
using namespace std;

int main()
{
	Mat trainImage, trainImage_gray;

	// 创建视频对象、定义帧率
	VideoCapture cap(0);

	// 载入图像、显示并转化为灰度图
	for (int i = 0; i < 10; i++)
		cap >> trainImage;

	imshow("原始图", trainImage);
	cvtColor(trainImage, trainImage_gray, COLOR_BGR2GRAY);

	// 检测SIFT关键点、提取训练图像描述符
	Ptr<SIFT> siftDetector = SIFT::create(80);
	vector<KeyPoint> train_keyPoint;
	Mat trainDescriptor;

	// 方法1:计算描述符(特征向量),将Detect和Compute操作分开
	//siftDetector->detect(trainImage_gray, train_keyPoint);
	//siftDetector->compute(trainImage_gray, train_keyPoint, trainDescriptor);

	// 方法2:计算描述符(特征向量),将Detect和Compute操作合并
	siftDetector->detectAndCompute(trainImage_gray, cv::Mat(), train_keyPoint, trainDescriptor);

	// 创建基于FLANN的描述符匹配对象
	FlannBasedMatcher matcher;
	vector<Mat> train_desc_collection(1, trainDescriptor);
	matcher.add(train_desc_collection);
	matcher.train();

	// 不断循环,直到q键被按下
	while (true)
	{
		//<1>参数设置
		int64 time0 = getTickCount();
		Mat testImage, testImage_gray;
		cap >> testImage;//采集视频到testImage中
		if (testImage.empty())
			continue;

		//imwrite("1.jpg", testImage);
		//imshow("testImage", testImage);
		//waitKey(0);

		//<2>转化图像到灰度
		cvtColor(testImage, testImage_gray, COLOR_BGR2GRAY);

		//<3>检测S关键点、提取测试图像描述符
		vector<KeyPoint> test_keyPoint;
		Mat testDescriptor;

		// 方法1:计算描述符(特征向量),将Detect和Compute操作分开
		//siftDetector->detect(testImage_gray, test_keyPoint);
		//siftDetector->compute(testImage_gray, test_keyPoint, testDescriptor);

		// 方法2:计算描述符(特征向量),将Detect和Compute操作合并
		siftDetector->detectAndCompute(testImage_gray, cv::Mat(), test_keyPoint, testDescriptor);

		//<4>匹配训练和测试描述符
		vector<vector<DMatch> > matches;
		matcher.knnMatch(testDescriptor, matches, 2);

		// <5>根据劳氏算法(Lowe's algorithm),得到优秀的匹配点
		vector<DMatch> goodMatches;
		for (unsigned int i = 0; i < matches.size(); i++)
		{
			if (matches[i][0].distance < 0.6 * matches[i][1].distance)
				goodMatches.push_back(matches[i][0]);
		}

		//<6>绘制匹配点并显示窗口
		Mat dstImage;
		drawMatches(testImage, test_keyPoint, trainImage, train_keyPoint, goodMatches, dstImage);
		imshow("匹配窗口", dstImage);

		//<7>输出帧率信息
		cout << "当前帧率为:" << getTickFrequency() / (getTickCount() - time0) << endl;

		// 按ESC退出
		if (waitKey(10) == 27)
			break;
	}

	return 0;
}


Python版本代码如下:

import cv2

Cap = cv2.VideoCapture(0)
# 判断视频是否打开
if not Cap.isOpened():
    print('Open Camera Error.')
    exit()

Cap.read()
Cap.read()
Cap.read()
Cap.read()

# 载入图像、显示并转化为灰度图
grabbed, trainImage = Cap.read()
# trainImage = cv2.imread("1.jpg")
trainImage_gray = cv2.cvtColor(trainImage, cv2.COLOR_BGR2GRAY)

# 检测SIFT关键点、提取训练图像描述符
sift = cv2.SIFT_create(80)

# 方法1:计算描述符(特征向量),将Detect和Compute操作分开
# train_keyPoint = sift.detect(trainImage_gray)
# (train_keyPoint, trainDescriptor) = sift.compute(trainImage_gray, train_keyPoint)

# 方法2:计算描述符(特征向量),将Detect和Compute操作合并
(train_keyPoint, trainDescriptor) = sift.detectAndCompute(trainImage_gray, None)

# 创建基于FLANN的描述符匹配对象
matcher = cv2.FlannBasedMatcher()  # cv2.BFMatcher() #建立匹配关系
matcher.add(trainDescriptor)
matcher.train()

# 读取图像
while True:
    grabbed, testImage = Cap.read()
    if testImage is None:
        continue

    testImage_gray = cv2.cvtColor(testImage, cv2.COLOR_BGR2GRAY)

    # 方法1
    # test_keyPoint = sift.detect(testImage_gray)
    # (test_keyPoint, testDescriptor) = sift.compute(testImage_gray, test_keyPoint)

    # 方法2
    (test_keyPoint, testDescriptor) = sift.detectAndCompute(testImage_gray, None)

    # 匹配训练和测试描述符
    matches = matcher.knnMatch(testDescriptor, trainDescriptor, 2)
    goodMatches = []
    # 舍弃大于0.7的匹配
    for m, n in matches:
        if m.distance < 0.7 * n.distance:
            goodMatches.append(m)

    # 画出匹配关系
    dstImage = cv2.drawMatches(testImage, test_keyPoint, trainImage, train_keyPoint, goodMatches, None)
    cv2.imshow("dstImage", dstImage)
    # 按ESC退出
    if cv2.waitKey(10) == 27:
        break

cv2.destroyAllWindows()