上文中驱动水星工业相机采集视频是采用官方例程修改,利用OpenCV显示函数实现的一个弹出的大窗口,无法控制。想着做一个播放界面,故采取QT实现了一个简单的界面播放器,使用多线程实现视频的采集。
采取QT中的多线程QThread类
直接放上代码 数据采集
#include "MERCamera.h"
using namespace std;
QImage m_GlobalImage;
cv::Mat img;
class CSampleDeviceOfflineEventHandler : public IDeviceOfflineEventHandler
public:
void DoOnDeviceOfflineEvent(void* pUserParam)
cout << "收到设备掉线事件!" << endl;
class CSampleFeatureEventHandler : public IFeatureEventHandler
public:
void DoOnFeatureEvent(const GxIAPICPP::gxstring&strFeatureName, void* pUserParam)
cout << "收到曝光结束事件!" << endl;
class CSampleCaptureEventHandler : public ICaptureEventHandler
public:
void DoOnImageCaptured(CImageDataPointer&objImageDataPointer, void* pUserParam)
cout << "收到一帧图像!" << endl;
cout << "ImageInfo: " << objImageDataPointer->GetStatus() << endl;
cout << "ImageInfo: " << objImageDataPointer->GetWidth() << endl;
cout << "ImageInfo: " << objImageDataPointer->GetHeight() << endl;
cout << "ImageInfo: " << objImageDataPointer->GetPayloadSize() << endl;
img.create(objImageDataPointer->GetHeight(), objImageDataPointer->GetWidth(), CV_8UC3);
void *pRGB24Buffer = NULL;
pRGB24Buffer = objImageDataPointer->ConvertToRGB24(GX_BIT_0_7, GX_RAW2RGB_NEIGHBOUR, true);
memcpy(img.data, pRGB24Buffer, (objImageDataPointer->GetHeight()) * (objImageDataPointer->GetWidth()) * 3);
cv::flip(img, img, 0);
m_GlobalImage = cvMat2QImage(img);
cout << "帧数:" << objImageDataPointer->GetFrameID() << endl;
int StoreBMP(int PictureNum)
IDeviceOfflineEventHandler* pDeviceOfflineEventHandler = NULL;
IFeatureEventHandler* pFeatureEventHandler = NULL;
ICaptureEventHandler* pCaptureEventHandler = NULL;
IGXFactory::GetInstance().Init();
gxdeviceinfo_vector vectorDeviceInfo;
IGXFactory::GetInstance().UpdateDeviceList(1000, vectorDeviceInfo);
if (0 == vectorDeviceInfo.size())
cout << "无可用设备!" << endl;
break;
cout << vectorDeviceInfo[0].GetVendorName() << endl;
cout << vectorDeviceInfo[0].GetSN() << endl;
CGXDevicePointer ObjDevicePtr = IGXFactory::GetInstance().OpenDeviceBySN(
vectorDeviceInfo[0].GetSN(),
GX_ACCESS_EXCLUSIVE);
CGXStreamPointer ObjStreamPtr = ObjDevicePtr->OpenStream(0);
GX_DEVICE_OFFLINE_CALLBACK_HANDLE hDeviceOffline = NULL;
pDeviceOfflineEventHandler = new CSampleDeviceOfflineEventHandler();
hDeviceOffline = ObjDevicePtr->RegisterDeviceOfflineCallback(pDeviceOfflineEventHandler, NULL);
CGXFeatureControlPointer ObjFeatureControlPtr = ObjDevicePtr->GetRemoteFeatureControl();
pCaptureEventHandler = new CSampleCaptureEventHandler();
ObjStreamPtr->RegisterCaptureCallback(pCaptureEventHandler, NULL);
ObjStreamPtr->StartGrab();
ObjFeatureControlPtr->GetCommandFeature("AcquisitionStart")->Execute();
getchar();
ObjFeatureControlPtr->GetCommandFeature("AcquisitionStop")->Execute();
ObjStreamPtr->StopGrab();
ObjStreamPtr->UnregisterCaptureCallback();
ObjStreamPtr->Close();
ObjDevicePtr->Close();
} while (0);
catch (CGalaxyException&e)
cout << "错误码: " << e.GetErrorCode() << endl;
cout << "错误描述信息: " << e.what() << endl;
catch (std::exception&e)
cout << "错误描述信息: " << e.what() << endl;
IGXFactory::GetInstance().Uninit();
if (NULL != pCaptureEventHandler)
delete pCaptureEventHandler;
pCaptureEventHandler = NULL;
if (NULL != pDeviceOfflineEventHandler)
delete pDeviceOfflineEventHandler;
pDeviceOfflineEventHandler = NULL;
if (NULL != pFeatureEventHandler)
delete pFeatureEventHandler;
pFeatureEventHandler = NULL;
return 0;
QImage cvMat2QImage(const cv::Mat& mat)
if (mat.type() == CV_8UC1)
QImage image(mat.cols, mat.rows, QImage::Format_Indexed8);
image.setColorCount(256);
for (int i = 0; i < 256; i++)
image.setColor(i, qRgb(i, i, i));
uchar *pSrc = mat.data;
for (int row = 0; row < mat.rows; row++)
uchar *pDest = image.scanLine(row);
memcpy(pDest, pSrc, mat.cols);
pSrc += mat.step;
return image;
else if (mat.type() == CV_8UC3)
const uchar *pSrc = (const uchar*)mat.data;
QImage image(pSrc, mat.cols, mat.rows, mat.step, QImage::Format_RGB888);
return image.rgbSwapped();
else if (mat.type() == CV_8UC4)
qDebug() << "CV_8UC4";
const uchar *pSrc = (const uchar*)mat.data;
QImage image(pSrc, mat.cols, mat.rows, mat.step, QImage::Format_ARGB32);
return image.copy();
qDebug() << "ERROR: Mat could not be converted to QImage.";
return QImage();
采取的是回调采集方式,将帧采集函数放在线程中:
void SendTask::run()
StoreBMP(1);
采用定时器刷新QLable上的帧:
void QtCamera::timerEvent(QTimerEvent * event)
if (event->timerId() == m_timeId)
ui.label->setPixmap(QPixmap::fromImage(m_GlobalImage));
结果:

QLabel上播放时视频有点延时,同时还未改进视频的缩放问题,有同学提出:
经过实际测试Qlabel显示image的效率很差,可以使用QWidget,然后在paintEvent里面drawPixmap。
这样的效率提升相当大,16路视频播放时CPU才20%;
QPainter使用的是GPU,显卡不好的话图片与图片显示之间会有白画面,显卡不是很差的话非常流畅。
马上试试。
上文中驱动水星工业相机采集视频是采用官方例程修改,利用OpenCV显示函数实现的一个弹出的大窗口,无法控制。想着做一个播放界面,故采取QT实现了一个简单的界面播放器,使用多线程实现视频的采集。采取QT中的多线程QThread类直接放上代码 数据采集// An highlighted block#include "MERCamera.h"//using namespace cv;usi...
在Qt多线程中,同时使用两个大恒相机进行拍摄是可行的。具体实现的步骤如下:
首先,需要为每个相机创建一个相机对象并初始化相机参数。可以使用Qt提供的QCamera和QCameraViewfinder类来实现。
其次,使用Qt提供的QThread类创建两个线程对象,分别用于处理每个相机的拍摄任务。可以继承QThread类并实现run()函数来定义线程的执行逻辑。
在每个线程的run()函数中,分别调用相应相机对象的start()函数来启动相机的拍摄功能。拍摄可以通过调用相机对象的QCamera::capture()函数来实现,该函数将从相机接收图像数据并将其发送到指定的接收器。
同时,为了避免相机之间的竞争条件和数据冲突,可以使用互斥锁(Mutex)来保护相机对象和图像数据的访问。可以使用Qt提供的QMutex类来实现互斥锁。
最后,在主线程中创建并启动这两个线程对象,每个线程对应一个相机进行拍摄,从而实现两个大恒相机的同时拍摄。
需要注意的是,在多线程编程中,要注意线程之间的同步和通信,避免出现数据竞争和死锁等问题。可以使用Qt提供的信号和槽机制来实现线程之间的通信。
总的来说,通过合理的设计和编码,使用Qt多线程可以很好地实现两个大恒相机的同时拍摄功能。