本文将帮助你在 Android 和 iOS 中为 Flutter 应用程序集成 C/C++ 插件。
问题1:
Flutter camera 插件没有为快速复杂的图像流处理提供完整的指南。
问题2:
Flutter camera 插件处理图像流太慢。
问题3:
图像处理需要OpenCV包
问题4:
你当前的图像流处理实现正在阻塞 UI 并导致你的应用程序滞后和内存泄漏
问题5:
缺乏实现接口和使用 Dart FFI 库有效集成 C/C++ 库的知识
本指南将通过使用 OpenCV C++ 构建适用于 Android 和 iOS 的示例应用程序来解决每个问题,以进行图像流处理。
在开始之前,需要一个带有 OpenCV C++ 的 Flutter 插件及其适用于 Android 的静态库以及适用于 iOS 的 xcframework。本文不会介绍如何执行此操作,但你可以按照下方链接提供的指南或在我提供的 GitHub 存储库中运行脚本文件。
对于 Android,确保 CMakeLists.txt 构建所需的库,并将 build.gradle 设置为以下值,防止OpenCV 产生错误。
externalNativeBuild {
cmake {
cppFlags "-frtti -fexceptions -std=c++17"
abiFilters 'armeabi-v7a', 'arm64-v8a'
对于 iOS,确保 podspec 下的 vendored_frameworks 包含 OpenCV 的 xcframework。
此外,本指南假设有一个工作状态小部件,类似于 flutter camera 插件中提供的简单示例,其中包含一个 CameraPreview 小部件及其所需的设置。
示例:https://pub.dev/packages/camera
本指南仅承诺在手机后置摄像头上以纵向模式进行图像处理的工作模型,设置捕获分辨率为720p (1280x720)。但是,它可以作为读者集成其他相机、设备方向模式和捕获分辨率的指南。
注意:本指南仅在适用于 Android 的 Android NDK 版本 25.0.8775105 上进行测试。它可能无法使用其他 NDK 版本成功构建 C/C++ 文件。
建议的结构
相机图像流处理的建议结构
移动设备上任何流处理的主要挑战是处理帧的速度足够快,以每秒至少处理 60 帧(每帧约 16 毫秒)。传统的图像处理过程几乎总是需要比每帧 16 毫秒多得多的时间。因此,必须使用后台线程来不阻塞 UI 并导致应用程序卡顿。
我们需要利用 Dart Isolates 来实现这一点。包含 CameraPreview 小部件的视图旁边将有一个 CameraProcessor 小部件,这样每个帧都将被传递给处理器进行处理。处理器将依次生成Isolate,以运行 C/C++ OpenCV 代码,并异步等待它们完成。
最后,从处理器中的Isolate接收到的任何结果都将传递给 CameraPainter 以更新 UI 状态并显示结果。尽管具有流畅的 UI,但这种方法的缺点是响应延迟,其中 UI 和Painter将显示不匹配,其中绘制的结果来自先前捕获的帧,具体取决于设备和处理速度。
相机视图/相机预览
camera 插件页面中提供的示例足以构建最小的相机视图。我们只需要在小部件内添加帧捕获和相机处理器,如下所示:
// Start frame capture in controller under initState()
try {
await controller?.initialize();
controller?.startImageStream(_processCameraImage);
setState(() {});
} catch (e) {
// Set what to do with frames inside stateful widget
Future _processCameraImage(CameraImage camImage) async {
if (!mounted) return;
setState(() {
cameraImage = camImage;
// Pass each frame into CameraProcessor under build()
CameraPreview(
camController,
child: CameraProcessor(
image: camImg,
CameraPainter
此处的指南为Painter 展示了一些不错的模板:https://github.com/bharat-biradar/Google-Ml-Kit-plugin/tree/master/packages/google_ml_kit/example/lib/vision_detector_views)
我们需要将要绘制到画布上的对象传递给这个小部件,并使用绘制函数来显示结果。需要注意的最重要的事情是图像的旋转,以及它如何影响 CameraPreview 和 CameraImage 的相对坐标。
CameraProcessor
CameraProcessor 将处理从_processCameraImage 下的CameraView 传递给它的每一帧。通过让 CameraProcessor 成为 CameraPreview 的覆盖,CameraProcessor 将负责通过CameraPainter 更新预览覆盖。
@override
Widget build(BuildContext context) {
_processCameraImage(widget.image);
return Scaffold(
extendBodyBehindAppBar: true,
appBar: AppBar(backgroundColor: Colors.transparent,),
backgroundColor: Colors.transparent,
body: Stack(
children: <Widget>[
if (customPaint != null) customPaint!
注意:示例应用程序将 CameraPreview 设计为全屏小部件,因此同一页面下没有 Scaffolds 来显示 snackbar 错误。因此,一个 Scaffold 被添加到处理器中,以显示在 CameraPreview 之上的流处理期间引发的任何错误。
相机帧的所有处理都将在*_processCameraImage中,包括生成和等待isolates。因此,有必要确保一次运行一个_processCameraImage*,以避免产生大量繁重任务导致应用程序和设备崩溃。
举个例子:
bool isBusy = false;
Future _processCameraImage(CameraImage camImage) async {
// Ensure a single process is ran at a time
if (isBusy) return;
isBusy = true;
final resConvert = await spawnAndConvertImage(camImage);
Uint8List? rgbaBytes = resConvert[keyConvert];
if (haarCascadesLoaded && rgbaBytes != null) {
// Portrait capture of Android cam images are in landscape
// while iOS cam images are in portrait
int height = Platform.isAndroid
? camImage.width
: camImage.height;
int width = Platform.isAndroid
? camImage.height
: camImage.width;
final resDetect =
await spawnAndDetect(rgbaBytes, height, width);
Faces? detected = resDetect[keyDetect];
if (detected != null && detected.count > 0) {
if (!mounted) return;
setState(() {
customPaint = CustomPaint(
size: Size.infinite, // Full screen preview
painter: CameraPainter(
detected,
Size(width.toDouble(), height.toDouble())
} else {
if (!mounted) return;
setState(() {
// To remove any painted elements on overlay
customPaint = null;
isBusy = false;
Isolates
如 CameraProcessor 所示,spawnAndConvertImage和spawnAndDetect都是生成 Isolates 的函数,以便后台线程处理它们。这是必要的,这样缓慢的进程不会阻塞 UI 并允许应用程序继续运行。
示例指南:https://github.com/dart-lang/samples/blob/master/isolates/bin/send_and_receive.dart
只要你知道如何在 OpenCV Mat 中读取,OpenCV 中的处理可以支持任何图像格式。Flutter 相机捕获图像并传递诸如 Android 的 yuv420 和 iOS 的 bgra888 之类的 CameraImage。
将图像字节数据的任何传递标准化为 OpenCV C++ 是一个很好的做法,我发现 BGRA 是 OpenCV 读取输入以及使用图像包(https://pub.dev/packages/image)转换为 Flutter Image 的最简单格式。
为什么我们使用isolate和OpenCV将CameraImage转换为BGRA字节数据?
因为在 Flutter 中将 CameraImage 转换为 Flutter Image 与 C++ 转换相比非常慢,这反过来会导致 UI 卡顿且无响应。这个问题相信大部分使用前文提到的 camera 插件的用户都会遇到。
static Future<Map<String, dynamic>> spawnAndConvertImage(
CameraImage image) async {
final p = ReceivePort();
await Isolate.spawn(_convertCamImageToBgra, [
p.sendPort,
image
return (await p.first) as Map<String, dynamic>;
static void _convertCamImageToBgra(List<dynamic> args) async {
SendPort responsePort = args[0];
CameraImage image = args[1];
Uint8List? outBgra;
try {
if (image.format.group == ImageFormatGroup.yuv420) {
outBgra = FFIBindings.convertAndroidCamImage2Bgra(
image.planes[0].bytes,
image.planes[1].bytes,
image.planes[2].bytes,
image.planes[0].bytesPerRow,
image.planes[0].bytesPerPixel!,
image.planes[1].bytesPerRow,
image.planes[1].bytesPerPixel!,
image.width,
image.height);
} else if (image.format.group == ImageFormatGroup.bgra8888) {
outBgra = image.planes[0].bytes;
} catch (e) {
// Catch errors
Map result = <String, dynamic>{};
result[keyConvert] = outBgra;
Isolate.exit(responsePort, result);
官方 isolates 模板:https://github.com/dart-lang/samples/blob/master/isolates/bin/send_and_receive.dart
由于 iOS 已经返回 BGRA 格式的图像字节,我们不需要转换图像。
FFI 绑定和 C/C++ 代码
FFI 绑定充当 C/C++ 代码和 Dart 代码之间的接口。这是应该正确处理动态内存的地方,这样来自 Dart 的调用者就不需要手动管理内存。如果你使用现成的 C/C++ 文件,ffigen 包可以帮助你自动生成此类绑定,但该包通常会返回带有指针的绑定,其中调用者仍需要内存分配。
ffigen 包:https://pub.dev/packages/ffigen
因此,鼓励在 ffigen 生成的绑定文件之后编写自己的绑定作为一个很好的参考。
这里是 Dart 绑定的工作示例和FFIBindings.convertAndroidCamImage2Bgra的 C 代码。
使用 OpenCV 加快处理速度的建议
注 1:由于我们正在传递 BGRA,因此需要以 CV_8UC4 格式读取字节数据(将图像数据从 CameraPreview 导入 C++ 代码的最快且一致的方式)到 OpenCV Mat 对象中。
如果要将 BGRA 转换为 BGR,则格式将为 CV_8UC3,而传递灰度(直接从 Android CameraImage 的平面 0 字节/在 iOS 中将 BGRA 转换为灰色)将为 CV_8UC1。
注 2:大多数情况下,整个相机预览并不构成感兴趣的区域。因此,建议尽可能减小处理图像的大小,以加快每个处理循环。可以通过根据相机控制器中设置的 ResolutionPreset 的固定大小裁剪图像或将图像调整为较低分辨率来完成。
注 3:由于初始化和用户对目标聚焦的调整,相机图像流通常会出现模糊期。因此,可以使用诸如快速傅里叶变换 (FFT) 或拉普拉斯算子之类的模糊检测技术,来确定任何进一步的处理。
每当需要进一步处理时,可以将得分最高的帧/图像保存在有状态小部件 (CameraProcessor) 中。请注意,得分最高的帧将需要在一段时间后重置,以避免处理旧帧而不是最近的帧。
注 4:任何需要加载模型文件的处理都应该从initState调用C++的初始化和释放调用,并从处理器的有状态小部件释放。这是为了确保模型只加载一次并正确处理以避免内存泄漏。
要使用此类模型,你需要将文件添加到资源中,从 rootBundle 将它们加载到内存中并编写一个新文件,以便你可以获得要传递给需要模型路径的 OpenCV 函数的文件路径。
这里有一个例子:https://github.com/khaifunglim97/flutter-image-processing/blob/master/lib/face_detector/face_detector_bindings.dart
但是,如果这对你来说仍然太慢,更好的方法是将模型文件的内容转换为可以包含并直接从 C++ 代码调用的变量。
注5:图像的输入/返回字节数据将是Uint32而不是Uint8。因此,需要分配 sizeOf() * width * height 的内存。但是,我们可以使用现有的 ptr.ref.asTypedList(width * height).buffer.asUint8List() 函数将 Uint32List 转换回 Uint8List 以供外部使用。
FFI 绑定指南
将查找代码添加到将与插件一起构建的共享库中。例子:
final DynamicLibrary nativeLib = Platform.isAndroid
? DynamicLibrary.open('libnative.so')
: DynamicLibrary.process();
在 Uint8List 上准备一个通用扩展来创建一个指针:
// Credits to Tims !
extension Uint8ListBlobConversion on Uint8List {
Pointer<Uint8> allocatePointer() {
final blob = calloc<Uint8>(length);
final blobBytes = blob.asTypedList(length);
blobBytes.setAll(0, this);
return blob;
通过特征而不是同一文件中的所有绑定将绑定添加到插件类中。例子:
Future<String?> getPlatformVersion() {
static final cameraBindings = CameraBindings(nativeLib);
static final FaceDetectorBindings = FaceDetectorBindings(nativeLib);
在每个绑定类中,公共函数应该有参数和 Dart 类型的返回对象,而不是 FFI 指针。这是为了确保指针的所有内存管理都包含在绑定中。
Uint8List convertAndroidCamImage2Bgra(
Uint8List plane0Bytes,
Uint8List plane1Bytes,
Uint8List plane2Bytes,
int yBytesPerRow,
int yBytesPerPixel,
int uvBytesPerRow,
int uvBytesPerPixel,
int width,
int height
return Uint8List.fromList(...); // Copy the value out
注意:从指针返回值总是需要将指针的 ref 值复制到 Dart 对象中,这样当指针被释放时,值仍然存在。
在动态内存分配(malloc / calloc)之后始终将你的代码放入 try 块中,以便在任何失败的情况下,将执行malloc.free() ,释放所有先前分配的内存的 finally 块,以避免任何内存泄漏。 例子:
Pointer<ExampleStruct> ptrStruct = malloc<ExampleStruct>();
Pointer<Uint8> ptrData = uInt8ListData.allocatePointer();
Pointer<Utf8> ptrStr = "test".toNativeUtf8();
try {
... // Perform call to C/C++ code
} finally {
malloc.free(ptrStruct);
malloc.free(ptrData);
malloc.free(ptrStr);
对于结构体,它需要遵循与 Dart 中 C/C++ 结构完全相同的类型。
此外,建议创建一个扩展 FFI Struct 的类,并在 Dart 代码中使用相同的类。例子:
// C++ struct
typedef struct Coordinate {
int x;
int y;
unsigned char* data;
} Coordinate;
// FFI Bindings struct
class Coordinate extends ffi.Struct {
@Int32()
external int x;
@Int32()
external int y;
external Pointer<Uint8> data;
// Dart struct
class DartCoordinate {
late int x;
late int y;
late Uint8List data;
DartCoordinate.fromCoordinate(Coordinate coord) {
x = coord.x;
y = coord.y;
data = Uint8List.fromList(coord.data.asTypedList().buffer)
// To allocate a struct
Pointer<Coordinate> ptr = malloc<Coordinate>();
Pointer<Uint8List> ptrData = data.allocatePointer();
ptr.ref.x = x;
ptr.ref.y = y;
ptr.ref.data = ptrData;
处理列表(C/C++ 数组和双指针)。例子:
// C++ struct
typedef struct Point {
Coordinate* coordinates;
int count // there should always be a count for list size
} Point;
// FFI Bindings struct
class Point extends ffi.Struct {
external Pointer<Point> coordinates;
@Int32()
external int count;
// Dart struct
class DartPoint {
late List<DartCoordinate> coordinates;
DartPoint.fromPoint(Point point) {
final dartCoords = <DartCoordinate>[];
for (int i = 0; i < point.count; i++) {
final coord = point.coordinates[i];
dartCoords.add(DartCoordinate.fromCoordinate(coord);
coordinates = dartCoords;
// To allocate (should be in C/C++ function)
Point* point = (Point*) malloc(pointCount * sizeof(*point));
point.count = pointCount;
for (int i=0; i < pointCount; i++) {
point[i] = (Coordinate) {x, y};
point[i].data = data;
// To free (should be in Dart)
// ensure each child pointer is freed
for (int=0; i < pointPtr.count; i++) {
malloc.free(pointPtr.coordinates[i]);
malloc.free(pointPtr); // then free the struct
C/C++ 代码指南
确保所有静态库的导入都用 <> 而不是“”括起来。只有 /ios/Classes/ 目录中的 C/C++ 文件才能用“”括起来以表示#include。
当某些静态库使用不同的头文件构建或 Android 和 iOS 平台的要求不同时,对 Android 使用 #ifdef ANDROID ,对 iOS 使用 #else。
Android 的日志记录将与 iOS 不同。
.cpp 文件的头文件 (.h) 必须具有外部“C”及其保护。
// OpenCV tutorials often #include "opencv2/imgproc.hpp"
#include <opencv2/imgproc.hpp>
#include "test.h"
// Include different files for Android and iOS
#ifdef __ANDROID__
#include <android/log.h>
#include <someAndroidHeader.h>
#else
#include <someiOSHeader.h>
#endif
// Logging for Android and iOS
#ifdef __ANDROID__
__android_log_print(ANDROID_LOG_DEBUG, "title", "%d", integer);
#else
std::cout << "title: " << integer << "\n";
#endif
// Cpp header files must haves
#ifdef __cplusplus
extern "C" {
#endif
int GetCoordinate(Coordinate* outCoordinate);
#ifdef __cplusplus
#endif
5 — C/C++ 函数应该返回整数(状态码)并使用指针来修改和返回值。这是为了确保错误代码可以从 C/C++ 函数传回以进行日志记录,并将内存管理仅推送到 FFI 绑定而不是内部 C/C++ 代码。
// in C file
int GetCoordinate(Coordinate* outCoordinate) {
outCoordinate->x = getX();
outCoordinate->y = getY();
outCoordinate->data = getData();
return 0;
6 — 如果需要从 C++ 函数返回 std::string,则该函数的返回类型应为 const char *。
// in C++ file
const char* GetString() {
std::string strTest = "test"
return strTest.c_str();
// in Dart
getString().toDartString();
GitHub 仓库
https://github.com/khaifunglim97/flutter-image-processing
这个 repo 带有使用 OpenCV 的简单面部和眼睛检测,旨在为读者提供一个基本的模板和指南来构建他们的图像处理应用程序。
☆ END ☆
如果看到这里,说明你喜欢这篇文章,请转发、点赞。微信搜索「uncle_pn」,欢迎添加小编微信「 woshicver」,每日朋友圈更新一篇高质量博文。
↓扫描二维码添加小编↓
本文将帮助你在 Android 和 iOS 中为 Flutter 应用程序集成 C/C++ 插件。问题1: Flutter camera 插件没有为快速复杂的图像流处理提供完整的指南。问题2: Flutter camera 插件处理图像流太慢。问题3:图像处理需要OpenCV包问题4:你当前的图像流处理实现正在阻塞 UI 并导致你的应用程序滞后和内存泄漏问题5:缺乏实现接口和使用 Dart FFI...
一个颤振库,用于显示来自互联网的图像并将它们保存在缓存目录中。
如何使用
CachedNetworkImage 可以直接使用,也可以通过 ImageProvider 使用。 CachedNetworkImage 和 CachedNetworkImageProvider 对 web 的支持都很少。 它目前不包括缓存。
使用占位符:
CachedNetworkImage (
imageUrl : "http://via.placeholder.com/350x150" ,
placeholder : (context, url) => CircularProgressIndicator (),
errorWidget : (context, url, error) => Icon ( Icons .error),
做人要简单的帖子
1、在vscode中使用指令新建一个plugin项目:flutter create -t plugin native_add
2、在新建的native_add项目中,新建native_add.cpp文件,并放到ios/Classes/,如下图
3、native_add.cpp添加两个方法
#include
extern C {
// __attribute__((visibility(default))) __attribute__((used))
int32_t native_add(int
3、在android原生项目中,选择file-new-import module
4、选择file-project structure,dependencies-app,点击左上角的“+”号,选择module dependency,添加opencv依赖
5、修改openc...
TensorFlow +
Opencv 实现简单的
图像识别。
使用TensorFlow搭建简单的BP神经网络的模型,一层输入层,一层隐藏,一层输出,最终实现简单的
图像识别。
缓存的网络
图像颤动
库,用于显示来自Internet的
图像并将其保存在缓存目录
中。
如何
使用CachedNetworkImage可以是已缓存的网络
图像颤动
库,用于显示来自Internet的
图像并将其保存在缓存目录
中。
如何
使用CachedNetworkImage可以直接
使用,也可以通过ImageProvider
使用。
作为CachedNetworkImageProvider的CachedNetworkImage都对Web的支持最少。
当前不包括缓存。
使用占位符:CachedNetworkImage(imageUrl:“ http://via.placeholder.com/350x150”,占位符:(context,url)=> CircularProgressIndicator()等
这是使用 + 构建的简化的移动应用“克隆”。 仅用于练习原型制作和Flutter技能。
如果愿意,请阅读Medium上的,以了解如何从头开始创建这样的应用程序。
屏幕截图:
网络应用截图:
许多语言学家认为,一个人说的自然语言会影响他们的思维方式。这个理论适用于计算机语言吗?使用不同编程语言编程的程序员针对问题想出的解决方案经常完全不同。举一个极端的例子,为了程序结构更加清晰,计算机科学家取消了goto语句(这与小说《1984》中的极权主义领导者从自然语言中删除异端词语以消除思维犯罪不太一样,但道理就是这样)。
这与Flutter和Dart有什么关系?确实有关系。早期的Flutter...
1、一定要把基本的数据结构,经典的算法,Unix编程,程序编译链接及计算机原理等基础知识扎牢,这些会长远影响你的职业发展。
2、 推荐从C语言入门,不单是因为很多操作系统、网络协议栈开源代码由C/
C++实现,更多是因为C语言自身的特性:作为高级语言用户无需关注底层细节,同时能直观的看到数据
流向。而且C相对语法规则较为简单,可以短时间的上手
应用。最重要的是,遵循C/
C++、python的学习方式,比直接学习python更能清晰的知道自己程序的内存等性能状况。
本文知识点
身份证识别整体架构
在使用 GetX 库中的 Obx 方法时,可以使用 async 和 await 实现异步操作。
例如,在一个 Obx 函数中调用一个异步函数,并使用 await 关键字等待返回结果:
final myValue = Obx(() async {
var value = await someAsyncFunction();
return value;
在这个例子中,someAsyncFunction() 是一个异步函数,Obx 包装了它并返回一个 Obx 对象。
当 someAsyncFunction() 返回时,Obx 会自动刷新并通知所有依赖它的 widgets 进行更新。
需要注意,在 Obx 中使用 await 的情况,需要确保 Obx 函数是 async 的。