Core Image编程指南翻译三(面部检测)

示例代码下载

Core Image可以分析和查找图像中的人脸。它执行面部检测,而不是识别。人脸检测是包含人脸特征的矩形的识别,而人脸识别是特定人脸(约翰,玛丽等)的识别。在Core Image检测到面部后,它可以提供有关面部特征的信息,例如眼睛和嘴巴位置。它还可以跟踪视频中已识别面部的位置。

image

了解人脸在图像中的位置可让您执行其他操作,例如裁剪或调整脸部图像质量(色调平衡,红眼校正等)。您还可以在脸上执行其他有趣的操作; 例如:

匿名面部滤镜处理显示如何仅将像素滤镜应用于图像中的面部。

白色插图面部滤镜处理显示如何在脸部周围放置小插图。

注意: 面部检测适用于iOS v5.0及更高版本以及OS X v10.7及更高版本。

面部检测

使用CIDetector该类在图像中查找面部,如清单2-1所示。

清单2-1 创建面部检测器

CIContext *context = [CIContext context]; // 1NSDictionary *opts = @{ CIDetectorAccuracy : CIDetectorAccuracyHigh }; // 2CIDetector *detector = [CIDetector detectorOfType:CIDetectorTypeFace context:context options:opts]; // 3 opts = @{ CIDetectorImageOrientation : [[myImage properties] valueForKey:kCGImagePropertyOrientation] }; // 4NSArray *features = [detector featuresInImage:myImage options:opts]; // 5

这是代码的作用:

使用默认选项创建上下文。您可以使用处理图像中描述的任何函数创建上下文。您还可以在创建检测器时选择nil而不是提供上下文。

创建选项字典以指定检测器的准确度。您可以指定低精度或高精度。精度低(CIDetectorAccuracyLow)快; 如本例所示,高精度是周密但较慢的。

创建面部检测器。您可以创建探测器的唯一类型是人脸。

设置用于查找面的选项字典。让Core Image了解图像方向非常重要,这样探测器才能知道它可以在哪里找到直立面。大多数情况下,您将从图像本身读取图像方向,然后将该值提供给选项字典。

使用检测器查找图像中的特征。您提供的图像必须是CIImage对象。Core Image返回一个CIFeature对象数组,每个对象代表图像中的一个面。

在获得一系列面孔后,您可能想要找出它们的特征,例如眼睛和嘴巴的位置。接下来的部分将介绍。

获得面部和面部特征位置

面部特征包括:

左眼和右眼的位置

嘴巴的位置

跟踪ID和跟踪帧数,Core Image用于跟踪视频片段中的脸部(适用于iOS v6.0及更高版本以及OS X v10.8及更高版本)

从CIDetector对象获取面部特征数组后,可以遍历数组以检查每个面部的位置以及面部中的每个特征,如清单2-2所示。

清单2-2 检查面部特征边界

for (CIFaceFeature *f in features) { NSLog(@"%@", NSStringFromRect(f.bounds)); if (f.hasLeftEyePosition) { NSLog(@"Left eye %g %g", f.leftEyePosition.x, f.leftEyePosition.y); } if (f.hasRightEyePosition) { NSLog(@"Right eye %g %g", f.rightEyePosition.x, f.rightEyePosition.y); } if (f.hasMouthPosition) { NSLog(@"Mouth %g %g", f.mouthPosition.x, f.mouthPosition.y); }}

未经允许不得转载:吸脂手术网 » Core Image编程指南翻译三(面部检测)

赞 (0)