前言
之前看到一篇很好的关于视图渲染的文章(Getting Pixels onto the Screen),最近项目中遇到一些帧率优化的问题,想起来又阅读了一遍,并且抽时间进行了翻译,以便今后学习查阅。正文
将内容显示到屏幕上,有许多方式可以实现。这个过程包含许多框架,依靠许多函数和方法的组合实现。本文讨论该过程的底层原理。当你需要考虑相关性能问题时,本文内容能够帮助挑选最优的 API。本文研究的对象是 iOS 系统,不过其中大部分内容也适用于 OS X。
1. 图形栈(Graphics Stack)
内容显示到屏幕的过程有许多工作。但当内容显示到屏幕上后,当前的结构就很简单,每个像素都是由3个颜色单元组成:红色、绿色和蓝色。屏幕上某个像素点显示了特定颜色,本质上就是,组成该像素的红绿蓝这3个颜色单元被使用特定亮度点亮。在 iPhone 5上,屏幕有 1,136×640 = 727,040 个像素,因此有 2,181,120 个颜色单元。在拥有视网膜显示屏的 15” MacBook Pro 上,这个数值超过一千五百万。整个显示系统的软硬件通力合作,确保每个颜色单元使用了正确的亮度点亮。当你滑动视图时,百万数量级的亮点必须每秒钟更新60次。这是一个巨大的工作量。
1.1 软件组件(The Software Components)
下面相关软件组件的简图:
紧靠着 Display 的是 GPU(graphics processing unit)。GPU 为图形并行计算量身定制,是一个高度并发的处理器单元。因此,它能够处理大量的像素计算并将处理结果显示到屏幕上。GPU 的并行计算能力也使得 Texture 的合成非常高效,本文后面会详细讨论。重点是,GPU 是非常专业的处理器,擅长处理这种类型的计算,比起 CPU,它计算更快,功耗更小。普通 CPU 的设计考虑的是一般性的计算,它可以做很多不同类型的事情,但是比如纹理合成这种工作,执行起来会比 GPU 慢一点。
GPU Driver 是一些直接与 GPU 通信的代码。GPU Driver 可以看成是对各种复杂 GPU 的封装,为调用方提供标准化的接口。相邻 GPU Driver 的调用方通常是 OpenGL / OpenGL ES。
OpenGL(Open Graphics Library)是用来进行 2D 和 3D 图形绘制的 API。上文说到 GPU 是非常专业化的硬件,OpenGL 能够与 GPU 密切合作,释放 GPU 性能,实现硬件加速渲染。对很多人来说,OpenGL 似乎是非常底层的 API,但是1992年首次发布时,它是与 GPU 通信的第一个主要标准化方式。程序员不再需要为每一种 GPU 重写他们的代码,这个一个巨大的进步。
上图中,OpenGL 再往后有些分散。当前的 iOS 系统中,几乎所有的事情都得经过 Core Animation,但是 OS X 系统中,Core Graphics 绕过 Core Animation 的情况并不罕见。对于一些专门的应用程序,尤其是游戏应用,可能会直接与 Open GL / OpenGL ES 通信。Core Animation 会利用 Core Graphics 来实现一些绘制,这让事情变的更加混乱。一些框架,比如 AVFoundation、Core Image,会用到其中的多种技术。
上面说了这么多,需要记住以下几点。GPU 是一个非常强大的图形硬件,在显示内容过程中起着中心作用。GPU 通过一些总线与 CPU 相连。OpenGL、Core Animation、Core Graphics 这些框架组织着 GPU 和 CPU 之间的数据传输。为了在屏幕上显示内容,首先需要在 CPU 上进行一些处理,然后数据被传输到 GPU,再经过 GPU 处理,最后像素在屏幕上显示出来。
这个过程中的每一步都有自己的挑战,并且需要做各种权衡。
1.2 硬件组件(The Hardware Players)
上文说的挑战一个非常简单的例子可能是这样的:GPU 有许多合成好的 Texture(位图),这些 Texture 是为每一帧(1秒钟60次)准备的。每一个 Texture 需要占用部分 VRAM(video RAM),GPU 能够持有的 Texture 总数存在上限。虽然 GPU 很擅长合成,但总有一些合成任务要比另一些任务更加复杂,GPU 在16.7毫秒(1/60秒)内能够完成的工作存在上限。
下一个挑战是把数据传送到 GPU。数据需要从 RAM 转移到 VRAM,GPU 才能够处理。这被称为上传到GPU。这项工作似乎微不足道,但对于大的 Texture,这仍然是一项耗时的工作。
最后,CPU 运行着你的程序,你要求 CPU 从磁盘载入一张 PNG 并解压。这些都工作都发生在 CPU 上。当你想在屏幕上显示这张解压的 PNG,就需要将数据上传到 GPU。一些普通操作,比如在屏幕上显示文本,对 CPU 来说也是非常复杂的任务,CPU 需要紧密整合 Core Text 和 Core Graphics 框架,从文本生成位图。这项工作完成后,数据被当成 Texture 上传到 GPU,准备展示。当你在屏幕上移动文本,相同的 Texture 是能够复用的。CPU 只需告诉 GPU 新的位置,GPU 便能重用已经存在的 Texture。CPU 不必重新渲染文本,且位图不必重新上传。
上文描述了目前为止遇到的复杂问题,后面本文深入讲述其中涉及的技术。
2. 合成(Compositing)
合成是图像领域的术语,描述的是不同的位图是如何整合在一起并最终形成屏幕上看到的图像。从许多方面来看,这件事情是如此显而易见,以至于我们很容易忽略其中的复杂程度和计算。
暂且忽略一些复杂深奥的情况,假设屏幕上所有东西是一个 Texture。Texture 是一个由 RGBA 值组成的矩形区域,也就是说每个像素包含有红色、绿色和蓝色值,还有透明度值。Core Animation 中的 CALayer,本质上就是 Texture。
在上述简单设定下,每个层是一个 Texture,所有的 Texture 以特定方式互相堆叠在一起。对于屏幕上的每个像素,GPU 需要弄清楚如何混合这些 Texture 以得到该像素的 RGB 值。这便是合成的含义。
如果我们只有一个 Texture,这个 Texture 的尺寸和屏幕相同,并且和屏幕的像素对齐,那么屏幕上的每个像素都对应了 Texture 中的一个像素。这个 Texture 的像素最终成为屏幕上显示的像素。
如果我们需要将第二个 Texture 放到第一个 Texture 的上面,GPU 就需要将这个 Texture 合成到第一个 Texture 上。Texture 有不同的混合方式,假设两个 Texture 按像素对齐并且采用正常混合的方式,每个像素可以使用下面的公式计算出最终的颜色:
R = S + D * (1 - Sa)
R 表示最终颜色;S 表示源颜色,对应的是上层的 Texture;D 表示目标颜色,对应的是下层的 Texture;Sa 表示源颜色的透明度值。这个公式中的所有颜色(R、S、D)都已经预先乘以了它们的透明度值。
下面通过几个例子来理解上面这个公式。假设所有的 Texture 都是不透明的,也就是说透明度值为1。如果下层 Texture 的一个像素为蓝色(RGB = 0, 0, 1),上层 Texture 的对应像素为红色(RGB = 1, 0, 0),因为 Sa = 1,代入公式计算:
R = S
最终颜色值为上层 Texture 的红色。符合实际情况。
基于上面的例子,假设上层 Texture 有 50% 的透明度,也就是说透明度值为0.5,则 S = (0.5, 0, 0)。代入公式计算:
0.5 0 0.5
R = S + D * (1 - Sa) = 0 + 0 * (1 - 0.5) = 0
0 1 0.5
最终得到颜色值为(0.5, 0, 0.5),是一种紫色。半透明的红色叠加到蓝色背景上,从直觉上判断正是这种颜色。
我们上面做的计算处理的是,将一个 Texture 的一个像素合成到另一个 Texture 中的一个像素。GPU 需要计算的是两个 Texture 重叠部分的所有像素。通常情况下,大多数应用包含了大量的视图层级,这些内容需要被合成到一起。尽管 GPU 为此高度优化,但这些工作已足以使得 GPU 处于忙碌状态。
2.1 是否透明(Opaque vs. Transparent)
如果即将添加的 Texture 是完全不透明的,那么最终屏幕上的像素和该 Texture 相同。GPU 可以节省大量的工作,因为只需要拷贝该 Texture 的像素,不再需要进行多个 Texture的混合。但是 GPU 无法知道 Texture 上的像素是否都是不透明的。Texture 对应着 Core Animation 中的 CALayer,CALayer 的 opaque 属性用于设置是否不透明。如果 opaque 设为 YES,那么 GPU 不再进行图层的混合,直接拷贝最上层图层的像素而忽略该图层下面的内容。这样可以为 GPU 节省相当多的工作量。Instruments 和模拟器调试菜单下有 “color blended layers” 选项,能够标记出半透明的图层,也就是 GPU 需要进行图层混合的地方。
合成不透明的图层需要的计算更少,代价更小。所以,如果你知道你的图层是不透明的,确保将它的 opaque 属性设为 YES。如果你载入一个没有 Alpha 通道的图片,那该图层的 opaque 属性会自动设为 YES。需要注意的是,一张没有 Alpha 通道的图片和一张所有像素 Alpha 值为100%的图片是不同的。对于后者,Core Animation 必须假设可能有 Alpha 不是100%的像素存在。Finder 中,查看图片简介,在更多信息中会指出当前图片是否有 Alpha 通道。
2.2 像素是否对齐(Pixel Alignment and Misalignment)
目前为止,我们考察的图层的像素和显示的像素完全对齐。在像素对齐的情况下,需要进行的计算也相对较少。当 GPU 需要判断如何显示屏幕上的一个像素时,只需要查看该像素之上的所有图层对应位置的像素,将它们合成到一起。或者,如果最上层的图层是不透明的,GPU 只需要简单的拷贝最上层图层的像素就行了。
如果一个图层的所有像素与屏幕上的像素一一对应,那这个图层就是像素对齐的。主要存在两种原因使得这种情况不满足。第一个原因是缩放,当图层被放大或缩小时,那图层的像素和屏幕的像素将不再对齐;第二个原因是图层布局的起始位置不在像素的边界位置上。
上述两种情况都会使得 GPU 不得不进行一些额外的计算。为了合成出一个值,GPU 得从原始图层取出多个像素进行混合。如果所有的东西都是像素对齐的,GPU 的工作就会更少。
同样的,Instruments 和模拟器调试菜单下有一个“color misaligned images”选项,能够指出发生这种情况的 CALayer 实例。
2.3 遮罩(Masks)
一个图层可以有一个与之关联的遮罩。遮罩是只有 Alpha 值的位图。图层的像素会事先应用它的遮罩,然后再进行像素的合成。当你为图层设置拐角半径(corner radius),实际上便是为该图层设置了遮罩。为图层设置任意样式的遮罩也是可以的,比如设置一个样式为大写字母 A 的遮罩。只有遮罩下的图层内容会被渲染出来。
2.4 离屏渲染(Offscreen Rendering)
离屏渲染能够被 Core Animation 自动触发,也能由应用程序显式触发。离屏渲染在一个新的缓冲区中合成/渲染部分视图树,然后这个缓冲区再被渲染到屏幕上。(离屏也就是不在屏幕上的意思)
如果合成的计算复杂度很高,你可能希望强制指定离屏渲染。这是一种缓存已合成好的图层的方法。如果你的渲染树(所有图层以及它们的组织方式)比较复杂,你可以强制离屏渲染来缓存这些图层,然后使用该缓存合成到屏幕上。
如果你的应用有许多图层一起参与动画,GPU通常必须在每一帧里(1/60s)将所有这些层重新合成到下方的视图上。当启用了离屏渲染后,GPU 首先会在一个新的 Texture 上将这些图层组合到一个位图缓存里,然后使用这个 Texture 在屏幕上绘制。这样的话,当这些图层一起移动,GPU 能够重用位图缓存,可以节省很多的工作。(需要注意的是,这只有在这些图层不改变的情况下才有效。不然的话,GPU 需要不断的重建位图缓存。)通过将 shouldRasterize 属性设为 YES 来启用这种行为。
不过,这是一种需要权衡的方案。在一些情况下,这会让事情变得更慢。创建离屏缓冲区对于 GPU 来说是个额外的工作,尤其是当 GPU 永远不会重用到这些位图缓存时,这些工作都白白浪费。然而,一旦位图被重用了,GPU 便能卸下重担。你必须自己测量 GPU 的利用率和帧率,来确定这种方案是否有帮助。
离屏渲染也可能是作为一个副作用发生。如果你直接或者间接的为一个图层设置遮罩,Core Animation 会强制离屏渲染来应用遮罩。这给 GPU 增加了负担。因为通常 GPU 只需要直接在帧缓冲区(也就是屏幕上)绘制就行了。
在 Instruments 的 Core Animation 工具和模拟器的调试菜单下,有一个“Color Offscreen-Rendered Yellow”选项,能够将那些在离屏缓冲区中渲染过的区域用黄色标记出来。同时,记得选上“Color Hits Green and Misses Red”选项,绿色表示离屏缓冲区被重用了,红色则表示没有。
通常情况下,你会希望避免离屏渲染,因为这会造成额外开销。直接在帧缓冲区合成图层,代价更小。相对的情况是,首先创建一个离屏缓冲区,然后在该缓冲区内渲染,最后将缓冲区中的内容渲染到帧缓冲区中。这其中包含了两次昂贵的上下文切换操作(将上下文切换到离屏缓存区,然后重新切换到帧缓冲区)。
在你打开“Color Offscreen-Rendered Yellow”选项后,当你看到了黄色,这通常代表了一种警告。但是这并不一定是坏事,如果 Core Animation 能够重用离屏渲染的结果,这有可能带来性能的提升。当在离屏缓冲区中绘制的图层没有发生变化,重用便能发生。
还需要注意的是,离屏缓冲区是有大小有限的。Apple 暗示,离屏缓冲区大约是屏幕空间大小的两倍。
如果是你使用图层的方式导致了离屏渲染,你可能最好避免这种使用方式。使用遮罩、设置圆角、设置阴影,这些都会触发离屏渲染。
以遮罩来说,如果希望设置圆角(一种特殊的遮罩)和 clipsToBounds / masksToBounds 属性,你可以通过事先设置内容来实现,比如使用带有圆角的图片。跟之前一样,你需要做一下权衡。如果你希望为图层添加一个矩形遮罩,你可以通过设置 contentsRect 来实现,而不是使用遮罩。
如果你的最终方案需要将 shouldRasterize 设为 YES,记住同时将 rasterizationScale 设为 contentScale。
3. Core Animation & OpenGL ES
顾名思义,Core Animation 就是用于让屏幕上的东西动起来。但是,我们会基本上跳过关于动画的讨论,而着重于绘制。需要知道的是,Core Animation 使你能够做非常高效的渲染,因此,你能够在每秒60帧的条件下进行动画。
Core Animation 的核心是对 OpenGL ES 的一层抽象。简单来说,它让你能够使用 OpenGL ES 的强大功能,但是却不需要处理与 OpenGL ES 相关的复杂问题。上文中,当我们讨论合成时,我们混用了图层(layer)和 Texture 这两个词。他们不是完全相同的两样东西,但是相当类似。
Core Animation 的图层可以有子图层,所以最终你得到的是一个图层树。Core Animation 需要做的繁重工作包括,判断哪些图层需要绘制或重绘制,需要调用 OpenGL ES 的哪些接口来将这些图层合成到屏幕上。
例如,当你将一个图层的 contents 赋给一个 CGImageRef 时,Core Animation 会创建一个 OpenGL Texture,也就是保证这个位图上传到对应的 Texture。又或者,如果你重写了 -drawInContext,Core Animation 会分配一个 Texture,保证你调用的 Core Graphics 接口最终转换成这个 Texture 的位图数据。设置图层属性和继承 CALayer 能影响到 OpenGL 绘制的执行方式,许多 OpenGL ES 的底层行为都被很好的封装在易于理解的 CALayer 概念之中。
Core Animation 在一端组织着通过 Core Graphics 实现的基于 CPU 的位图绘制,在另一端组织着 OpenGL ES。并且因为 Core Animation 在渲染流程中处于一个至关重要的位置,你怎样使用 Core Animation 会显著的影响到性能。
3.1 CPU 受限与 GPU 受限(CPU bound vs. GPU bound)
当你在屏幕上显示一些内容时,有许多部件参与了这个流程。其中主要的两个硬件部件是 CPU 和 GPU。它们名字中都包含了字母 P 和 U,表示处理单元(processing unit)。当需要在屏幕上绘制内容时,它们都需要进行处理。并且,二者都只有有限的资源。
为了达到每秒60帧,你得确保 CPU 和 GPU 都不能过载。除此之外,即使你达到了60fps,你应该将尽量多的工作交给 GPU 完成,从而让 CPU 有更多的时间运行其它应用程序代码,而不是忙于绘制工作。并且通常来说,在绘制方面 GPU 比 CPU 更加高效,能降低系统整体的负载和能源消耗。
既然绘制的性能同时依赖于 CPU 和 GPU,你需要弄清楚哪一部分正在限制你的绘制性能。如果你使用了全部的 GPU 资源,也就是说 GPU 正在限制你的性能,那这种情况称为 GPU 受限(GPU bound)。同样的,如果你正在最大限度的使用 CPU,这种情况就被称为 CPU 受限(CPU bound)。
如果你是 GPU 受限的,你需要降低 GPU 的负载(比如将更多工作交给 CPU 完成)。如果你是 CPU 受限,那得降低 CPU 的负载。
可以使用 OpenGL ES Driver instrument 来判断是否 GPU 受限。点击 i 按钮,然后进行配置,确保 Device Utilization % 被选中。现在,当你运行你的应用,你能够看到 GPU 的负载是多少。如果这个数值接近 100%,表明你正试着让 GPU 做非常多的工作。
应用程序执行太多任务这种更传统方面的原因通常导致 CPU 受限。Time Profiler instrument 能够帮助进行调试。
4. Core Graphics 或 Quartz 2D(Core Graphics / Quartz 2D)
Quartz 2D 更多的是因为它被包含在 Core Graphics 框架中,而被人所知。
与我们能覆盖到的内容相比,Quartz 2D 拥有更多的使用技巧。我们不会讨论和 PDF 创建、渲染、解析或打印相关的众多内容。只需要知道,打印和创建 PDF,在很大程度上和在屏幕上绘制位图是一样的,因为它们都是基于的 Quartz 2D。
本文会比较简略的介绍 Quartz 2D 的主要概念。详细内容可以参考 Apple 的文章Quartz 2D Programming Guide。
对于2D绘图,Quartz 2D 非常强大,比如,基于路径的绘图、抗锯齿渲染、透明图层、分辨率和设备无关性。它提供的是偏低层的基于 C 语言的 API,这些可能会让人望而却步。
尽管如此,Quartz 2D 的主要概念相对比较简单。UIKit 将 Quartz 2D 的一些接口封装成了易于使用的 API,并且即使是原始的 C API 也是可以使用的。你得到的是一个几乎可以媲美 Photoshop 和 Illustrator 的绘制引擎。
应用程序以某种方式基于 Quartz 2D 实现位图绘制。也就是说,CPU 部分的绘制工作是由 Quartz 2D 完成的。虽然 Quartz 也能够做其它的事情,我们这里关注的仍然是它的位图绘制能力,也就是说在一片内存区域中绘制包含 RGBA 数据的内容。
比如我们希望绘制一个八边形,可以使用如下的 UIKit 代码:
1 | UIBezierPath *path = [UIBezierPath bezierPath]; |
如下使用 Core Graphics 的代码可以实现相同的效果:
1 | CGContextBeginPath(ctx); |
上述代码中,绘制在被称为 CGContext 的地方完成。我们传入的 ctx 参数,就是在这个上下文中。这个上下文定义了我们将要绘制的地方。如果实现了 CALayer 的 -drawInContext: 接口,那我们就会被传入一个上下文。在这个上下文的绘制会写入到该图层的缓冲区中。我们也可以创建自己的上下文,比如使用 CGBitmapContextCreate() 创建一个基于位图的上下文。这个函数返回一个上下文,然后我们可以把这个上下文传给需要 CGContext 的函数用于绘制。
可以发现,UIKit 版本的代码没有往方法中传入上下文。因为,当使用 UIKit 时,上下文是隐式的。UIKit 维护一个包含上下文的栈,并且 UIKit 方法总是在栈顶的上下文中绘制。你可以使用 UIGraphicsGetCurrentContext() 函数获得这个上下文,使用 UIGraphicsPushContext() 和 UIGraphicsPopContext() 进行上下文的入栈和出栈。
需要特别留意的是,UIKit 有两个便捷的方法 UIGraphicsBeginImageContextWithOptions() 和 UIGraphicsEndImageContext() 可以用来创建一个位图上下文,达到和 CGBitmapContextCreate() 一样的效果。混合进行 UIKit 和 Core Graphics 的调用非常简单:
1 | UIGraphicsBeginImageContextWithOptions(CGSizeMake(45, 45), YES, 2); |
或者以另一种方式:
1 | CGContextRef ctx = CGBitmapContextCreate(NULL, 90, 90, 8, 90 * 4, space, bitmapInfo); |
5. 像素(Pixels)
屏幕上的像素由3个颜色单元组成,红色、绿色和蓝色。因此,位图数据有时又被称为 RGB 数据。你也许想问,这些数据在内存中是如何组织的。实际情况是,存在非常非常多不同的表示 RGB 位图数据的方式。
待会儿我们将要讨论压缩数据,这又是一种完全不同的数据组织方式。现在,我们先考察 RGB 位图数据,红色、绿色和蓝色每个颜色单元都有一个值,并且经常还会有第四个值,透明度。最终,每个像素对应了四个独立的值。
5.1 默认像素布局(Default Pixel Layouts)
iOS 和 OS X 系统上一种非常常见的格式是,32 bits-per-pixel(bpp),8 bits-per-component(bpc),alpha premultiplied first。在内存中的表示如下所示:
A R G B A R G B A R G B
| pixel 0 | pixel 1 | pixel 2
0 1 2 3 4 5 6 7 8 9 10 11 ...
这种格式经常被称为 ARGB。每个像素占用4个字节(32 bpp)。每个颜色单元占用1个字节(8 bpc)。每个像素有一个 alpha 值,并且排列在 RGB 值的前面。RGB 的值都已经事先和 alpha 值相乘过。预先相乘表明 alpha 值已经融入到 RGB 颜色单元之中。如果有一个橘色,8 bpc 的 RGB 值分别是240,99和24。完全不透明的橘色使用上面的内存布局方式,ARGB 值为 255,240,99,24。如果这个橘色有 33% 的透明度,那这个像素的值为 84,80,33,8。
另一种常见的格式是,32 bpp,8 bpc,alpha-none-skip-first。在内存中的表示如下所示:
x R G B x R G B x R G B
| pixel 0 | pixel 1 | pixel 2
0 1 2 3 4 5 6 7 8 9 10 11 ...
这种格式也为称为 xRGB。像素没有 alpha 值,也就是说是完全不透明的,但是内存布局仍然是和上面的相同。你也许会好奇为什么这种格式会变得流行。如果每个像素剔除那个未使用的字节,我们能节省下25%的空间。但实际证明,因为每个独立的像素和32位内存边界对齐,这种格式更易于被现代的 CPU 和图像算法处理。现代 CPU “不喜欢”读取不对齐的数据。处理不对齐的数据需要做很多的移位和映射,尤其是与上面那种有 alpha 值的像素混合的时候。
当处理 RGB 数据时,Core Graphics 也支持将 alpha 值放在最后面,分别称为 RGBA 和 RGBx。同样的,满足 8bpc 和预乘 alpha 值。
5.2 “深奥的”布局(Esoteric Layouts)
大多数时候,当处理位图数据时,我们将要处理的是 Core Graphics / Quartz 2D。它支持一系列指定的格式。但是首先,我们先来看下剩下的 RGB 格式:
另一种可选的格式是,16bpp,5bpc,没有 alpha 值。跟上文说的布局格式相比,这种格式只占用 50% 的内存(一个像素2个字节)。如果你需要将(未压缩的)RGB数据存储在内存或磁盘上,这可以派上用场。但是因为这种格式每个颜色单元只有5位,图片可能会出现色调分离。
从另一个角度出发,还存在64bpp,16bpc和128bpp,32bpc(都有有 alpha 和无 alpha 两种版本)的格式。这两种格式分别使用8字节和16字节存储一个像素,可以带来更高的保真度,代价就是更多的存储空间和计算成本。
Core Graphics 还支持一些灰度和 CMYK 格式,以及只包含 alpha 值的格式(为使用遮罩服务)。
5.3 平面数据(Planar Data)
大多数的框架,包括 Core Graphics,使用的像素数据的颜色单元(red,green,blue,alpha)都是混合在一起的。也存在另外一种情况,每个颜色单元存储在它自己的一片内存区域中,也就是说平面的。对于 RGB 数据来说,我们有三个独立的内存区域,一个区域包含所有像素的红色值,一个包含所有像素的绿色值,还有一个包含所有像素的蓝色值。
一些视频相关的框架在一些情况下,会使用平面数据。
5.4 YCbCr
在处理视频数据时,YCbCr 是一个相对常见的格式。它同样也由三个部分组成(Y,Cb 和 Cr),能够表示出颜色数据。但是,简单来说,它更像人类视觉感知颜色的方式。人类视觉对两个色度分量 Cb 和 Cr 的保真度不太敏感,但对亮度信号 Y 的保真度非常敏感。当使用 YCbCr 格式存储数据时,为了获得相同的视觉感受质量,Cb 和 Cr 部分能够比 Y 部分进行更大程度的压缩。
因为这个原因,JPEG 格式的图片有时会将 RGB 格式的像素数据转换成 YCbCr 格式。JPEG 独立的压缩每个颜色区域。当压缩针对 YCbCr 格式时,Cb 和 Cr 区域可以比 Y 区域压缩的更多。
6. 图片格式(Image Formats)
iOS 和 OS X 系统上接触到的图片大多是 JPEG 和 PNG 格式,下面会讨论这两种格式。
6.1 JPEG
所有人都知道 JPEG。相机拍摄出来的图片就是 JPEG。照片存储在电脑上的方式就是 JPEG。即使你妈妈可能也听过 JPEG。
许多人会认为 JPEG 文件只不过是另一种格式化像素数据的方式,也就是我们前文讨论的 RGB 像素的布局。但是,实际情况并不是这样。
将 JPEG 数据转换成像素数据是一个非常复杂的过程。对于每个颜色区域,JPEG 压缩使用基于离散余弦变换的算法将空间信息转换到频域。然后使用霍夫曼编码的变体,量化、排序和打包该信息。在最初的阶段,位图数据经常会从 RGB 转换成 YCbCr。当解码 JPEG 的时候,所有流程会反向执行一遍。
因为 CPU 忙于解压 JPEG 文件,所以当你从 JPEG 文件创建 UIImage 并绘制到屏幕上,会出现一段延迟。如果你需要为 UITableView 的每个 cell 解压 JPEG 文件,那你视图的滑动就不会那么流畅。
那为什么还要使用 JPEG 格式呢?原因是 JPEG 能够非常大程度的压缩照片。iPhone 5中一张未经压缩的照片差不多会占用 24MB 的空间。但是使用默认压缩设置,你的照片通常只有 2MB 到 3MB 大小。JPEG 压缩是有损压缩,它会将人眼不太敏感的信息丢弃,所以它的压缩效率能远远超过一般的压缩算法,比如 gzip。但是这种方式仅对照片比较适合,因为 JPEG 的高效压缩依赖照片中存在许多人眼不敏感的信息。如果你给一个大部分内容都是文本的网页截图,JPEG 工作的就不会那么好。压缩的空间会变得很少,并且你可能会看到 JPEG 压缩改变了这张图片。
6.2 PNG
与 JPEG 不同,PNG 是一种无损压缩格式。如果你将一张图片保存为 PNG,然后再解压打开,所有的像素数据都跟最初的时候一摸一样。因为这个限制,PNG 无法达到 JPEG 一样的压缩效率。但是作为应用程序的素材图片,比如按钮、图标等,它实际上工作的很好。更重要的是,PNG 解码的复杂度相比 JPEG 解码要低很多。
在现实世界中,事情从来不是这么简单,实际上存在一堆不同的 PNG 格式。简单来说,PNG 同时支持包含和不包含 alpha 通道的图片。这也是另一个它适合做应用程序素材图片的原因。
6.3 选择一种格式(Picking a Format)
当你需要在应用中使用图片,你应该从 JPEG 和 PNG 中选择一种。对这两种格式的读取解压和写入压缩已经做过高度优化,更进一步说,支持并行化。并且,如果 Apple 在将来的系统更新中进一步优化解码器,你也将能从中获得收益。如果你打算使用另一种图片格式,你必须意识到这可能影响到应用的性能。因为图片解码器是黑客非常喜欢的一种目标,使用新的图片格式可能会带来安全漏洞。
当 Xcode 优化 PNG 文件时,它会对 PNG 文件进行转换,从技术上讲,转换后的内容不再是合法的 PNG 格式。但是 iOS 系统能够读取这些文件,并且解压这些格式的文件会比通常的 PNG 文件更快。Xcode 调整了这些文件,使得 iOS 系统能够使用更高效的解压算法。需要知道的主要点是,它改变了像素布局。我们在像素章节中说过,RGB 数据存在许多种表示方式,如果图片格式不是 iOS 图形系统需要的,需要为每个像素进行移位操作。不再需要进行这些处理能够加快处理速度。
再次强调:如果可以,你应该使用可调整图片作为图片素材。你的文件会更小,需要从文件系统读取并解压的数据会更少。
7. UIKit 和像素(UIKit and Pixels)
UIKit 中的每个视图都有一个自己的图层 CALayer。这个图层通常有一个后台存储,这个后台存储有点像图片,是一个像素位图。实际被绘制到显示屏上的内容便是这个后台存储。
7.1 使用 -drawRect:(With -drawRect:)
如果你的视图类实现了 -drawRect: 接口,有如下的工作机制:
当你调用 -setNeedsDisplay,UIKit 会调用该视图对应图层的 -setNeedsDisplay。这会为图层设置一个标志位,将其标示成脏图层,也就是需要重新显示。这实际上不会做任何事情,所以即使你一次性调用了很多次 -setNeedsDisplay 接口也没有关系。
接下来,当绘制系统准备好后,它会调用图层的 -display 接口。这时,图层会准备它的后台存储。然后,图层会准备一个基于后台存储内存区域的 Core Graphics 上下文(CGContextRef)。在这个 CGContextRef 上绘制就会保存到这片内存区域中。
当你在你的 -drawRect: 方法中使用如 UIRectFill() 或 -[UIBezierPath fill] 这样的绘制方法时,它们会使用到这个上下文。工作机制如下,UIKit 会将这个 CGContextRef 压入 graphics context stack,也就是说,将这个上下文变成当前上下文。UIGraphicsGetCurrent() 函数的返回值正是这个当前上下文。UIKit 的绘制方法会使用 UIGraphicsGetCurrent(),也就是说绘制内容会保存到对应图层的后台存储中。如果你想直接使用 Core Graphics 的方法,你仍然可以通过调用 UIGraphicsGetCurrent() 获得这个上下文,然后将这个上下文传入 Core Graphics 函数中。
从现在开始,这个图层的后台存储将会被不停的绘制到屏幕上。直到视图的 -setNeedsDisplay 接口再次被调用,然后图层的后台存储相应的进行更新。
7.2 不使用 -drawRect(Without -drawRect:)
如果你使用 UIImageView,工作机制和上一小节有些不同。视图仍然有对应的 CALayer,但是这个图层不再分配后台存储。图层直接使用 CGImageRef 作为它的内容,并且绘制系统会将这个位图绘制到帧缓冲区中,也就是绘制到屏幕上。
在这种情况下,将不会有绘画过程。我们只是简单的将图片格式的位图数据传递给 UIImageView,然后转发给 Core Animation,最后转发给绘制系统。
7.3 是否使用 -drawRect(To -drawRect: or Not to -drawRect:)
虽然听起来老套,但最快的绘画方式是不要绘画。
大多数情况下,你不需要自己进行视图或图层的合成来获得自定义视图。UIKit 的视图已为此进行高度优化,因此这是比较推荐的方式。
下面是两个比较好的手动绘画的例子。Apple 在 WWDC 2012’s session 506:Optimizing 2D Graphics and Animation Performance 中演示的“finger painting”App。
另一个例子是 iOS 的股市 App,股票图形都是使用 Core Graphics 绘制在屏幕上的。你不是非得在 -drawRect: 方法中进行自定义绘画,有的时候,下面一种方式可能会更有意义。使用 UIGraphicsBeginImageContextWithOptions() 或者 CGBitmapContextCreate() 创建出一个位图,从中获取图片,再设置到 CALayer 的内容中。
7.4 纯色(Solid Colors)
看下面这个例子:
1 | // Don't do this |
我们现在知道这种做法是不好的。Core Animation 会创建一个后台存储,Core Graphics 使用纯色填充这个后台存储,再上传到 GPU。
简单的设置视图图层的 backgroundColor,而不是实现 -drawRect:,我们能节省下所有这些工作。如果视图的图层是 CAGradientLayer,我们也可以用同样技术处理渐变。
7.5 可调整的图片(Resizable Images)
类似的,你可以使用可调整图片来降低图像系统的压力。比如你想为按钮设置一个 300 x 50 pt 的图片。对于2x屏幕来说,需要 600 x 100 = 60k 的像素,或者说 60k x 4 = 240kB 的内存,这些数据会上传到 GPU,占用 VRAM 空间。如果我们使用可调整图片,我们可能需要的是一个 54 x 12 pt 的图片,需要不到 2.6k 的像素,或者说 10kB 的内存空间。这样能获得更快的渲染速度。
Core Animation 可以使用 CALayer 的 contentsCenter 属性调整图片,但是更常用的方法是使用 -[UIImage resizableImageWithCapInsets:resizingMode:]。
同样需要留意的是,在上面说的按钮被首次渲染之前,你需要从文件系统载入图片,读取并解压 60k 像素的 PNG 的速度也相对较慢。使用可调整图片,你的应用程序在所有相关流程中都只需要做更少的事情,因此你的视图将获得更快的展现速度。
7.6 并发绘图(Concurrent Drawing)
正如你所知,UIKit 的线程模型非常简单:你只能在主线程中使用 UIKit 的类,比如视图。那并发绘图是什么意思呢?
如果你实现了 -drawRect: 并且需要绘制一些复杂的内容,这将会耗费很多时间。但是你希望你的动画能够更加平滑,所以想要将这些任务放到子线程中执行。并发的实现很复杂,但是留意一些注意事项,并发绘图是能够轻松实现的。
我们只能在主线程往 CALayer 的后台存储绘制内容,否则会出现一些无法预料的问题。但是我们可以在任意线程,往一个完全独立的位图上下文绘制内容。
在 Core Graphics 章节我们提到,所有 Core Graphics 绘画方法都需要一个上下文参数,指明绘制在哪里发生。UIKit 有一个当前上下文的概念,指明绘制发生的地方。每个线程都有其自己的当前上下文。
为了实现并发绘图,我们采用如下方案。我们在子线程中创建图片,一旦图片创建完成,我们切换到主线程,并且把这张图片设置给 UIImageView。在 WWDC 2012 session 211 中讨论了这项技术。
添加如下的绘制代码:
1 | - (UIImage *)renderInImageOfSize:(CGSize)size; |
这个方法通过 UIGraphicsBeginImageContextWithOptions() 函数创建了一个新的位图 CGContextRef。这个函数同时将这个新的上下文设为当前上下文。现在,你可以跟通常在 -drawRect: 中一样进行绘图操作。然后,我们使用 UIGraphicsGetImageFromCurrentImageContext() 函数从这个上下文中获取 UIImage。最后,结束这个上下文。
非常重要的是,你在这个绘图方法中调用的接口必须得是线程安全的,因为你将会在子线程中调用这个绘图方法。如果这个方法写在你的视图类中,这可能会存在隐患。另一个可选项是创建一个独立的绘制类,用于设置需要的属性,然后绘制图片。这样的话,你可能只需要一个原生的 UIImageView 或者 UITableViewCell 就可以了。
UIKit 的所有绘制 API 都是可以在子线程中使用的。仅仅需要确保的是,UIGraphicsBeginImageContextWithOptions() 和 UIGraphicsEndIamgeContext() 这两个函数需要成对使用。
你可以使用下面的代码使用上面绘图方法:
1 | UIImageView *view; // assume we have this |
我们在主线程中执行了 view.image = image
。这是非常重要的一点,你不能在子线程中执行这条语句。
同样的,使用并发会增加不少复杂度。你可能需要增加取消后台绘制的逻辑,并且为绘制队列设置一个合理的最大并发操作数。可能最简单的方法是在一个 NSOperation 的子类中实现 -renderInImageSize: 方法。
最后需要指出的一点是,为 UITableViewCell 异步的设置内容可能会出现漏洞。当你在子线程完成内容绘制后,目标 cell 可能已经被重用了,此时内容会被设置到错误的地方。
8. 其它 CALayer 相关内容(CALayer Odds and Ends)
现在,你应该知道 CALayer 可以类比成 GPU 中的 Texture。图层有一个后台存储,里面的内容是将被绘制到屏幕的位图。
在你使用 CALayer 时,你将图层的 contents 属性设置为一张图片。这种操作告诉 Core Animation,使用这张图片的位图数据作为 Texture。Core Animation 会解码图片(如果图片被压缩过),然后将像素数据上传到 GPU。
如果你使用原生的 CALayer,没有设置 contents 属性,而是设置 backgroundColor,Core Animation 不会往 GPU 上传数据,GPU 自己能完成所有工作。类似的,对于渐变图层,GPU 能够创建渐变而 CPU 没有必要做任何工作,因此不需要往 GPU 上传任何数据。
8.1 自定义绘画的图层(Layers with Custom Drawing)
如果 CALayer 的子类实现了 -drawInContext:,或者它的 delegate 实现了 -drawLayer:inContext:,Core Animation 将为该图层分配一个后台存储,这个后台存储保存这些方法绘制出的位图。这些方法中的代码在 CPU 中执行,然后运算结果被上传到 GPU。
8.2 形状和文本图层(Shape and Text Layers)
图形和文本图层的工作方式有些差异。从概念上来说,它们的工作方式和上一节说的手动实现 -drawInContext: 很相似,并且性能也很相似。
当你以一种方式改变了形状和文本图层,它的后台存储需要进行更新,Core Animation 将会重新绘制后台存储。比如说,如果需要动画改变一个形状图层的尺寸,Core Animation 需要在动画的每一帧中重绘形状。
8.3 异步绘画(Asynchronous Drawing)
CALayer 有一个 drawsAsynchronously 属性,这看起来是一个能解决所有问题的银弹。这有可能提升性能,但它也有可能使性能变得更差。
当你将 drawsAsynchronously 属性设为 YES,你的 -drawRect: / -drawInContext: 方法仍然会在主线程中执行。但是所有的 Core Graphics 调用都不会立即执行,绘画命令会被延迟,并在子线程中被异步处理。
从另一个角度来看,绘画命令首先被记录了下来,然后这些绘画命令在一个后台线程中被应用。为了完成这项工作,需要做更多额外的工作,也需要分配更多的内存空间。但是一部分工作还是从主线程中移除了,你需要做好测试和权衡。
这种方法对复杂绘画的性能提升比较有用,但是不太可能提升简单绘画的性能。