[OpenGLES系列]如何入门GPUImage2框架?

2018-10-21  本文已影响130人  紧张的牛排

GPUImage2系列专题:

1. 如何入门 GPUImage2 框架?
2. GPUImage2之渲染管线Pipeline的实现

目标:熟悉GPUImage2框架的抽象,利用GPUImage简单处理图像或视频。

学习思路

  1. framework的抽象
  2. 简单使用
  3. 阅读代码
  4. 总结
  5. 备注

1. GPUImage2框架抽象

1.1 观察目录结构

1.2 思考

输入图片 --> 处理 --> 输出图片

例如处理图片,我们大脑里应该有个这个流程,有了这个流程,我们可以去解决每个节点,处理视频也同样道理。

讲个大道理:抽象层
在代码设计上,为了保持不同抽象层的接口一致性,都做一层抽象。对于GPUImage2来说,大家想输入的格式千万种,作为framework设计者无法满足所有人,因此都会抽象一层。InputsOputputs是对输入输出的抽象,对外提出输入要求,对内统一输入目的。

2. GPUImage2框架的简单使用

我们以渲染一张图片为例。

创建输入对象:
   根据1.2节思考,我们知道输入需要使用PictureInput,输入一个UIImage即可。

private var image = UIImage(named: "sample")
private var input = PictureInput(image: image)

创建输出对象
根据1.2节思考,我们知道输出可以选择几种不同的方案,显示屏幕上选择RenderView,导出图片可以选择PictureOutput,我们选择显示到屏幕上,这样更直观的看到结果。

private var output = RenderView(frame: view.bounds)

2.1 直接显示原图

聪明的你肯定猜到直接把输入连接即可,那么GPUImage2是怎么连接渲染管线的呢?
2.1.1 建立渲染链
建立渲染链的目的是讲前面处理的结果当做下一个的输入,以便做到链式调用目的。
我们先看看PictureInput的接口:

public class PictureInput : ImageSource {

    public let targets: GPUImage.TargetContainer

    public init(image: CGImage, smoothlyScaleOutput: Bool ...

    public convenience init(image: UIImage, smoothlyScaleOutput: Bool ...

    public convenience init(imageName: String, smoothlyScaleOutput: Bool ...

    public func processImage(synchronously: Bool = default)

    public func transmitPreviousImage(to target: ImageConsumer, atIndex: UInt)
}

从接口看只有transmitPreviousImage接口可能有点像连接渲染管线,因为RenderView也确实遵守了ImageConsumer协议。同时也注意到PictureInput也遵守了协议ImageSource

接下来看看ImageSource有哪些接口:

public protocol ImageSource {
    var targets:TargetContainer { get }
    func transmitPreviousImage(to target:ImageConsumer, atIndex:UInt)
}

public extension ImageSource {
    public func addTarget(_ target:ImageConsumer, atTargetIndex:UInt? = nil)  {
        targets.append(target, indexAtTarget:indexAtTarget)
    }
    public func removeAllTargets() 
    public func updateTargetsWithFramebuffer(_ framebuffer:Framebuffer) 
}

再看看addTarget方法的实现,该方法会把target:ImageConsumer添加到PictureInput.targets上,意思是给输入图片PictureInput添加一个目标,因此这个才是我们寻找的方法。

现在渲染的目标就是RenderView,代码如下:

input = PictureInput(image: image)
output = RenderView(frame: view.bounds)
view.addSubview(output)
input.addTarget(output)

运行程序后,竟然没有效果,并没有显示原图。

2.1.2 驱动渲染管线
再看看PictureInput的接口,发现有个processImage(synchronously: Bool)接口,synchronously是选择异步处理还是同步处理,对于我们例子没有影响,可以选择默认设置。整体代码如下:

class ViewController: UIViewController {
    
    private var input: PictureInput!
    private var output: RenderView!
    
    private var image: UIImage = {
        let imgPath = Bundle.main.path(forResource: "sample", ofType: "jpg")!
        return UIImage(contentsOfFile: imgPath)!
    }()
    
    override func viewDidLoad() {
        super.viewDidLoad()
        
        input = PictureInput(image: image)
        output = RenderView(frame: view.bounds)
        view.addSubview(output)
        input.addTarget(output)
        input.processImage()
    }
}

运行结果OK。

2.2 滤镜处理

在上面例子的基础上,以调整饱和度的SaturationAdjustment为例,介绍滤镜的使用。
2.2.1 创建滤镜
SaturationAdjustment滤镜的接口,发现有个可调节饱和度的参数saturation,可以使用UISlider改变饱和度值。

public class SaturationAdjustment: BasicOperation {
    public var saturation:Float = 1.0
   
    public init() { }
}

2.2.2 建立渲染链

// Input -> filter -> output
private var filter = SaturationAdjustment()
filter.saturation = 10.0
input.addTarget(filter)
filter.addTarget(output)

2.2.3 驱动渲染管线(同上)

2.2.4 修改filter.saturation看看效果。

注意:
使用UISlider改变filter.saturation没有变化时,记得调用input.processImage()驱动渲染管线。

3. 阅读代码

PictureInput
两个关键步骤:
-1. 将UIImage转换为image bytes.
-2. 如何使用image bytes生成2D纹理(texture)。

 sharedImageProcessingContext.runOperationSynchronously{
    // 创建了一个framebuffer
    self.imageFramebuffer = try Framebuffer(context:sharedImageProcessingContext, orientation:orientation, size:GLSize(width:widthToUseForTexture, height:heightToUseForTexture), textureOnly:true)
    // 绑定texture 
    glBindTexture(GLenum(GL_TEXTURE_2D), self.imageFramebuffer.texture)
    if (smoothlyScaleOutput) {
        // 设置多级逐渐过滤方式
        glTexParameteri(GLenum(GL_TEXTURE_2D), GLenum(GL_TEXTURE_MIN_FILTER), GL_LINEAR_MIPMAP_LINEAR)
    }
     // 用图片数据生成2D纹理       
     glTexImage2D(GLenum(GL_TEXTURE_2D), 0, GL_RGBA, widthToUseForTexture, heightToUseForTexture, 0, GLenum(format), GLenum(GL_UNSIGNED_BYTE), imageData)
            
     if (smoothlyScaleOutput) {
           // 生成多级逐渐纹理
           glGenerateMipmap(GLenum(GL_TEXTURE_2D))
     }
      // 解绑texture
      glBindTexture(GLenum(GL_TEXTURE_2D), 0)
}

[1]纹理Texture:有1D/2D/3D的纹理,2D纹理是一张2D图。
[2]帧缓冲Framebuffer:OpenGLES将渲染结果保存到它身上。
[3]多级逐渐纹理Mipmap:OpenGLES在一个高分率的纹理上采样正确的颜色值很困难,而且内存开销也大,因此根据离观察者的距离,使用不同采样率的纹理,它会带来性能的优势。

PictureOutput
两个关键步骤:
-1. 绑定framebuffer, 设置参数,draw call。
-2. framebuffer上读取渲染结果生成图片。

func cgImageFromFramebuffer(_ framebuffer:Framebuffer) -> CGImage {
    // GPUImage的framebuffer管理机制:创建了cache,通过framebuffer的参数作为key存储
    // 从cache中读取framebuffer
   let renderFramebuffer = sharedImageProcessingContext.framebufferCache.requestFramebufferWithProperties(orientation:framebuffer.orientation, size:framebuffer.size)
    // 绑定framebuffer
    renderFramebuffer.lock()
    renderFramebuffer.activateFramebufferForRendering()
    clearFramebufferWithColor(Color.red)
    
     // 设置shader的参数(顶点,shader需要的uniform等),并调用draw call.
    renderQuadWithShader(sharedImageProcessingContext.passthroughShader, uniformSettings:ShaderUniformSettings(), vertexBufferObject:sharedImageProcessingContext.standardImageVBO, inputTextures:[framebuffer.texturePropertiesForOutputRotation(.noRotation)])
        
    framebuffer.unlock()
        
    let imageByteSize = Int(framebuffer.size.width * framebuffer.size.height * 4)
    let data = UnsafeMutablePointer<UInt8>.allocate(capacity: imageByteSize)
     // 将渲染的结果从显存上读取
    glReadPixels(0, 0, framebuffer.size.width, framebuffer.size.height, GLenum(GL_RGBA), GLenum(GL_UNSIGNED_BYTE), data)

    renderFramebuffer.unlock()

    // 剩下的事情就是将图片数据生成图片问题了
    guard let dataProvider = CGDataProvider(dataInfo:nil, data:data, size:imageByteSize, releaseData: dataProviderReleaseCallback)  else {
       fatalError("Could not allocate a CGDataProvider")
    }

    let defaultRGBColorSpace = CGColorSpaceCreateDeviceRGB()
   return CGImage(width:Int(framebuffer.size.width), height:Int(framebuffer.size.height), bitsPerComponent:8, bitsPerPixel:32, bytesPerRow:4 * Int(framebuffer.size.width), space:defaultRGBColorSpace, bitmapInfo:CGBitmapInfo() /*| CGImageAlphaInfo.Last*/, provider:dataProvider, decode:nil, shouldInterpolate:false, intent:.defaultIntent)!
    }

RenderView的渲染也一样的,只是不需要从显存里拷贝数据,但需要调用EGALContextpresentRenderbuffer方法进行最终的渲染绘制,这里渲染的是Color Buffer,这个方法会将renderBuffer渲染到CALayer上面。

Filter代码解释
-1. Shader是用着色语言写的,分为顶点着色器vertextShader和片段着色器fragmentShader
-2. 顶点着色器:OpenGLES只能允许画点、线、三角形,因此画一张方图至少需要2个三角形 等同于 至少需要4个顶点。
-3. 片段着色器:处理2D纹理时内部有采样器sampler2D, 根据顶点坐标从纹理上采样当前位置的颜色值。

例子代码: https://github.com/DarkKnightOne/GPUImage2.Tutorial

4. 总结

  1. 文章第一部分通过目录和文件名简单了解到框架的抽象,对阅读代码有了一定的目的性,刚开始接触时我也一脸懵圈,为了很多的开发者快速的掌握,讲解中采用先抽象,再阅读代码方式。

  2. 刚开始接触也可能无法理解为啥绑定framebuffer等操作,这些操作其实就是遵守的流程,使用多了就掌握了,也知道什么时候该做点什么了,所以不要灰心。

  3. 目前虽然对整个框架掌握度不是很高,但可以使用框架去做些有趣的效果了,提升大家的兴趣是目的,兴趣上来了就能坚持下来。

  4. 写完了这篇后,发现文笔还需要提升,将写技术文章当做总结也是不错的。

5. 备注

  1. 文中统一提到OpenGLES, 但OpenGLOpenGLES流程上是一致的。
  2. OpenGLES的学习是比较漫长的过程,刚开始大多数程序员很难理解,原因在于OpenGLES是基于上下文,状态机的控制机制,。
上一篇下一篇

猜你喜欢

热点阅读