iOS逆向抖音学习滤镜
逆向不只可以让我娱乐别人的APP,我们也可以从别人的APP中学到一些东西,有时候我们会为了某种实现去逆向。由于前段时间公司项目需要写一个类似抖音的滤镜,不免就对抖音起了好奇心。最后效果如下:
IMG_0719.jpg
工具
依然使用MonkeyDev,
然后是分析工具Hopper,
log工具NSLogger
步骤
- 新建MonkeyApp项目
- 从某助手下载不带壳的抖音
- 使用Hopper找到filter的类分析
- 编写hook代码
开始
把抖音的可执行文件直接扔进Hopper里,直接搜索关键字Filter。
屏幕快照 2018-01-24 下午5.49.39.png
我们能看到HTSBeautifyFilter类,我们找到它的父类,双击initwith这个方法可以找到HTSGLFilter,可以发现这个应该是基类。我们就准备hook这个方法,这次我们需要拿到是滤镜的片元着色器的代码也就是ShaderString不太了解滤镜的也可以去google。上代码:
CHDeclareClass(HTSGLFilter)
CHOptimizedMethod(1, self,id,HTSGLFilter,initWithFragmentShaderFromString,NSString *,arg2){
LogMessage(@"filter", 1, arg2);
return CHSuper(1, HTSGLFilter,initWithFragmentShaderFromString,arg2);
}
CHConstructor{
CHLoadLateClass(HTSGLFilter);
CHHook(1,HTSGLFilter,initWithFragmentShaderFromString);
}
这样只要创建滤镜就会走我们hook的这个方法我们就能拿到ShaderString的代码。
我们把项目跑起来发现会直接闪退。LLVM Profile Error: Failed to write file "default.profraw": Operation not permitted
这个我google的很久没能找到解决的办法,不过这不能影响到我们,我们祭出神器NSLogger
具体使用自行google。在注入动态库的时候,去设置ip 和 端口
static __attribute__((constructor)) void entry(){
NSLog(@"\n 🎉!!!congratulations!!!🎉\n👍----------------insert dylib success----------------👍");
LoggerSetViewerHost(NULL, (__bridge CFStringRef)@"你的ip", (UInt32)50000);
}
到这里代码就完成了,运行完项目后,闪退,我们再次手动打开项目,这时候NSLogger会弹出来,我们进入抖音的加视频滤镜的地方选择滤镜。NSLogger就会显示
屏幕快照 2018-01-24 下午6.00.34.png
这样我们就可以把打印的ShaderString拷出来使用了。
制作滤镜
其实可以发现抖音的这个HTSGLFilter
和GPUImage
的滤镜是一样的,我们新建一个项目来测试我们拿到的ShaderString
。新建项目导入GPUImage
,新建一个类继承GPUImageFilter
。代码:
#import <GPUImage/GPUImage.h>
@interface GpUImageScaleFilter : GPUImageFilter
@property(nonatomic,assign) CGFloat scale;
@end
#import "GpUImageScaleFilter.h"
NSString *const kGPUImageScaleFragmentShaderString = SHADER_STRING
(
precision highp float;
varying highp vec2 textureCoordinate;
uniform sampler2D inputImageTexture;
uniform float scale;
void main()
{
vec2 newTextureCoordinate = vec2((scale - 1.0) *0.5 + textureCoordinate.x / scale ,(scale - 1.0) *0.5 + textureCoordinate.y /scale);
vec4 textureColor = texture2D(inputImageTexture, newTextureCoordinate);
vec4 shiftColor1 = texture2D(inputImageTexture, newTextureCoordinate+vec2(-0.05 * (scale - 1.0), - 0.05 *(scale - 1.0)));
vec4 shiftColor2 = texture2D(inputImageTexture, newTextureCoordinate+vec2(-0.1 * (scale - 1.0), - 0.1 *(scale - 1.0)));
vec3 blendFirstColor = vec3(textureColor.r , textureColor.g, shiftColor1.b);
vec3 blend3DColor = vec3(shiftColor2.r, blendFirstColor.g, blendFirstColor.b);
gl_FragColor = vec4(blend3DColor, textureColor.a);
}
);
@implementation GpUImageScaleFilter
- (instancetype)init
{
self = [super initWithFragmentShaderFromString:kGPUImageScaleFragmentShaderString];
if (self) {
}
return self;
}
- (void)setupFilterForSize:(CGSize)filterFrameSize
{
runSynchronouslyOnVideoProcessingQueue(^{
[GPUImageContext setActiveShaderProgram:filterProgram];
[self setFloat:self.scale forUniformName:@"scale"];
});
}
@end
这样我们滤镜就写完了,外面调用需要给scale
赋值,类似这样
CIContext *content = [CIContext contextWithOptions:nil];
CGImageRef img = [content createCGImage:ciImage fromRect:[ciImage extent]];
GPUImagePicture *picture = [[GPUImagePicture alloc] initWithImage:[[UIImage alloc] initWithCGImage:img]];
CGImageRelease(img);
GpUImageScaleFilter *scaleFilter = [[GpUImageScaleFilter alloc] init];
_scaleCount += 0.005;
if (_scaleCount >= 1.2) {
_scaleCount = 1.1;
}
scaleFilter.scale = _scaleCount;
[scaleFilter useNextFrameForImageCapture];
[picture addTarget:scaleFilter];
[picture processImageWithCompletionHandler:^{
dispatch_async(dispatch_get_main_queue(), ^{
self.glkImageView.ciImage = [[CIImage alloc] initWithCGImage:[scaleFilter imageFromCurrentFramebuffer].CGImage];
});
}];