【技术分享】macOS桌面端录屏采集实现教程

  • 内容
  • 评论
  • 相关

 

本系列为即构科技与极客时间-每日一课」栏目共同打造的深度技术分享内容视频发布于「极客时间app-每日一课」栏目。

 视频观看地址:https://time.geekbang.org/dailylesson/detail/100056834?tid=146

实时屏幕共享功能,在视频会议、游戏直播、在线教育等场景中已广泛被应用。近日,主打屏幕分享的社交应用「Squad」被Twitter收购,让我们看到了实时屏幕共享融于更多行业,开启丰富玩法的趋势。

作为实时屏幕共享的第一步,录屏采集在不同终端和系统上的实现方式有所不同。之前我们已经分享了Android端、iOS端实现录屏采集的方式,可以戳下面查看:

【即构分享】Android端录屏采集实现教程

 【即构分享】iOS端录屏采集实现教程

下面将分享本系列的第三篇,如何实现macOS桌面端屏幕共享的录屏采集。


在macOS系统下,说到媒体数据相关,就不得不提到 macOS 上AVFoundation多媒体框架。它是基于Apple Darwin操作系统上的视听媒体框架。从macOSX lion,也就是10.7版本开始,它就是macOS平台的默认媒体框架。

AVFoundation的核心类AVCaptureSession可用于捕捉视频和音频,协调视频和音频的输入和输出流。它为我们提供了管理输入设备、采集、输出、预览等一系列接口,这张图就是围绕AVCaptureSession的实现流程图,后面会有对该流程的详细介绍。

 

除了AVCaptureSession,macOS系统还有一套基于Quartz高级绘图引擎Core Graphics框架,它是位于Apple Darwin操作系统之上的绘图层框架,其中共有两种组件:

一种是Quartz compositor合成视窗系统,管理和合成幕后视窗影像来创建Mac OS X用户界面,另一种是Quartz 2D,这是以PDF的规范为基础的图形库,用来绘制二维文字和图形。

在macOS中,Core Graphics还包括用于处理显示硬件,低级用户输入事件和窗口系统的服务。

所以在macOS 下实现录屏采集,基本上可以从 AVCaptureSession 或者 Core Graphics两方面考虑。

基于AVCaptureSession 技术实现录屏采集

基本采样流程

在 Apple 平台上有过音视频开发经验的开发者,应该都知道 AVCaptureSession这个类, 除了会涉及到AVCaptureSession之外,我们还会涉及到例如 AVCaptureInput、AVCaptureOutput、AVCaptureVideoPreviewLayer等一系列的类。

AVCaptureSession这个在其中就是充当会话者的角色, 我们可以理解为平时生活中的插线板, 有输入,有输出。其中AVCaptureDeviceInput为输入, AVCapturePhotoOutput、AVCaptureMovieFileOutput等是输出,它们之间的关系我们可以看一下这幅图:

 

具体录屏实现

第一步,使用Capture Session管理数据流

 

第二步 配置分辨率

 

第三步是配置Capture Inputs添加到Session中

一个AVCaptureInput代表一种或多种媒体数据,比如输入设备可以同时提供视频和音频数据。每种媒体流代表一个AVCaptureInputPort对象。使用AVCaptureConnection可以将AVCaptureInputPort与AVCaptureOutput连接起来。这里我们采集桌面使用AVCaptureScreenInput就可以了

 

第四步,使用Capture Outputs从Session中获取输出流

 

第五步,使用CaptureConnections获取处理完成的流数据

在数据采集中输入源有自己的硬件参数可以设置流控,输出源作为一个被动接受对象,它并没有太多流控设置,苹果巧妙地引入AVCaptureConnections解决这个问题。

打个比方,我们要控制蓄水池里面的水位。正确做法不是等水满了后把水放掉,而是换一个小点的入水管。AVCaptureConnections就是Session和Output中间的控制节点。每个Output与Session建立连接后,都会分配一个默认的AVCpatureConnection。我们屏幕采集的实时数据,也就是从AVCpatureConnection得到的。

 

通过以上5步,我们就完成桌面采集的数据了。

需要注意的是,在MacOS 10.15以后,用户采集桌面数据,需要在安全性与隐私,隐私权限里打开屏幕录制功能,否则不能采集到屏幕的画面。

优劣势分析

在具体实现中,还有两点需要特别提醒:

一、在 startRunning 时,这个方法是一个阻塞调用,可能要花一些时间,因此你应该在串行队列上执行会话设置,以使主队列不被阻塞(使UI保持响应)。

二、在正在运行的会话上的多个配置操作时,你需要结合beginConfiguration和commitConfiguration 批处理为原子更新。否则会产生意料之外的结果。

以上就是 AVCaptureSession录屏技术,它的优势是满足了录屏的基本需求,并且经过系统高度封装,实现起来毫不费力。由系统实现的流控可以完美平衡硬件和软件的性能。尤其是在低版本的设备上,这个优点尤为明显。

但同时,它也存在一些劣势。由于采样设置的指定,只能通过硬件deviceInput,所以它只能指定屏幕采集,而不能满足我们只采集指定的窗口,这在我们实际的使用中会有诸多限制。并且它不能很好的过滤掉我们不需要的窗口,而这个在实际应用中是非常普遍的需求。

有什么办法能够采集指定窗口的图像,或者过滤桌面的指定窗口呢?接下来,我们看第二种,基于Core Graphics技术的录屏采集。

基于 Core Graphics 技术实现录屏采集

基本采样流程

Core Graphics框架提供了Quartz Window Services。里面提供了很多关于macOS 窗口管理的相关信息。它包含了所有用户在屏幕上,或者不在屏幕上(即隐藏的窗口)的所有正在运行的应用窗口。还可以使用Quartz Window Services生成窗口内容的图像。

下面我们来看具体的采样实现流程:

首先我们需要获取所有的窗口列表

 

获取窗口后我们可以根据获取到的窗口列表获取每个窗口的图像

由于我们需要实时获取桌面的图像,图像的数据采集(生产者)和分发(消费者)不一定能够匹配。我们需要在生产者和消费者中间创建一个缓冲区。这样生产者只需要定时获取当前桌面或者窗口的图像,然后储存在缓冲区。另一端消费者也根据当前设置的帧率从缓存区获取相应的图像。

由于避免缓存区过大占用过多的系统内存,这里缓存区也会设置一个阈值。以保证不会过度消耗系统内存。这样我们就能够获取到桌面或者窗口的媒体数据流了。

绘制鼠标

经过以上基本采样流程,得到的画面内容是不含鼠标的,而在一次研讨会或在线课的材料共享环节,主讲人往往要通过鼠标,指明当前所讲的内容,因此必须将鼠标还原到画面中。

想要将鼠标绘制到里面,我们可以通过CGContext将系统全局鼠标图像合成入窗口,或者桌面的指定位置。这样我们就能获取到包含鼠标的图像数据了。

具体的实现可以参考以下示例代码:

 

过滤窗口

由于在使用过程中,用户可能需要隐藏自己的指定窗口,不希望分享的人看到相关的信息。但同时又需要采集桌面的其他数据。这时我们就需要过滤掉不需要的窗口,示例代码可参考下面的:

 

优劣势分析

在 macOS 平台上,Core Graphics是基于Quartz高级绘图引擎框架。它不仅可以截取桌面,也可以截取窗口图像,它所拥有的众多API还可以灵活的组合,帮助我们截取窗口或者桌面部分。并且,他还可以通过窗口组合来合成我们想要的图像,达到过滤我们不需要共享的窗口的目的。

它的劣势在于,因为API较为简陋,整体需要自己实现一套录屏的方案;对于采集的流控需要自己控制,比较繁琐;由于不断的采集重绘,CPU占用比较大。经过我亲测对比,同等分辨率下,相较于系统的AVCaptureSession的CPU占用率会多占用5~10%左右。

总结

最后我们来看一下macOS下实现录屏采集的两种方式以及各自的优劣势:

AVCaptureSession是在macOS下比较成熟的方案,性能优化的最好,实现也很方便,缺点是只能够截取屏幕,无法实现截取指定窗口,过滤窗口;

Core Graphics 的API 比较繁杂,比较耗费CPU占用。有一定的学习门槛,无法采集鼠标与动画,需要自己实现一套采集逻辑,但是支持采集窗口,过滤窗口,更加灵活多样。能够满足所有的功能。

 

评论

0条评论

发表评论

邮箱地址不会被公开。 必填项已用*标注