iOS SDK中有什么新功能(iOS 13)
了解iOS SDK中可用的关键技术和功能,iOS SDK是用于为iPhone,iPad或iPod touch构建应用程序的工具包。 有关最新发布版本(包括每个测试版)中API更改的详细信息,请参阅iOS发行说明。
iOS 13
使用iOS 13 SDK,您的应用程序可以利用黑暗模式,使用Apple登录,与CloudKit,PencilKit等同步核心数据。 您可以使用SwiftUI更快地构建动态用户界面,使用Combine编写现代事件处理代码,并使用UIKit创建Mac版iPad应用程序。
Dark Mode
使用iOS 13,用户可以切换到暗模式将iOS转换为黑暗的配色方案,将重点放在工作上,同时控件退回到后台。 有关将暗模式合并到应用程序中的信息,请参阅外观自定义。 有关设计指导,请参阅人机界面指南。
SwiftUI
SwiftUI是一种为iOS,macOS,watchOS和tvOS构建用户界面的现代方法。 使用声明式,基于组合的编程,您可以比以前更快地构建动态接口。 该框架提供了用于声明应用程序用户界面的视图,控件和布局结构。 它还提供事件处理程序,用于为您的应用程序提供点按,手势和其他类型的输入,以及管理从应用程序模型到用户将看到和交互的视图和控件的数据流的工具。
要开始使用,请参阅了解如何使用SwiftUI创建应用程序。
Multiple UI Instance
使用iOS 13,用户可以同时创建和管理应用程序用户界面的多个实例,并使用应用程序切换器在它们之间切换。 在iPad上,用户还可以并排显示应用程序的多个实例。 UI的每个实例都显示不同的内容,或以不同的方式显示内容。 例如,日历应用程序可以并排显示特定日期和整个月份的约会。
有关更多信息,请参阅UIKit开发人员文档中的应用程序和场景。
SF Symbols
符号图像为您提供了一组在应用中使用的一致图标,并确保这些图标适应不同的尺寸和特定于应用的内容。 符号图像使用SVG格式来实现基于矢量的形状,这些形状可以在不损失锐度的情况下进行缩放。 它们还支持许多通常与文本相关的特征,例如重量和基线对齐。
要查找可以包含在应用程序中的符号图像,请使用SF符号应用程序或创建自己的符号图像。 有关详细信息,请参阅在UI中配置和显示符号图像。
Bring Your iPad App to Mac
Xcode 11为您提供了将iPad应用程序带到Mac的先机。 首先在iPad应用程序的项目设置中选择“Mac”复选框。 要了解更多信息,请参阅创建iPad应用程序的Mac版本并将您的iPad应用程序带到Mac。
ARKit 3
ARKit 3带来以下新功能:
- 动作捕捉。这可让您的应用程序跟踪人体骨骼特征的移动。
- 人们闭塞。这允许人们走在摄像机馈送中的虚拟内容之前。
- iTrack多个面孔。使用TrueDepth相机,可以在前置摄像头中跟踪最多3个面部。
- 同时前后摄像头。使用两个摄像头同时获取面部和世界数据。
- 协作会议。协作地映射环境并更快地进入共享的AR体验。
- 视觉连贯性。自动添加相机运动模糊和噪点等效果,使AR内容更逼真。
- AR教练用户界面。 2D叠加UI,可帮助指导用户入门,检测飞机等。
- 自动检测图像大小和更快的参考图像加载。
- 更强大的3D物体检测和检测100张图像的能力。
- HDR质量环境纹理。
要了解有关这些功能的更多信息,请参阅ARKit框架文档。
RealityKit
RealityKit是一个新的Swift框架,用于模拟和渲染用于增强现实应用程序的3D内容,包括为您的AR体验添加动画,物理和空间音频的功能。 RealityKit利用ARKit提供的信息将虚拟对象无缝集成到现实世界中。 有关更多信息,请参阅RealityKit框架文档。
Sign In with Apple
使用Apple为您提供快速,安全且隐私友好的方式,供人们设置帐户并开始使用您的应用程序和网站中的服务。 有关更多信息,请参阅使用Apple登录。
BackGround Tasks
使用新的BackgroundTasks框架,在应用程序处于后台时,使您的应用内容保持最新并执行长时间运行的任务。 有关更多信息,请参阅BackgroundTasks框架文档。
Camera Capture
使用AVCaptureMultiCamSession同时使用前置和后置摄像头录制视频。 使用AVSemanticSegmentationMatte捕捉照片中的头发,皮肤和牙齿分割遮罩。 选择加入以指定所需的照片质量,优先考虑速度和质量。 并在您的ARKit可用应用中的超宽相机上禁用几何失真校正。
要了解有关这些功能和AVFoundation Capture子系统的更多信息,请参阅摄像头和媒体捕获。
Combine
Combine是一个新的框架,它提供了一个声明性的Swift API,用于随时间处理值。 这些值可以表示用户界面事件,网络响应,计划事件和许多其他类型的异步数据。 使用Combine,您可以声明公开可以更改值的发布者,以及从发布者接收这些值的订阅者。 通过集中事件处理代码并消除麻烦的闭包和基于约定的回调等麻烦的技术,Combine使您的代码更易于阅读和维护。
有关更多信息,请参阅Combine框架文档。
Core Haptics
全新的Core Haptics框架,可让您构建和播放触觉模式,以自定义应用程序的触觉反馈,扩展系统提供的默认模式。 要了解更多信息,请参阅Core Haptics框架文档。
Apple CryptoKit
使用新的Apple CryptoKit框架安全有效地执行常见的加密操作,例如:
- 计算和比较加密安全摘要。
- 使用公钥加密技术创建和评估数字签名。
- 生成对称密钥,并在消息身份验证和加密等其他操作中使用它们。
有关更多信息,请参阅Apple CryptoKit框架文档。
MetricKit
MetricKit是一个新的框架,可为您提供有关系统捕获的应用程序的设备上的功能和性能指标,您可以使用它来提高应用程序的性能。 有关更多信息,请参阅MetricKit框架文档。 要了解如何使用MetricKit对应用程序进行性能改进,请参阅提高应用程序的性能。
PencilKit
新的PencilKit框架可以轻松快速,轻松地将手绘内容合并到您的应用程序中。 PencilKit为您的iOS应用程序提供绘图环境,从Apple Pencil或用户的手指输入,并将其转换为您在iOS或macOS中显示的高质量图像。 环境中带有用于创建,擦除和选择线条的工具。
有关更多信息,请参阅PencilKit框架文档。
Core ML 3
Core ML 3现在支持设备上的模型个性化,允许您通过在应用程序内私下重新训练或微调用户特定数据来更新模型。 Core ML还大大扩展了对具有100多种图层类型的动态神经网络的支持。
通过添加新的BackgroundTasks框架,您现在可以在后台安排更长时间运行的Core ML模型更新和预测。
有关更多信息,请参阅Core ML框架文档。
Vision
从iOS 13开始,您可以使用Vision框架:
- 对图像进行显着性分析。
- 在图像中检测人类和动物。
- 对图像进行分类以进行分类和搜索。
- 使用特征打印分析图像相似性。
- 对文档执行文本识别。
有关更多信息,请参阅Vision框架文档。
VisionKit
使用新的VisionKit框架,您的应用程序可以让用户使用设备的相机扫描文档,就像您在Notes应用程序中捕获的那些一样。 将此功能与Vision的文本识别功能相结合,可以从扫描的文档中提取文本。 要了解有关扫描文档的更多信息,请参阅VisionKit框架文档。
Metal
Metal使GPU能够更好地控制图形和计算流水线,增加了更容易执行高级GPU处理的功能,并简化了支持不同类型GPU所需的工作。 新工具,包括模拟器中的金属支持,可帮助您更快地开始并了解您的iOS应用是否正确使用Metal。 有关更多信息,请参阅Metal。
Metal Performance Shaders为图像处理,机器学习和光线跟踪提供了新选项,包括GPU生成和光线跟踪加速结构的动态更新。 有关更多信息,请参阅Metal Performance Shaders框架文档。
Core Data
将您的Core Data商店与CloudKit同步,让您的应用用户可以跨所有设备无缝访问他们的数据。 CloudKit的核心数据结合了本地持久性与云备份和分发的优势。 要了解更多信息,请参阅使用CloudKit镜像核心数据存储。
Core NFC
借助Core NFC框架,您的应用程序现在可以支持标记写入,包括写入NDEF格式的标记。 该框架还提供了使用本机协议(如ISO 7816,MIFARE,ISO 15693和FeliCa)读取和写入标签的支持。 有关更多信息,请参阅Core NFC框架文档。
SiriKit
您的应用程序可以在特定时间向Siri提供预订信息,以便用户根据具体情况采取相关措施。 例如,他们可以确认酒店预订,提醒您办理登机手续,并获得返回租车的帮助。 有关更多信息,请参阅Siri事件建议。
使用Media域,用户可以使用Siri在您的应用中收听和控制音频。 要了解更多信息,请参阅SiriKit文档中的Media。