Apple kündigt ARKit 3, Core ML 3 und weitere Entwickler-Tools an

Apple stellt ARKit 3, Core ML 3 und weitere Entwickler-Tools vor

Auf der Entwicklerkonferenz WWDC in San Jose stellte Apple eine Reihe von neuen Entwickler-Tools vor, darunter ARKit 3, Core ML 3 und Create ML. Neben dem GUI-Framework SwiftUI ist ebenfalls die Beta-Version von Xcode 11 ein wichtiger Bestandteil der Neuerungen. Mit diesen Tools können Entwickler Anwendungen mit den neuesten Frameworks erstellen.



Erneut Augmented Reality


Die neueste Ausgabe von ARKit, Apples Software Development Kit für Augmented-Reality-Anwendungen enthält unter anderem ein Motion-Capture-Feature, das Entwicklern hilft die Bewegung von Menschen in Apps zu integrieren und auch eine People-Occlusion-Funktion. Mit letzterer werden AR-Inhalte vor oder hinter Menschen erscheinen um immersivere AR-Erlebnisse & Greenscreen-ähnliche Anwendungen zu ermöglichen.



Zwei weitere AR-Werkzeuge sind Reality Composer und RealityKit. Reality Composer wird als App für iOS und Mac beschrieben die außerdem in Xcode integriert ist. Sie soll es einfach machen, interaktive Augmented-Reality-Erlebnisse ohne vorherige 3D-Erfahrung zu erstellen. RealityKit wiederum ist ein High-Level-Framework mit fotorealistischem Rendering, Kameraeffekten, Animationen und physikalischen Features, das speziell für Augmented-Reality-Szenarien entwickelt wurde. Es umfasst des Weiteren eine Swift-API und integriert sich mit ARKit.


Wieder Machine Learning


Spielten Ankündigungen zu früheren ARKit-Versionen schon bei den beiden letzten WWDC-Ausgaben eine Rolle, gilt das auch für das Machine-Learning-Framework Core ML, mit dem iOS-Entwickler Machine-Learning-Anwendungen können. Die nun vorgestellte Version 3 ist die erste die Trainings für maschinelles Lernen auf dem Gerät bietet um personalisierte Erfahrungen mit iOS-Apps zu ermöglichen. Mehrere Modelle mit unterschiedlichen Datensätzen zu trainieren, wird auch ein Feature der neuen Create-ML-App auf macOS für Anwendungen wie Objekt- & Geräuscherkennung sein. Mit der App sollen Entwickler Machine-Learning-Modelle erstellen können, ohne Code anfassen zu müssen.


Multi-Model-Training mit verschiedenen Datensätzen kann mit neuen Modelltypen wie Objekterkennung, Aktivität und Klassifizierung verwendet werden.Mit über 100 Modellschichten die jetzt Core ML unterstützt, bietet Apple ein breites Spektrum an Machine-Learning-Szenarien die Bereiche wie Computer Vision und Natural Language Processing umfassen.


Kleinere News


Eine kleinere Neuerungen ist. Dass Entwickler mit dem PencilKit Unterstützung für Apple Pencil zu ihren Apps hinzuzufügen können. Es enthält außerdem eine neu gestaltete Tool-Palette. Eine weitere ist, dass MapKit nun neue Funktionen wie Vektor-Overlays, Point-of-Interest-Filterung, Kamera-Zoom und Schwenkbeschränkungen sowie Unterstützung für den Dark Mode bietet.


Zuletzt aktualisiert am Uhr



Kommentare


Anzeige