iOS 11 GM verrät neue Apple-Hardware, genaue Details zum Gesichtsscanner sowie viele weitere Funktionen
Die GM-Version von iOS 11 ist publik geworden, noch bevor Apple diese offiziell verteilte. "GM" steht für "Gold(en) Master" und beschreibt jenen Entwicklungsstand, der direkt zur finalen Version werden kann. Sollten also keine unvorhergesehen Probleme mehr auftauchen, dann könnte dieser Build die marktreife Version sein. Aus diesem Grund sind auch bereits alle Hinweise auf neue Hardware enthalten, die Apple in vorherigen Builds noch versteckt hatte. Wir fassen in dieser Meldung alle wichtigen Neuerungen zusammen, die sich aus der GM-Version von iOS 11 entnehmen lassen. Wer sich natürlich die Spannung nicht nehmen lassen will und lieber alles erst auf dem Event am Dienstag sehen möchte, sollte spätestens an dieser Stelle zu lesen aufhören.
Funktionen des iPhone 8Der Gesichtsscanner des iPhone 8, in der HomePod-Firmware noch als "Pearl ID" bezeichnet, wird wohl tatsächlich den Marketingnamen "Face ID" erhalten, wie Strings in den Systemtiefen belegen. Eine genauere Beschreibung der Funktionsweise finden Sie auf Seite 2 dieses Artikels. Weitere neue Funktionen des "D22", so der interne Codename des nächsten iPhones, sind unter anderem Portrait Lighting, ein "True Tone"-Display und neue Videoauflösungen. Mit "Portrait Lighting" kann wohl der LED-Blitz sehr gesteuert werden, als Betriebsmodi gibt es laut iOS-GM Kontur, natürlich, Bühnenlicht, Mono-Bühnenlicht und Studiolicht. Wer mit dem iPhone filmt, kann die neuen Aufnahmestufen 1080p mit bis zu 240 fps und 4K mit bis zu 60 FPS auswählen. Aus einer Erklärgrafik geht zudem hervor, wie sich ein Notruf auslösen lässt. Dazu sind die zwei Buttons an der Gehäuseseite des iPhone 8 gleichzeitig zu drücken, nämlich "Lauter" und "Sleep".
Emojis, die wie der Nutzer guckenEine weitere neue Funktion sind variable Emoticons - musste man bislang den Gefühlszustand eines Smileys selber aus einer Liste auswählen, so kann die Front-Kamera des iPhone 8 nun den Gesichtsausdruck des Nutzers erkennen und die erfasste Stimmungslage auf das Emoji projizieren. Es ist davon auszugehen, dass Apple hierzu die Technologie von Emotient setzte - ein Unternehmen, das exakt diese Konzepte entwickelte und Anfang 2016 von Apple übernommen wurde. Die folgende Grafik zeigt, was Apple alles erfassen kann: