Apple wird seinen virtuellen Assistenten Siri mit der Einführung von Apple Intelligence deutlich verbessern. Dieses neue KI-System wird Siris Fähigkeiten erweitern und den Benutzern ein intuitiveres und effizienteres Erlebnis bieten.
Bei der ersten Einführung von Apple Intelligence werden einige eingeschränkte Siri-Funktionen eingeführt. Die wichtigsten Upgrades werden jedoch voraussichtlich im Frühjahr nächsten Jahres verfügbar sein.
Der Betatest für Entwickler soll im Januar beginnen, die öffentliche Vorstellung der erweiterten Siri-Funktionen soll zeitgleich mit dem iOS 18.4-Upgrade erfolgen.
Im Vergleich zu den aktuellen Funktionen werden die Siri-Verbesserungen mit Apple Intelligence eine Klasse für sich sein. Während Google und Samsung im KI-Bereich große Fortschritte gemacht haben, ist Apple dabei, ihre aktuellen KI-Fähigkeiten zu übertreffen.
Siris Funktionserweiterungen
Die Einführung von Apple Intelligence wird eine Reihe spannender Funktionen für Siri freischalten. Benutzer können sich auf eine beispiellose Kontrolle über Aktionen in Apple-Apps freuen, beispielsweise das Bearbeiten von Fotos und eine nahtlose Cross-App-Funktionalität.
Siri wird außerdem in der Lage sein, Aktionen auf Grundlage des Bildschirminhalts vorherzusehen und zu empfehlen. Diese Verbesserungen werden das allgemeine Benutzererlebnis deutlich verbessern und Siri zu einem intuitiveren und unverzichtbareren Werkzeug machen.
Die Benutzeroberfläche von Siri wird einen pulsierenden Regenbogen an der Innenseite des Bildschirmrahmens aufweisen, statt des alten kreisförmigen Bildes. Diese aktualisierte Benutzeroberfläche bietet Benutzern ein visuell ansprechendes und dynamisches Erlebnis bei der Interaktion mit Siri.
Darüber hinaus wird Siris Integration mit ChatGPT , einem fortschrittlichen Sprachmodell, das Verständnis und die Reaktionsfähigkeit des Assistenten verbessern. Benutzer können natürlichere und gesprächsorientiertere Interaktionen mit Siri erwarten, was ihn zu einem intuitiveren und hilfreicheren virtuellen Assistenten macht.
Apple arbeitet auch daran, Siris Produktwissen zu vertiefen, sodass der Assistent grundlegende technische Unterstützung bieten kann. Ob es um die Beantwortung von Fragen zu Geräteeinstellungen oder die Lösung gängiger Softwareprobleme geht, Siri wird für Apple-Benutzer zu einer zuverlässigen Quelle für Anleitung und Unterstützung.
Darüber hinaus plant Apple für die Zukunft die Entwicklung von AirPods mit integrierten Kameras. Diese AirPods könnten über Infrarotsensoren verfügen und mit Apples Vision Pro zusammenarbeiten, um Handgesten und Bewegungserkennung zu ermöglichen.
Ähnlich wie Metas Ray-Ban- Brille könnten die Kameras dieser AirPods dazu verwendet werden, Bilder zu verarbeiten und den Benutzern Informationen über ihre Umgebung zu liefern. Diese Technologie hat das Potenzial, die Art und Weise zu revolutionieren, wie Apple-Benutzer mit ihren Geräten interagieren und sich in der Welt um sie herum zurechtfinden.