präsentiert „Visual Intelligence“

Apple hat kürzlich eine neue Funktion vorgestellt, die der Google Lens ähnelt. Diese neue Technologie, genannt „Visual Intelligence“, soll die Art und Weise, wie Nutzer ihre Geräte verwenden, revolutionieren. Mit dieser Funktion können Benutzer **Objekte**, **Text** und **Orte** durch ihre Kamera erkennen und identifizieren lassen.

Wie funktioniert „Visual Intelligence“?

Die „Visual Intelligence“ von Apple nutzt fortschrittliche **künstliche Intelligenz** und **Maschinenlernen**, um Informationen in Echtzeit zu verarbeiten. Wenn du die Kamera deines iPhones oder iPads auf ein Objekt richtest, analysiert die Technologie das Bild und liefert dir sofort relevante Informationen. Zum Beispiel kann sie den Namen eines Tieres, Details über ein Kunstwerk oder Informationen zu einem historischen Gebäude anzeigen.

Integration mit anderen Apple-Diensten

Ein wesentlicher Vorteil der „Visual Intelligence“ ist ihre nahtlose Integration mit anderen Apple-Diensten. Wenn du beispielsweise ein Rezept siehst, kannst du es direkt in deine Notizen speichern oder mit Siri teilen. Diese Funktion arbeitet auch hervorragend mit **Apple Maps** zusammen, sodass du sofort Wegbeschreibungen zu einem erkannten Ort erhalten kannst. Darüber hinaus kann „Visual Intelligence“ Text aus Bildern extrahieren und dir ermöglichen, diesen in **E-Mails**, **Nachrichten** oder **Dokumenten** zu verwenden.

Apple setzt mit der Einführung von „Visual Intelligence“ ein starkes Zeichen im Bereich der **Bildverarbeitung** und **Objekterkennung**. Diese Technologie verspricht, den Alltag der Nutzer zu erleichtern und ihre Interaktion mit der Umgebung zu bereichern. Mit der kontinuierlichen Weiterentwicklung von wird erwartet, dass noch mehr innovative Funktionen in der Zukunft folgen werden.

Source / Quelle: Via