Basculer en mode sombre
Quand Apple
a dévoilé macOS 12 Monterey
le mois dernier, il a tracé une ligne dans le sable entre ses nouveaux Mac de pointe alimentés par M1 et les modèles utilisant encore des puces Intel. Maintenant, cependant, il semble que cette ligne a été floue, au moins un peu.
Il y a au moins six grandes nouvelles fonctionnalités dans macOS Monterey qui
devaient nécessiter un Mac M1
, mais maintenant, la dernière version bêta de macOS 12 en apporte également au moins un aux Mac à saveur Intel – Live Text in Photos.
Le changement intervient dans la quatrième version bêta de macOS 12, publiée pour les développeurs plus tôt cette semaine, qui a été rapidement suivie d'une troisième version bêta publique de la même version. Il n'y avait pas grand-chose d'autre d'intéressant à propos de la dernière version bêta de macOS - Apple a brièvement suggéré que
Contrôle universel
avait finalement été activé, mais malheureusement, cela s'est avéré prématuré.
Cependant, enfouie dans les notes de version, il y avait une confirmation indirecte que Live Text était également ajouté discrètement aux Mac Intel :
Apple n'a pas du tout mentionné le mot "Intel" dans les notes de version, mais "tous les ordinateurs Mac" incluent naturellement les nombreuses variantes Intel qu'Apple a vendues dans le passé - et vend toujours aujourd'hui.
Comme
René Ritchie
théorise, Apple semble avoir changé de cap et ajouté Live Text "en fonction de la demande", mais cela aide également que la prise en charge de Live Text sur le Mac n'a pas besoin d'être effectuée en temps réel comme sur l'iPhone et l'iPad.
Même si la plupart des Mac d'Apple disposent d'une caméra FaceTime, même les modèles alimentés par M1 ne vous permettront pas de visualiser le texte en direct via la caméra. Cela semble raisonnable étant donné que les caméras MacBook et iMac sont conçues pour des choses comme la vidéoconférence, et la plupart des utilisateurs ne vont probablement pas les pointer vers des panneaux et des reçus de la même manière qu'ils le feraient avec un iPhone.
Bien sûr, vous pourrez toujours extraire du texte en direct à partir d'images capturées avec l'appareil photo FaceTime du Mac - vous ne pourrez tout simplement pas le faire en regardant un aperçu en direct de l'image. Au lieu de cela, vous devrez le charger dans Photos ou Aperçu.
Comme l'explique Ritchie, cela signifie que Live Text sur Mac n'a pas vraiment besoin du moteur neuronal du M1. Alors que les modèles alimentés par M1 tireront certainement encore parti de cela pour un traitement encore plus rapide, les versions Intel peuvent simplement le gérer "
de manière opportuniste
. " Cela signifie qu'il peut fonctionner un peu plus lentement sur les anciens Mac Intel, mais au moins ce sera possible.
Texte en direct dans les photos
Le véritable avantage de
la nouvelle fonctionnalité Live Text
se trouvera dans iOS 15 sur l'iPhone, où les utilisateurs pourront extraire du texte directement via l'iPhone
Caméra
application.
Vous pourrez copier du texte à partir de tout ce que vous regardez en faisant simplement glisser le texte dans l'aperçu de la photo pour le sélectionner et le copier dans votre presse-papiers.
Vous pouvez même utiliser les détecteurs de données d'iOS pour passer un appel directement vers un numéro de téléphone reconnu, ou naviguer vers une adresse reconnue.
C'est une fonction magique, et elle ne fonctionne pas seulement dans le
Caméra
et
Photos
applications, non plus. C'est une fonctionnalité au niveau du système qui devrait fonctionner pour n'importe quelle photo que vous regardez, n'importe où sur votre appareil. Il existe déjà quelques exceptions avec des applications spécifiques qui n'utilisent pas les API photo iOS standard, comme Facebook et Instagram, mais il peut également s'agir simplement d'attendre que ces applications soient mises à jour.
Plus important encore, Apple effectue tout le traitement directement sur la puce de la série A ou de la série M de votre iPhone, iPad ou Mac. Vos données photo ne quittent jamais votre appareil à cette fin, et les serveurs d'Apple n'analysent pas du tout vos photos pour le texte. Ceci est similaire au traitement photo sur l'appareil pour des choses comme les visages et les objets qu'Apple fait depuis iOS 10 en 2016.
Bien sûr, si vous synchronisez vos photos avec iCloud Photo Library, vos photos seront stockées sur les serveurs d'Apple, mais la clé est qu'Apple n'effectue aucune analyse informatique sur les photos qui y sont stockées. Tous les autres services qui effectuent ce type d'analyse s'appuient sur de puissants serveurs cloud pour faire le gros du travail, ce qui signifie que tout le texte de vos photos réside dans une base de données sur le serveur de cette entreprise. L'approche d'Apple est une victoire massive pour la confidentialité.
Commenter
Cependant, cette exigence de traitement sur l'appareil est précisément la raison pour laquelle la fonction Live Photos n'allait pas à l'origine être prise en charge sur les Mac Intel. Apple a probablement estimé que les puces Intel n'étaient pas à la hauteur de la tâche, et plus important encore, le code pour gérer cela a été conçu pour le propre Neural Engine d'Apple, qui ne se trouve que dans les puces A11 Bionic 2017 et plus tard de la série A, et de bien sûr, la nouvelle puce M1 qui alimente les derniers Mac d'Apple. C'est la même raison
que vous aurez besoin d'au moins un iPhone XS/XR pour utiliser Live Text dans iOS 15
.
Dans le cas des Mac Intel, cependant, Apple s'est évidemment rendu compte qu'il pouvait traiter par lots des photos pour Live Text, plutôt que de devoir le faire en temps réel. On ne sait pas encore exactement en quoi cette approche peut différer sous le capot - il est probable qu'Apple analyse les photos en arrière-plan et pré-stocke le texte pour plus tard - mais le résultat est le même : il y aura une autre fonctionnalité pour les utilisateurs d'Intel Mac à profitez du lancement de macOS Monterey plus tard cette année.
Lire la suite :
Meilleures offres Apple | M1 MacBook Air 149 $ de rabais, Apple Watch Series 6 100 $ de rabais, AirPods 69 $ de rabais (+ beaucoup plus)