Google Lens est l’outil incontournable depuis des années en matière de recherche visuelle. Cependant, avec les récents progrès de l’IA, de nombreux nouveaux acteurs ont émergé, dont Apple. Avec la mise à jour iOS 18.2, Apple a introduit la fonctionnalité Visual Intelligence (qui fait partie d’Apple Intelligence), permettant aux utilisateurs de rechercher sur Internet en utilisant uniquement l’appareil photo de leur iPhone.
Mais comment se comparent Google Lens et l’intelligence visuelle d’Apple ? L’intelligence visuelle est-elle meilleure que le Google Lens éprouvé ? Découvrons-le.
Options de capture | Téléchargez une image depuis la galerie, utilisez l’appareil photo pour prendre des images et enregistrer également des vidéos | Je ne peux utiliser l’appareil photo que pour numériser en temps réel, mais je ne peux pas télécharger d’images et la fonctionnalité vidéo est manquante. |
Traduction linguistique | 247 langues, peut détecter automatiquement les langues lors de la numérisation | 19 langues, ne peut sélectionner manuellement la langue |
Aide aux devoirs | Mode dédié pour aider aux devoirs | Peut utiliser ChatGPT dans le même but |
Résultats de recherche riches | Images similaires, réponses générées par l’IA, extraits de la base de connaissances Google, résultats de recherche, avis, itinéraires, etc. | Peut uniquement numériser des images, ne peut fournir aucun détail ou contexte supplémentaire |
Ajout de contexte à la recherche d’images | Peut ajouter plus de contexte aux images pour obtenir des résultats pertinents | Peut uniquement numériser des images et ne peut fournir aucun détail ou contexte supplémentaire |
Discussions basées sur l’IA | Peut afficher les réponses générées par l’IA à partir de la recherche Google | Modèle GPT-4o via ChatGPT qui nous permet d’avoir des conversations aller-retour |
Suggestions intelligentes | Suggestions de base | Événements, rappels, directions |
Compatibilité des appareils | Tous les téléphones (Android et iPhone) | iPhone 16 et supérieur uniquement |
1. Plus d’options de capture : images, vidéos et captures d’écran
Google Lens offre plus de flexibilité : vous permettant d’effectuer une recherche en prenant une photo directement ou en en téléchargeant une depuis votre galerie. D’un autre côté, l’intelligence visuelle d’Apple ne fonctionne qu’en temps réel, ce qui signifie que vous ne pouvez pas télécharger une image existante.
Cette possibilité supplémentaire de télécharger des photos depuis votre galerie rend Google Lens bien plus pratique qu’il n’y paraît à première vue. Vous n’êtes pas limité à numériser uniquement des photos : vous pouvez également prendre une capture d’écran sur votre téléphone et utiliser Google Lens pour effectuer une recherche avec.
Par exemple, si vous trouvez un produit sur un site Web au hasard et que vous souhaitez l’acheter dans un magasin de confiance, Google Lens vous facilite la tâche. Avec Visual Intelligence, ce n’est pas une option à moins que vous ne disposiez d’un deuxième téléphone pour prendre une photo de votre écran.
Enfin, vous pouvez également enregistrer des vidéos et téléchargez-les sur Google Lens, ajoutant ainsi une autre façon de rechercher ce qui se trouve devant vous. Par exemple, créez une vidéo de poissons nageant en rond dans un grand aquarium, puis demandez la raison de ce comportement.
2. Traduction linguistique : Google domine l’intelligence visuelle
C’est encore un autre domaine dans lequel Google Lens surpasse l’intelligence visuelle d’Apple. Google Lens propose une option de traduction dédiée, vous permettant de changer de mode et de numériser du texte immédiatement. En revanche, Visual Intelligence propose de traduire lorsque vous prenez une image contenant du texte. Cependant, même lorsque l’image est pleine de texte, il arrive souvent qu’elle n’affiche pas la fenêtre contextuelle de traduction pour une raison quelconque. Cela devrait être corrigé avec une mise à jour.
Google prend en charge 247 langues, alors que celle d’Apple est limitée à seulement 19. De plus, Google Lens peut détecter automatiquement la langue, donc même si vous rencontrez un script que vous ne pouvez pas reconnaître, il fonctionnera toujours. Avec Visual Intelligence, vous devez sélectionner manuellement la langue de saisie car elle ne prend pas en charge la détection automatique. Bizarrement, lorsque vous sélectionnez le texte manuellement et sélectionnez l’option Traduire, vous obtenez la fonction de détection automatique.
Lire aussi : Nous avons déjà effectué une comparaison approfondie entre Apple Translate et Google Translate. Lisez.
Même dans des conditions idéales, Google Lens fournit la plupart du temps des traductions plus précises, ce avec quoi l’outil d’Apple a encore du mal. Si la traduction linguistique est une fonctionnalité sur laquelle vous comptez souvent, Google Lens est sans aucun doute la meilleure option.
3. Aide aux devoirs : les deux ont leur chemin
Pour les étudiants, Google Lens va plus loin avec sa fonction de devoirs. Ce mode vous permet d’analyser des problèmes de mathématiques, de sciences, d’histoire, etc. et d’obtenir instantanément une réponse.
L’intelligence visuelle, en revanche, n’offre pas d’option dédiée aux devoirs. Cependant, vous pouvez télécharger des questions sur ChatGPT via une recherche visuelle et obtenir une réponse.
En termes de précision, nous avons constaté que ChatGPT fournit souvent de meilleures réponses. Cependant, la différence est négligeable et les deux fournissent parfois des réponses inexactes. Dans cet exemple donné, la bonne réponse est 50, ce qui rend la réponse de Visual Intelligence plus précise.
4. Résultats de recherche riches : Google > Apple
Google Lens ne vous montre pas seulement des images similaires ; il extrait également des résultats de recherche pertinents, les réponses générées par l’IA de Google et des informations provenant de la vaste base de connaissances de Google. Cela vous donne un aperçu complet de tout ce que vous recherchez, avec un contexte détaillé et des informations utiles.
L’intelligence visuelle d’Apple peut parfois afficher les évaluations des restaurants, les directions vers les lieux publics et des images similaires. Cependant, sa capacité à fournir des résultats riches n’est pas tout à fait comparable à celle de Google.
Par exemple, j’ai numérisé une image de Qutub Minar en utilisant les deux outils. Google Lens a affiché une page de recherche complète avec le nom du monument, les directions, les critiques, les images similaires, les options de billets et des détails supplémentaires tels que sa date de construction et sa hauteur. Il fournit également des résultats de recherche supplémentaires.
En comparaison, l’intelligence visuelle d’Apple n’a identifié le monument que par son nom avec ChatGPT et a trouvé des images similaires avec la recherche Google.
5. Google Lens permet d’ajouter du contexte à la recherche d’images
Vous pouvez effectuer une recherche à l’aide d’images sur Lens et Visual Intelligence, mais Google vous permet également d’ajouter du contexte à votre recherche. Par exemple, vous pouvez numériser la photo d’une bouteille noire et ajouter des instructions telles que « même bouteille mais en rose ». Cela affichera les résultats pour la version rose de la bouteille. Un autre exemple peut être lorsque vous téléchargez une image d’une cuisine et posez des questions complémentaires telles que les ingrédients, le prix, etc.
Cette capacité à combiner la recherche visuelle avec le texte rend Google Lens plus polyvalent et beaucoup plus utile. De telles fonctionnalités ne sont actuellement pas disponibles dans Visual Intelligence.
6. Discussions basées sur l’IA : l’avantage de l’intelligence visuelle
Google Lens affiche les réponses générées par l’IA dans la recherche Google, mais Visual Intelligence affiche les résultats de ChatGPT. Cependant, Visual Search prend ici une avance facile pour deux raisons :
Premièrement, Google ne fournit pas de réponses générées par l’IA pour toutes les recherches et il n’existe aucun moyen de les forcer manuellement. Vous le verrez lorsque Google choisira de vous le montrer. Deuxièmement, Visual Intelligence vous permet de poser des questions de suivi à ChatGPT, afin que vous puissiez avoir une conversation qui n’est pas possible avec Google Lens pour le moment.
De plus, Visual Intelligence a accès au modèle GPT 4o, actuellement disponible pour les utilisateurs payants. Google compense cette fonctionnalité avec l’application Gemini, mais vous avez besoin d’un abonnement.
7. Suggestions intelligentes : Apple surpasse Google
Lorsque vous numérisez quelque chose avec Visual Intelligence, ainsi que les résultats de Google et ChatGPT, vous obtenez des suggestions supplémentaires telles qu’une option permettant d’ajouter des événements, de définir des rappels, d’obtenir un itinéraire, de résumer du texte, etc. Par exemple, vous pouvez numériser un dépliant d’événement et enregistrer un rappel ou événement, la numérisation d’un texte long offre la possibilité de le résumer dans une instance, etc.
Apple suggère également des actions telles que des traductions et des critiques, mais Google propose des résultats riches. Google dispose également de fonctionnalités intelligentes, comme la possibilité d’afficher le meilleur élément du menu d’un restaurant. Cependant, il n’est pour l’instant pris en charge que dans quelques restaurants dans le monde.
8. Compatibilité des appareils : Apple prend en charge des appareils limités
L’un des inconvénients majeurs de l’intelligence visuelle d’Apple est qu’elle ne fonctionne que sur les iPhone 16 et supérieurs. En effet, son lancement nécessite une puce A18 et le bouton de contrôle de la caméra, qui ne sont disponibles qu’à partir du modèle iPhone 16. Cette restriction le rend inaccessible aux utilisateurs de téléphones Android et d’iPhones plus anciens.
Google Lens, en revanche, est disponible pour tous les téléphones, qu’ils soient Android ou iPhone.
Lire aussi : Saviez-vous que vous pouvez utiliser Google Lens sur le bureau ?
Quel est le meilleur : l’intelligence visuelle d’Apple ou Google Lens
Google Lens et l’intelligence visuelle d’Apple ont tous deux leurs forces et leurs faiblesses. Google Lens est supérieur en termes de flexibilité pour poser des questions à l’aide d’images/captures d’écran/vidéos, de traduction, d’aide aux devoirs et pour fournir un contexte plus riche pour les recherches. Il est plus polyvalent et disponible sur différentes plates-formes, ce qui en fait l’option incontournable pour beaucoup.
L’intelligence visuelle d’Apple, quant à elle, offre des fonctionnalités uniques telles que des suggestions intelligentes d’événements, de rappels et d’itinéraires. Cela pourrait être utile si vous souhaitez une expérience de type assistant plus intégrée. Cependant, sa compatibilité limitée et ses options limitées pourraient constituer un obstacle pour certains.
Il convient de noter que Google Lens existe depuis un certain temps déjà, tandis qu’Apple est récemment entré dans le jeu de l’IA.