Il ne s’agit pas seulement de mesurer la notoriété des marques. Les entreprises utilisent la détection de logos pour calculer le retour sur investissement du sponsoring d’événements sportifs ou pour définir si leur logo a été utilisé de manière abusive.
Analyse d’images médicales
Les logiciels alimentés par des modèles d’apprentissage profond aident les radiologues à faire face à l’énorme charge de travail que représente l’interprétation de diverses images médicales : tomodensitométrie (CT) et échographie, imagerie par résonance magnétique (IRM) ou radiographie. IBM souligne qu’un radiologue des urgences doit examiner jusqu’à 200 cas par jour. En outre, certaines études médicales contiennent jusqu’à 3 000 images. Rien d’étonnant à ce que les images médicales représentent près de 90 % de l’ensemble des données médicales.
Les outils de radiologie basés sur l’IA ne remplacent pas les cliniciens mais soutiennent leur prise de décision. Ils signalent les anomalies aiguës, identifient les patients à haut risque ou ceux qui nécessitent un traitement urgent afin que les radiologues puissent hiérarchiser leurs listes de travail.
La division de recherche d’IBM à Haïfa, en Israël, travaille sur un assistant de radiologie cognitive pour l’analyse des images médicales. Le système analyse les images médicales, puis combine cet aperçu avec les informations du dossier médical du patient et présente des résultats que les radiologues peuvent prendre en compte lors de la planification du traitement.
Démo pour l’outil de détection du cancer du sein Eyes of Watson d’IBM qui utilise la vision par ordinateur et le ML. Source : IBM Research
Les scientifiques de cette division ont également développé un réseau neuronal profond spécialisé pour signaler les tissus mammaires anormaux et potentiellement cancéreux.
Aidoc fournit une autre solution qui utilise l’apprentissage profond pour scanner des images médicales (tomodensitométries notamment) et hiérarchiser les listes de patients. La solution a reçu les autorisations de la Food and Drug Administration (FDA) américaine, des Therapeutic Goods of Australia (TGA) et le marquage CE de l’Union européenne pour signaler trois conditions potentiellement mortelles : embolie pulmonaire, fracture du rachis cervical et hémorragie intracrânienne.
Les clients de la société comprennent le UMass Memorial Medical Center à Worcester, Massachusetts, le Montefiore Nyack Hospital dans le comté de Rockland, NY, et Global Diagnostics Australia, un centre d’imagerie.
Applications pour reconnaître les œuvres d’art
Magnus est une application alimentée par la reconnaissance d’images qui guide les amateurs d’art et les collectionneurs “à travers la jungle de l’art.” Une fois qu’un utilisateur a pris une photo d’une œuvre d’art, l’appli fournit des détails tels que l’auteur, le titre, l’année de création, les dimensions, le matériau et, surtout, le prix actuel et historique. L’appli dispose également d’une carte avec les galeries, les musées et les ventes aux enchères, ainsi que les œuvres d’art actuellement présentées.
Magnus puise ses informations dans une base de données de plus de 10 millions d’images d’œuvres d’art ; les informations sur les pièces et les prix sont issues du crowdsourcing. Fait intéressant : Leonardo DiCaprio a investi dans l’application, indique Magnus sur sa page Apple Store.
Les amateurs de musées peuvent satisfaire leur soif de connaissances avec des applications comme Smartify. Smartify est un guide de musée que vous pouvez utiliser dans des dizaines de lieux d’art bien connus dans le monde, comme le Metropolitan Museum of Art à New York, la Smithsonian National Portrait Gallery à Washington DC, le Louvre à Paris, le Rijksmuseum d’Amsterdam, la Royal Academy of Arts à Londres, le State Hermitage Museum à Saint-Pétersbourg, et d’autres.
Comment fonctionne Smartify. Source : Smartify
Pour révéler des détails sur une œuvre d’art, l’application fait correspondre les œuvres d’art scannées aux images numériques d’une base de données, qui contenait près de 50 000 œuvres d’art en 2017. Anna Lowe, cofondatrice de Smartify, explique le fonctionnement de l’appli de cette manière : “Nous scannons les œuvres d’art à l’aide de photos ou d’images numériques, puis nous créons des empreintes digitales numériques de l’œuvre, ce qui signifie qu’elle est réduite à un ensemble de points et de lignes numériques.”
La reconnaissance faciale pour améliorer l’expérience dans les aéroports
La reconnaissance faciale se généralise parmi les compagnies aériennes qui l’utilisent pour améliorer l’embarquement et l’enregistrement. Ces améliorations ont deux directions principales : suivre les tendances du libre-service et de cette technologie biométrique et rendre l’expérience aéroportuaire plus sûre et plus rapide. Moins il y a d’étapes que les passagers et le personnel doivent franchir pour procéder aux routines avant le vol, mieux c’est.
Les équipements d’embarquement scannent le visage des voyageurs et le font correspondre aux photos stockées dans les bases de données des agences de contrôle des frontières (c’est-à-dire les douanes et la protection des frontières américaines) pour vérifier leur identité et les données de vol. Il peut s’agir de photos de pièces d’identité, de visas ou d’autres documents.
American Airlines, par exemple, a commencé à utiliser la reconnaissance faciale aux portes d’embarquement du terminal D de l’aéroport international de Dallas/Fort Worth, au Texas. Au lieu d’utiliser des cartes d’embarquement, les voyageurs se font scanner le visage. La seule chose qui n’a pas changé est qu’il faut toujours avoir un passeport et un billet pour passer le contrôle de sécurité. L’embarquement biométrique fonctionne sur la base de l’opt-in.
Embarquement biométrique pour les passagers d’American Airlines. Source : The Dallas Morning News
En 2018, American testait la biométrie pendant 90 jours au terminal 4 de l’aéroport international de Los Angeles avec l’idée d’étendre l’utilisation de la technologie si l’essai se passe bien.
De nombreuses compagnies aériennes mettent également en œuvre la reconnaissance faciale comme option d’embarquement supplémentaire : JetBlue, British Airways, AirAsia, Lufthansa ou Delta. La dernière a installé un dépôt de sacs en libre-service à l’aéroport international de Minneapolis-St. Paul en 2017.
Recherche visuelle de produits
Les frontières entre le shopping en ligne et hors ligne ont disparu depuis que la recherche visuelle est entrée dans le jeu. Par exemple, l’appli Urban Outfitters dispose d’une fonctionnalité Scan + Shop, grâce à laquelle les consommateurs peuvent scanner un article qu’ils trouvent dans un magasin physique ou imprimé dans un magazine, obtenir sa description détaillée et le commander instantanément. La recherche visuelle améliore également l’expérience d’achat en ligne.
Les applis dotées de cette capacité sont alimentées par des réseaux neuronaux. Les réseaux neuronaux traitent les images téléchargées par les utilisateurs et génèrent des descriptions d’images (tags), par exemple, le type de vêtement, le tissu, le style, la couleur. Les descriptions d’images sont comparées aux articles en stock et aux étiquettes correspondantes. Les résultats de la recherche sont présentés en fonction d’un score de similarité.
Nous avons consacré une section à la recherche visuelle dans l’article sur la façon dont les détaillants utilisent l’IA. Vous pouvez également y lire comment les technologies de reconnaissance d’images et de visages ont fait des magasins sans caisse comme Amazon Go une réalité et aussi comment elles alimentent les systèmes de surveillance ou permettent la personnalisation en magasin.
Le travail continue
Dans la deuxième partie du 20e siècle, les chercheurs ont estimé qu’il faudrait un temps relativement court pour résoudre un problème de vision par ordinateur, entre autres. En 1966, le mathématicien et ancien codirecteur du laboratoire d’informatique du MIT & AI, Seymour Papert, coordonnait le projet Summer Vision. Les chercheurs avaient un plan ambitieux : construire une partie importante d’un système doté de capacités de vision par ordinateur, telles que nous les connaissons aujourd’hui, pendant un été. “L’objectif principal du projet est de construire un système de programmes qui divisera une image de vidisecteur en régions telles que les objets probables, les zones d’arrière-plan probables et le chaos”, disait la description du projet.
Et bien, cela a pris beaucoup plus de temps. Les logiciels modernes peuvent reconnaître un grand nombre d’objets quotidiens, de visages humains, de textes imprimés et manuscrits dans les images, et d’autres entités (consultez notre article sur les API de reconnaissance d’images.) Mais le travail continue, et nous continuerons à observer comment de plus en plus d’entreprises et d’organisations mettent en œuvre la reconnaissance d’images et d’autres tâches de vision par ordinateur pour se démarquer de leurs concurrents et optimiser leurs opérations.