Es geht nicht nur um die Messung der Markenbekanntheit. Unternehmen nutzen die Logoerkennung, um den ROI aus dem Sponsoring von Sportereignissen zu berechnen oder um festzustellen, ob ihr Logo missbräuchlich verwendet wurde.
Medizinische Bildanalyse
Software, die auf Deep-Learning-Modellen basiert, hilft Radiologen bei der Bewältigung des enormen Arbeitsaufwands, der mit der Interpretation verschiedener medizinischer Bilder verbunden ist: Computertomographie (CT) und Ultraschalluntersuchungen, Magnetresonanztomographie (MRT) oder Röntgenaufnahmen. IBM betont, dass ein Radiologe in der Notaufnahme jeden Tag bis zu 200 Fälle untersuchen muss. Darüber hinaus enthalten einige medizinische Studien bis zu 3.000 Bilder. Kein Wunder, dass medizinische Bilder fast 90 Prozent aller medizinischen Daten ausmachen.
KI-basierte Radiologie-Tools ersetzen den Arzt nicht, sondern unterstützen ihn bei der Entscheidungsfindung. Sie weisen auf akute Anomalien hin, identifizieren Hochrisikopatienten oder solche, die eine dringende Behandlung benötigen, so dass Radiologen ihre Arbeitslisten priorisieren können.
IBM Research Division in Haifa, Israel, arbeitet an einem kognitiven Radiologie-Assistenten für die medizinische Bildanalyse. Das System analysiert medizinische Bilder und kombiniert dann diese Erkenntnisse mit Informationen aus den Krankenakten des Patienten und präsentiert Ergebnisse, die Radiologen bei der Behandlungsplanung berücksichtigen können.
Demo für IBMs Eyes of Watson-Brustkrebserkennungs-Tool, das Computer Vision und ML verwendet. Quelle: IBM Research
Wissenschaftler dieser Abteilung haben auch ein spezialisiertes tiefes neuronales Netzwerk entwickelt, um abnormales und potenziell krebsartiges Brustgewebe zu erkennen.
Aidoc bietet eine weitere Lösung, die tiefes Lernen für das Scannen medizinischer Bilder (insbesondere CT-Scans) und die Priorisierung von Patientenlisten verwendet. Die Lösung wurde von der US-amerikanischen Food and Drug Administration (FDA), der Therapeutic Goods of Australia (TGA) und der Europäischen Union mit der CE-Kennzeichnung für die Erkennung von drei lebensbedrohlichen Zuständen zugelassen: Lungenembolie, Halswirbelfraktur und Hirnblutung.
Zu den Kunden des Unternehmens gehören das UMass Memorial Medical Center in Worcester, Massachusetts, das Montefiore Nyack Hospital in Rockland County, NY, und Global Diagnostics Australia, ein Bildgebungszentrum.
Apps zur Erkennung von Kunstwerken
Magnus ist eine auf Bilderkennung basierende App, die Kunstliebhabern und -sammlern den Weg durch den “Kunstdschungel” weist. Sobald ein Nutzer ein Foto von einem Kunstwerk macht, liefert die App Details wie Autor, Titel, Entstehungsjahr, Maße, Material und vor allem den aktuellen und historischen Preis. Die App verfügt auch über eine Karte mit Galerien, Museen und Auktionen sowie aktuell ausgestellten Kunstwerken.
Magnus bezieht die Informationen aus einer Datenbank mit über 10 Millionen Bildern von Kunstwerken; die Informationen zu den Stücken und Preisen stammen von der Allgemeinheit. Interessante Tatsache: Leonardo DiCaprio hat in die App investiert, so Magnus auf seiner Apple Store-Seite.
Museumsbesucher können ihren Wissenshunger mit Apps wie Smartify stillen. Smartify ist ein Museumsführer, den man in Dutzenden bekannter Kunststätten der Welt benutzen kann, wie dem Metropolitan Museum of Art in New York, der Smithsonian National Portrait Gallery in Washington DC, dem Louvre in Paris, dem Amsterdamer Rijksmuseum, der Royal Academy of Arts in London, dem Staatlichen Eremitage-Museum in Sankt Petersburg und anderen.
Wie Smartify funktioniert. Quelle: Smartify
Um Details über ein Kunstwerk zu erfahren, gleicht die App gescannte Kunstwerke mit digitalen Bildern in einer Datenbank ab, die 2017 fast 50.000 Kunstwerke enthielt. Smartify-Mitbegründerin Anna Lowe erklärt die Funktionsweise der App so: “Wir scannen Kunstwerke anhand von Fotos oder digitalen Bildern und erstellen dann digitale Fingerabdrücke des Kunstwerks, was bedeutet, dass es auf eine Reihe digitaler Punkte und Linien reduziert wird.”
Gesichtserkennung zur Verbesserung des Flughafenerlebnisses
Gesichtserkennung setzt sich bei Fluggesellschaften durch, die sie zur Verbesserung des Einsteigens und Eincheckens nutzen. Es gibt zwei Hauptrichtungen dieser Verbesserungen: dem Trend zur Selbstbedienung und dieser biometrischen Technologie zu folgen und das Flughafenerlebnis sicherer und schneller zu machen. Je weniger Schritte sowohl die Passagiere als auch das Personal machen müssen, um mit den Routinen vor dem Flug fortzufahren, desto besser.
Boarding-Geräte scannen die Gesichter der Reisenden und gleichen sie mit Fotos ab, die in den Datenbanken der Grenzkontrollbehörden (z. B. U.S. Customs and Border Protection) gespeichert sind, um ihre Identität und Flugdaten zu überprüfen. Dabei kann es sich um Fotos von Ausweisen, Visa oder anderen Dokumenten handeln.
American Airlines hat beispielsweise damit begonnen, an den Flugsteigen des Terminals D des internationalen Flughafens Dallas/Fort Worth in Texas Gesichtserkennung einzusetzen. Anstelle der Bordkarten wird das Gesicht der Reisenden gescannt. Das Einzige, was sich nicht geändert hat, ist, dass man immer noch einen Reisepass und ein Ticket haben muss, um die Sicherheitskontrolle zu passieren. Das biometrische Boarding funktioniert auf Opt-in-Basis.
Biometrisches Boarding für Passagiere von American Airlines. Quelle: The Dallas Morning News
Im Jahr 2018 testete American die Biometrie für 90 Tage im Terminal 4 des Los Angeles International Airport mit der Idee, den Einsatz der Technologie auszuweiten, wenn der Versuch gut verläuft.
Zahlreiche Fluggesellschaften implementieren auch Gesichtserkennung als zusätzliche Boarding-Option: JetBlue, British Airways, AirAsia, Lufthansa oder Delta. Letztere installierte 2017 eine Selbstbedienungs-Gepäckabgabe am Minneapolis-St. Paul International Airport.
Visuelle Produktsuche
Seitdem die visuelle Suche ins Spiel gekommen ist, verschwinden die Grenzen zwischen Online- und Offline-Shopping. Die App von Urban Outfitters verfügt beispielsweise über die Funktion “Scan + Shop”, mit der Verbraucher einen Artikel, den sie in einem Geschäft oder in einer Zeitschrift gefunden haben, einscannen, die detaillierte Beschreibung abrufen und ihn sofort bestellen können. Auch die visuelle Suche verbessert das Online-Einkaufserlebnis.
Apps mit dieser Funktion werden von neuronalen Netzen unterstützt. NNs verarbeiten die von den Nutzern hochgeladenen Bilder und erstellen Bildbeschreibungen (Tags), z. B. Art des Kleidungsstücks, Stoff, Stil, Farbe. Die Bildbeschreibungen werden mit den vorrätigen Artikeln und den entsprechenden Tags abgeglichen. Die Suchergebnisse werden auf der Grundlage einer Ähnlichkeitsbewertung angezeigt.
Wir haben der visuellen Suche einen eigenen Abschnitt in dem Artikel darüber gewidmet, wie Einzelhändler KI einsetzen. Dort können Sie auch nachlesen, wie Bild- und Gesichtserkennungstechnologien kassenlose Läden wie Amazon Go zur Realität gemacht haben, wie sie Überwachungssysteme antreiben oder die Personalisierung in Geschäften ermöglichen.
Die Arbeit geht weiter
In der zweiten Hälfte des 20. Jahrhunderts schätzten Forscher, dass es relativ wenig Zeit in Anspruch nehmen würde, um unter anderem ein Problem der Computer Vision zu lösen. Im Jahr 1966 koordinierte der Mathematiker und ehemalige Co-Direktor des MIT Computer Science & AI Lab Seymour Papert das Summer Vision Project. Die Forscher hatten einen ehrgeizigen Plan: innerhalb eines Sommers sollte ein wesentlicher Teil eines Systems mit Computer-Vision-Fähigkeiten, wie wir sie heute kennen, gebaut werden. “Das Hauptziel des Projekts ist es, ein System von Programmen zu konstruieren, das ein Videosektorbild in Regionen wie wahrscheinliche Objekte, wahrscheinliche Hintergrundbereiche und Chaos unterteilt”, hieß es in der Projektbeschreibung.
Nun, es hat viel länger gedauert. Moderne Software kann eine große Anzahl von Alltagsgegenständen, menschlichen Gesichtern, gedrucktem und handgeschriebenem Text in Bildern und anderen Objekten erkennen (siehe unseren Artikel über Bilderkennungs-APIs). Aber die Arbeit geht weiter, und wir werden weiterhin erleben, wie immer mehr Unternehmen und Organisationen Bilderkennung und andere Computer-Vision-Aufgaben einsetzen, um sich von der Konkurrenz abzuheben und ihre Abläufe zu optimieren.