Beeldherkenning met diepe neurale netwerken en de gebruikssituaties

Het is niet alleen het meten van merkbekendheid. Bedrijven gebruiken logodetectie om de ROI van het sponsoren van sportevenementen te berekenen of om te bepalen of hun logo is misbruikt.

Medische beeldanalyse

Software aangedreven door deep learning-modellen helpt radiologen om te gaan met de enorme werklast van het interpreteren van verschillende medische beelden: computertomografie (CT) en echografie scans, magnetische resonantie beeldvorming (MRI), of röntgenfoto’s. IBM benadrukt dat een radioloog op de spoedeisende hulp wel 200 gevallen per dag moet onderzoeken. Bovendien bevatten sommige medische onderzoeken tot 3.000 beelden. Geen wonder dat medische beelden bijna 90 procent van alle medische gegevens uitmaken.

Op AI gebaseerde radiologiehulpmiddelen vervangen clinici niet, maar ondersteunen hun besluitvorming. Ze markeren acute afwijkingen, identificeren patiënten met een hoog risico of patiënten die een dringende behandeling nodig hebben, zodat radiologen hun werklijsten kunnen prioriteren.

IBM Research division in Haifa, Israël, werkt aan Cognitive Radiology Assistant voor medische beeldanalyse. Het systeem analyseert medische beelden en combineert dit inzicht vervolgens met informatie uit het medisch dossier van de patiënt, en presenteert bevindingen waarmee radiologen rekening kunnen houden bij het plannen van een behandeling.

Demo voor IBM’s Eyes of Watson-tool voor borstkankerdetectie die gebruikmaakt van computervisie en ML. Bron: IBM Research

Wetenschappers van deze divisie ontwikkelden ook een gespecialiseerd diep neuraal netwerk om abnormaal en mogelijk kankerachtig borstweefsel te markeren.

Aidoc biedt een andere oplossing die deep learning gebruikt voor het scannen van medische beelden (CT-scans in het bijzonder) en het prioriteren van patiëntenlijsten. De oplossing heeft goedkeuringen ontvangen van de Amerikaanse Food and Drug Administration (FDA), Therapeutic Goods of Australia (TGA) en CE-markeringen van de Europese Unie voor het markeren van drie levensbedreigende aandoeningen: longembolie, nekwervelfractuur en intracraniële bloeding.

De klanten van het bedrijf zijn onder meer UMass Memorial Medical Center in Worcester, Massachusetts, Montefiore Nyack Hospital in Rockland County, NY, en Global Diagnostics Australia, een beeldvormingscentrum.

Apps voor het herkennen van kunstwerken

Magnus is een app op basis van beeldherkenning die kunstliefhebbers en -verzamelaars “door de kunstjungle” leidt. Zodra een gebruiker een foto maakt van een kunstwerk, geeft de app details als auteur, titel, jaar van creatie, afmetingen, materiaal, en, het belangrijkste, huidige en historische prijs. De app heeft ook een kaart met galeries, musea en veilingen, evenals de huidige tentoongestelde kunstwerken.

Magnus bronnen informatie uit een database van meer dan 10 miljoen afbeeldingen van kunstwerken; informatie over stukken en prijzen is crowdsourced. Interessant feit: Leonardo DiCaprio investeerde in de app, zegt Magnus op zijn Apple Store-pagina.

Museumbezoekers kunnen hun honger naar kennis stillen met apps zoals Smartify. Smartify is een museumgids die je kunt gebruiken in tientallen van ‘s werelds bekende kunstplekken zoals The Metropolitan Museum of Art in New York, Smithsonian National Portrait Gallery in Washington DC, het Louvre in Parijs, Amsterdams Rijksmuseum, de Royal Academy of Arts in Londen, The State Hermitage Museum in Sint-Petersburg, en anderen.

Hoe Smartify werkt. Bron: Smartify

Om details over een kunstwerk te onthullen, vergelijkt de app gescande kunstwerken met digitale afbeeldingen in een database, die in 2017 bijna 50.000 kunstwerken bevatte. Smartify mede-oprichter Anna Lowe legt uit hoe de app op deze manier werkt: “We scannen kunstwerken met behulp van foto’s of digitale afbeeldingen en creëren vervolgens digitale vingerafdrukken van het kunstwerk, wat betekent dat het wordt gereduceerd tot een reeks digitale stippen en lijnen.”

Gezichtsherkenning om luchthavenervaring te verbeteren

Gezichtsherkenning wordt mainstream onder luchtvaartmaatschappijen die het gebruiken om instappen en inchecken te verbeteren. Er zijn twee hoofdrichtingen van deze upgrades: de trends voor zelfbediening en deze biometrische technologie volgen en de luchthavenervaring veiliger en sneller maken. Hoe minder stappen zowel passagiers als personeel moeten nemen om door te gaan met routines vóór de vlucht, hoe beter.

Boardingapparatuur scant het gezicht van reizigers en matcht deze met foto’s die zijn opgeslagen in databases van grenscontrole-instanties (d.w.z. U.S. Customs and Border Protection) om hun identiteit en vluchtgegevens te verifiëren. Dit kunnen foto’s zijn van ID’s, visa, of andere documenten.

American Airlines, bijvoorbeeld, is begonnen met het gebruik van gezichtsherkenning bij de boarding gates van Terminal D op Dallas/Fort Worth International Airport, Texas. In plaats van instapkaarten te gebruiken, wordt het gezicht van de reiziger gescand. Het enige dat niet is veranderd, is dat men nog steeds een paspoort en een ticket moet hebben om door de veiligheidscontrole te gaan. Biometrisch instappen werkt op een opt-in basis.

Biometrisch instappen voor passagiers van American Airlines. Bron: The Dallas Morning News

In 2018 testte American gedurende 90 dagen biometrie in Terminal 4 van Los Angeles International Airport met het idee om het gebruik van de technologie uit te breiden als de proef goed verloopt.

Numerieke luchtvaartmaatschappijen implementeren gezichtsherkenning ook als een extra instapoptie: JetBlue, British Airways, AirAsia, Lufthansa, of Delta. De laatste installeerde in 2017 een selfservice bag drop op de Minneapolis-St. Paul International Airport.

Visual product search

Grenzen tussen online en offline winkelen zijn verdwenen sinds visual search zijn intrede deed. De Urban Outfitters-app heeft bijvoorbeeld een Scan + Shop-functie, dankzij welke consumenten een item dat ze in een fysieke winkel of afgedrukt in een tijdschrift vinden, kunnen scannen, de gedetailleerde beschrijving ervan krijgen, en het onmiddellijk kunnen bestellen. Visueel zoeken verbetert ook de online winkelervaring.

Apps met deze mogelijkheid worden aangedreven door neurale netwerken. NN’s verwerken afbeeldingen die door gebruikers zijn geüpload en genereren beeldbeschrijvingen (tags), bijvoorbeeld kledingstuktype, stof, stijl, kleur. De beeldbeschrijvingen worden vergeleken met artikelen in voorraad met de bijbehorende tags. De zoekresultaten worden gepresenteerd op basis van een similariteitsscore.

We hebben een sectie gewijd aan visueel zoeken in het artikel over hoe retailers AI gebruiken. Daar kunt u ook lezen hoe beeld- en gezichtsherkenningstechnologieën kassaloze winkels zoals Amazon Go tot realiteit hebben gemaakt en ook hoe ze bewakingssystemen aandrijven of in-store personalisatie mogelijk maken.

Het werk gaat door

In het tweede deel van de 20e eeuw schatten onderzoekers in dat het relatief weinig tijd zou kosten om onder andere een computervisieprobleem op te lossen. In 1966 coördineerde wiskundige en voormalig co-directeur van het MIT Computer Science & AI Lab Seymour Papert het Summer Vision Project. De onderzoekers hadden een ambitieus plan: in één zomer een belangrijk deel van een systeem bouwen met computervisiemogelijkheden, zoals we die vandaag de dag kennen. “Het primaire doel van het project is het construeren van een systeem van programma’s die een vidisectorbeeld zullen verdelen in regio’s zoals waarschijnlijke objecten, waarschijnlijke achtergrondgebieden, en chaos,” aldus de projectbeschrijving.

Wel, het duurde veel langer. Moderne software kan een groot aantal alledaagse objecten, menselijke gezichten, gedrukte en handgeschreven tekst in afbeeldingen en andere entiteiten herkennen (bekijk ons artikel over beeldherkenning-API’s.) Maar het werk gaat door, en we zullen blijven zien hoe meer en meer bedrijven en organisaties beeldherkenning en andere computervisietaken implementeren om zich te onderscheiden van concurrenten en operaties te optimaliseren.

Geef een antwoord

Het e-mailadres wordt niet gepubliceerd.