Riconoscimento di immagini con reti neurali profonde e i suoi casi d’uso

Non è solo misurare la consapevolezza del marchio. Le aziende stanno usando il rilevamento del logo per calcolare il ROI dalla sponsorizzazione di eventi sportivi o per definire se il loro logo è stato usato in modo improprio.

Analisi delle immagini mediche

Il software alimentato da modelli di deep learning aiuta i radiologi ad affrontare un enorme carico di lavoro nell’interpretazione di varie immagini mediche: tomografia computerizzata (CT) e scansioni ad ultrasuoni, risonanza magnetica (MRI), o raggi X. IBM sottolinea che un radiologo del pronto soccorso deve esaminare fino a 200 casi ogni giorno. Inoltre, alcuni studi medici contengono fino a 3.000 immagini. Non c’è da stupirsi che le immagini mediche rappresentino quasi il 90% di tutti i dati medici.

Gli strumenti di radiologia basati su AI non sostituiscono i medici, ma supportano il loro processo decisionale. Segnalano le anomalie acute, identificano i pazienti ad alto rischio o quelli che hanno bisogno di un trattamento urgente in modo che i radiologi possano dare priorità alle loro liste di lavoro.

La divisione di ricerca IBM di Haifa, Israele, sta lavorando su Cognitive Radiology Assistant per l’analisi delle immagini mediche. Il sistema analizza le immagini mediche e poi combina questa intuizione con le informazioni dalla cartella clinica del paziente, e presenta i risultati che i radiologi possono prendere in considerazione durante la pianificazione del trattamento.

Demo per gli occhi di IBM di Watson strumento di rilevamento del cancro al seno che utilizza la visione artificiale e ML. Fonte: IBM Research

Gli scienziati di questa divisione hanno anche sviluppato una rete neurale profonda specializzata per segnalare il tessuto mammario anormale e potenzialmente canceroso.

Aidoc fornisce un’altra soluzione che utilizza l’apprendimento profondo per la scansione di immagini mediche (TAC in particolare) e la priorità delle liste di pazienti. La soluzione ha ricevuto le autorizzazioni dalla US Food and Drug Administration (FDA), Therapeutic Goods of Australia (TGA), e i marchi CE dell’Unione Europea per segnalare tre condizioni di pericolo di vita: embolia polmonare, frattura cervico-spinale ed emorragia intracranica.

I clienti dell’azienda includono UMass Memorial Medical Center a Worcester, Massachusetts, Montefiore Nyack Hospital a Rockland County, NY, e Global Diagnostics Australia, un centro di imaging.

App per riconoscere le opere d’arte

Magnus è un’app basata sul riconoscimento delle immagini che guida gli amanti e i collezionisti d’arte “attraverso la giungla dell’arte”. Una volta che un utente scatta una foto di un’opera d’arte, l’app fornisce dettagli come autore, titolo, anno di creazione, dimensioni, materiale e, soprattutto, prezzo attuale e storico. L’applicazione ha anche una mappa con gallerie, musei e aste, così come le opere d’arte attualmente in mostra.

Magnus ricava informazioni da un database di oltre 10 milioni di immagini di opere d’arte; le informazioni sui pezzi e i prezzi sono crowdsourced. Fatto interessante: Leonardo DiCaprio ha investito nell’app, dice Magnus sulla sua pagina Apple Store.

I frequentatori di musei possono soddisfare la loro fame di conoscenza con app come Smartify. Smartify è una guida museale che si può usare in decine di luoghi d’arte famosi nel mondo come il Metropolitan Museum of Art di New York, la Smithsonian National Portrait Gallery di Washington DC, il Louvre di Parigi, il Rijksmuseum di Amsterdam, la Royal Academy of Arts di Londra, il Museo Statale Hermitage di San Pietroburgo, e altri.

Come funziona Smartify. Fonte: Smartify

Per rivelare i dettagli di un’opera d’arte, l’app abbina le opere d’arte scansionate con le immagini digitali in un database, che conteneva quasi 50.000 pezzi d’arte al 2017. La co-fondatrice di Smartify, Anna Lowe, spiega come funziona l’app in questo modo: “Scansioniamo le opere d’arte usando foto o immagini digitali e poi creiamo impronte digitali dell’opera d’arte, il che significa che è ridotta a un insieme di punti e linee digitali.”

Riconoscimento facciale per migliorare l’esperienza aeroportuale

Il riconoscimento facciale sta diventando mainstream tra le compagnie aeree che lo usano per migliorare l’imbarco e il check-in. Ci sono due direzioni principali di questi aggiornamenti: seguire le tendenze per il self-service e questa tecnologia biometrica e rendere l’esperienza aeroportuale più sicura e veloce. Meno passaggi devono fare sia i passeggeri che il personale per procedere con le routine pre-volo, meglio è.

L’attrezzatura d’imbarco scansiona i volti dei viaggiatori e li abbina alle foto memorizzate nei database delle agenzie di controllo delle frontiere (cioè, U.S. Customs and Border Protection) per verificare la loro identità e i dati di volo. Queste potrebbero essere foto di carte d’identità, visti o altri documenti.

American Airlines, per esempio, ha iniziato a usare il riconoscimento facciale ai cancelli d’imbarco del Terminal D dell’aeroporto internazionale Dallas/Fort Worth, Texas. Invece di usare le carte d’imbarco, i viaggiatori si fanno scansionare il viso. L’unica cosa che non è cambiata è che si deve ancora avere un passaporto e un biglietto per passare attraverso un controllo di sicurezza. L’imbarco biometrico funziona su base opt-in.

Imbarco biometrico per i passeggeri di American Airlines. Fonte: The Dallas Morning News

Nel 2018, American stava testando la biometria per 90 giorni al Terminal 4 dell’aeroporto internazionale di Los Angeles con l’idea di espandere l’uso della tecnologia se la prova va bene.

Numerose compagnie aeree implementano anche il riconoscimento facciale come opzione di imbarco extra: JetBlue, British Airways, AirAsia, Lufthansa o Delta. L’ultima ha installato nel 2017 un servizio self-service per la consegna dei bagagli all’aeroporto internazionale Minneapolis-St. Paul.

Ricerca visiva dei prodotti

I confini tra lo shopping online e offline sono scomparsi da quando la ricerca visiva è entrata in gioco. Per esempio, l’app Urban Outfitters ha una funzione Scan + Shop, grazie alla quale i consumatori possono scansionare un articolo che trovano in un negozio fisico o stampato in una rivista, ottenere la sua descrizione dettagliata e ordinarlo immediatamente. La ricerca visiva migliora anche l’esperienza di shopping online.

Le app con questa capacità sono alimentate da reti neurali. Le reti neurali elaborano le immagini caricate dagli utenti e generano descrizioni di immagini (tag), per esempio, tipo di indumento, tessuto, stile, colore. Le descrizioni delle immagini vengono confrontate con gli articoli in magazzino insieme ai loro tag corrispondenti. I risultati della ricerca sono presentati sulla base di un punteggio di somiglianza.

Abbiamo dedicato una sezione alla ricerca visiva nell’articolo su come i rivenditori usano l’AI. Lì puoi anche leggere come le tecnologie di riconoscimento facciale e delle immagini hanno trasformato i negozi senza cassiere come Amazon Go in una realtà e anche come alimentano i sistemi di sorveglianza o permettono la personalizzazione all’interno del negozio.

Il lavoro continua

Nella seconda parte del XX secolo, i ricercatori stimavano che ci sarebbe voluto un tempo relativamente breve per risolvere un problema di visione artificiale, tra le altre cose. Nel 1966, il matematico ed ex co-direttore del MIT Computer Science & AI Lab Seymour Papert stava coordinando il Summer Vision Project. I ricercatori avevano un piano ambizioso: costruire una parte significativa di un sistema con capacità di visione artificiale, come le conosciamo oggi, durante un’estate. “L’obiettivo primario del progetto è quello di costruire un sistema di programmi che divida un’immagine vidisettoriale in regioni come oggetti probabili, aree di sfondo probabili e caos”, diceva la descrizione del progetto.

Beh, ci è voluto molto più tempo. Il software moderno può riconoscere un gran numero di oggetti quotidiani, volti umani, testo stampato e scritto a mano nelle immagini, e altre entità (controlla il nostro articolo sulle API di riconoscimento delle immagini.) Ma il lavoro continua, e continueremo a vedere come sempre più aziende e organizzazioni implementano il riconoscimento delle immagini e altri compiti di visione artificiale per distinguersi dai concorrenti e ottimizzare le operazioni.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.