To nie tylko pomiar świadomości marki. Firmy wykorzystują wykrywanie logo do obliczania zwrotu z inwestycji w sponsoring wydarzeń sportowych lub do określenia, czy ich logo zostało niewłaściwie użyte.
Analiza obrazów medycznych
Oprogramowanie oparte na modelach głębokiego uczenia pomaga radiologom radzić sobie z ogromnym nakładem pracy związanym z interpretacją różnych obrazów medycznych: tomografii komputerowej (CT) i skanów ultradźwiękowych, rezonansu magnetycznego (MRI) lub zdjęć rentgenowskich. IBM podkreśla, że radiolog z izby przyjęć musi każdego dnia przeanalizować nawet 200 przypadków. Poza tym niektóre badania medyczne zawierają nawet do 3 tys. obrazów. Nic dziwnego, że obrazy medyczne stanowią prawie 90 proc. wszystkich danych medycznych.
Narzędzia radiologiczne oparte naAI nie zastępują klinicystów, ale wspierają ich w podejmowaniu decyzji. Oznaczają ostre nieprawidłowości, identyfikują pacjentów wysokiego ryzyka lub wymagających pilnego leczenia, dzięki czemu radiolodzy mogą nadawać priorytety swoim listom zadań.
OddziałIBM Research w Hajfie, w Izraelu, pracuje nad Cognitive Radiology Assistant do analizy obrazów medycznych. System analizuje obrazy medyczne, a następnie łączy ten wgląd z informacjami z dokumentacji medycznej pacjenta i przedstawia wnioski, które radiolodzy mogą wziąć pod uwagę przy planowaniu leczenia.
Demo dla narzędzia IBM Eyes of Watson do wykrywania raka piersi, które wykorzystuje widzenie komputerowe i ML. Źródło: IBM Research
Naukowcy z tego oddziału opracowali również wyspecjalizowaną głęboką sieć neuronową do flagowania nieprawidłowej i potencjalnie rakowej tkanki piersi.
Aidoc dostarcza kolejne rozwiązanie, które wykorzystuje głębokie uczenie do skanowania obrazów medycznych (w szczególności tomografii komputerowej) i nadawania priorytetów listom pacjentów. Żywności i Leków (FDA), Therapeutic Goods of Australia (TGA) oraz oznaczeń CE Unii Europejskiej do oznaczania trzech stanów zagrażających życiu: zatorowości płucnej, złamania kręgosłupa szyjnego i krwotoku wewnątrzczaszkowego.
Klienci firmy to UMass Memorial Medical Center w Worcester, Massachusetts, Montefiore Nyack Hospital w Rockland County, NY, oraz Global Diagnostics Australia, centrum obrazowania.
Apps do rozpoznawania dzieł sztuki
Magnus to napędzana rozpoznawaniem obrazów aplikacja, która prowadzi miłośników sztuki i kolekcjonerów “przez dżunglę sztuki”. Gdy użytkownik zrobi zdjęcie dzieła sztuki, aplikacja podaje takie szczegóły jak autor, tytuł, rok powstania, wymiary, materiał oraz, co najważniejsze, aktualną i historyczną cenę. Aplikacja posiada również mapę z galeriami, muzeami i aukcjami, a także aktualnie prezentowanymi dziełami sztuki.
Magnus czerpie informacje z bazy danych ponad 10 milionów obrazów dzieł sztuki; informacje o dziełach i cenach są pozyskiwane przez tłumy. Ciekawostka: Leonardo DiCaprio zainwestował w aplikację, jak podaje Magnus na swojej stronie w Apple Store.
Muzealnicy mogą zaspokoić swój głód wiedzy dzięki aplikacjom takim jak Smartify. Smartify to przewodnik po muzeach, z którego można korzystać w dziesiątkach znanych na całym świecie miejsc związanych ze sztuką, takich jak The Metropolitan Museum of Art w Nowym Jorku, Smithsonian National Portrait Gallery w Waszyngtonie, Luwr w Paryżu, Rijksmuseum w Amsterdamie, Royal Academy of Arts w Londynie, The State Hermitage Museum w Sankt Petersburgu i innych.
Jak działa Smartify. Źródło: Smartify
Aby ujawnić szczegóły na temat dzieła sztuki, aplikacja dopasowuje zeskanowane dzieła sztuki do cyfrowych obrazów w bazie danych, która zawierała prawie 50 000 dzieł sztuki w 2017 roku. Współzałożycielka Smartify Anna Lowe wyjaśnia, jak działa aplikacja w ten sposób: “Skanujemy dzieła sztuki za pomocą zdjęć lub obrazów cyfrowych, a następnie tworzymy cyfrowe odciski palców dzieła sztuki, co oznacza, że jest ono zredukowane do zestawu cyfrowych kropek i linii.”
Rozpoznawanie twarzy w celu poprawy doświadczenia na lotnisku
Rozpoznawanie twarzy staje się głównym nurtem wśród linii lotniczych, które wykorzystują je do usprawnienia wejścia na pokład i odprawy. Istnieją dwa główne kierunki tych ulepszeń: podążanie za trendami w zakresie samoobsługi i technologii biometrycznej oraz zwiększenie bezpieczeństwa i szybkości obsługi na lotnisku. Im mniej kroków muszą wykonać zarówno pasażerowie, jak i personel, aby przystąpić do rutynowych czynności przed lotem, tym lepiej.
Urządzenia pokładowe skanują twarze podróżnych i dopasowują je do zdjęć przechowywanych w bazach danych agencji kontroli granicznej (tj. U.S. Customs and Border Protection) w celu weryfikacji ich tożsamości i danych lotu. Mogą to być zdjęcia z dowodów osobistych, wiz lub innych dokumentów.
American Airlines, na przykład, zaczął używać rozpoznawania twarzy w bramkach pokładowych Terminalu D w Dallas/Fort Worth International Airport, Texas. Zamiast używać kart pokładowych, podróżni otrzymują skan twarzy. Jedyną rzeczą, która się nie zmieniła jest to, że nadal trzeba mieć paszport i bilet, aby przejść przez kontrolę bezpieczeństwa. Biometryczny boarding działa na zasadzie opt-in.
Biometryczny boarding dla pasażerów American Airlines. Źródło: The Dallas Morning News
W 2018 roku American testował biometrię przez 90 dni w terminalu 4 na międzynarodowym lotnisku w Los Angeles z pomysłem rozszerzenia wykorzystania technologii, jeśli próba pójdzie dobrze.
Numeryczne linie lotnicze wdrażają rozpoznawanie twarzy jako dodatkową opcję wejścia na pokład, jak również: JetBlue, British Airways, AirAsia, Lufthansa czy Delta. Ostatnia z nich zainstalowała samoobsługowy zrzut toreb na międzynarodowym lotnisku Minneapolis-St. Paul w 2017 r.
Wizualne wyszukiwanie produktów
Granice między zakupami online i offline zniknęły, odkąd wyszukiwanie wizualne weszło do gry. Na przykład aplikacja Urban Outfitters ma funkcję Scan + Shop, dzięki której konsumenci mogą zeskanować przedmiot znaleziony w sklepie fizycznym lub wydrukowany w magazynie, uzyskać jego szczegółowy opis i natychmiast go zamówić. Wyszukiwanie wizualne również zwiększa doświadczenie zakupów online.
Aplikacje z tą możliwością są zasilane przez sieci neuronowe. NN przetwarzają obrazy przesłane przez użytkowników i generują opisy obrazów (tagi), na przykład typ odzieży, tkanina, styl, kolor. Opisy obrazów są dopasowywane do pozycji w magazynie wraz z odpowiadającymi im tagami. Wyniki wyszukiwania są prezentowane w oparciu o wynik podobieństwa.
Sekcji poświęconej wyszukiwaniu wizualnemu poświęciliśmy artykuł o tym, jak sprzedawcy korzystają z AI. Można tam również przeczytać o tym, jak technologie rozpoznawania obrazu i twarzy sprawiły, że sklepy bez kas, takie jak Amazon Go, stały się rzeczywistością, a także jak zasilają systemy nadzoru lub umożliwiają personalizację w sklepie.
Praca trwa
W drugiej połowie XX wieku naukowcy szacowali, że rozwiązanie problemu widzenia komputerowego zajmie stosunkowo niewiele czasu. W 1966 roku matematyk i były współdyrektor MIT Computer Science & AI Lab Seymour Papert koordynował Summer Vision Project. Badacze mieli ambitny plan: w ciągu jednego lata zbudować znaczną część systemu o możliwościach widzenia komputerowego, jakie znamy dzisiaj. “Podstawowym celem projektu jest skonstruowanie systemu programów, które podzielą obraz z wideosektora na regiony takie jak prawdopodobne obiekty, prawdopodobne obszary tła i chaos” – brzmiał opis projektu.
Cóż, trwało to znacznie dłużej. Współczesne oprogramowanie potrafi rozpoznawać wiele przedmiotów codziennego użytku, ludzkie twarze, tekst drukowany i pisany odręcznie na obrazach oraz inne jednostki (sprawdź nasz artykuł o interfejsach API do rozpoznawania obrazów). Ale praca trwa nadal i będziemy obserwować, jak coraz więcej firm i organizacji wdraża rozpoznawanie obrazów i inne zadania związane z widzeniem komputerowym, aby wyróżnić się na tle konkurencji i zoptymalizować działania.