Não se trata apenas de medir o conhecimento da marca. As empresas estão usando a detecção de logotipos para calcular o ROI do patrocínio de eventos esportivos ou para definir se seu logotipo foi mal usado.
Análise de imagens médicas
Software alimentado por modelos de aprendizagem profunda ajuda os radiologistas a lidar com uma enorme carga de trabalho de interpretação de várias imagens médicas: tomografia computadorizada (TC) e exames de ultra-som, ressonância magnética (RM), ou raios-X. A IBM enfatiza que um radiologista de emergência deve examinar até 200 casos por dia. Além disso, alguns estudos médicos contêm até 3.000 imagens. Não é de admirar que as imagens médicas representem quase 90% de todos os dados médicos.
As ferramentas de radiologia baseadas em IA não substituem os clínicos, mas apoiam a sua tomada de decisão. Elas assinalam anomalias agudas, identificam pacientes de alto risco ou aqueles que precisam de tratamento urgente para que os radiologistas possam priorizar suas listas de trabalho.
AI Divisão de Pesquisa em Haifa, Israel, está trabalhando no Cognitive Radiology Assistant (Assistente de Radiologia Cognitiva) para análise de imagens médicas. O sistema analisa imagens médicas e depois combina este insight com informações dos registros médicos do paciente e apresenta resultados que os radiologistas podem levar em consideração ao planejar o tratamento.
Demo para a ferramenta de detecção do câncer de mama Eyes of Watson da IBM que usa visão computadorizada e ML. Fonte: Eyes of Watson: IBM Research
Cientistas desta divisão também desenvolveram uma rede neural profunda especializada para sinalizar tecido mamário anormal e potencialmente canceroso.
Aidoc fornece outra solução que utiliza o aprendizado profundo para escanear imagens médicas (principalmente tomografias computadorizadas) e priorizar listas de pacientes. A solução recebeu autorizações da US Food and Drug Administration (FDA), Therapeutic Goods of Australia (TGA), e da União Européia, para assinalar três condições de risco de vida: embolia pulmonar, fratura da coluna cervical, e hemorragia intracraniana.
Os clientes da empresa incluem UMass Memorial Medical Center em Worcester, Massachusetts, Montefiore Nyack Hospital no Rockland County, NY, e Global Diagnostics Australia, um centro de imagens.
Aplicações para reconhecimento de obras de arte
Magnus é um aplicativo de reconhecimento de imagens que guia os amantes e colecionadores de arte “através da selva da arte”. Uma vez que um usuário tira uma foto de uma obra de arte, o aplicativo fornece detalhes como autor, título, ano de criação, dimensões, material e, o mais importante, preço atual e histórico. O aplicativo também tem um mapa com galerias, museus e leilões, bem como obras de arte atualmente exibidas.
Magnus fontes de informação de um banco de dados com mais de 10 milhões de imagens de obras de arte; informação sobre peças e preços é fonte de crowdsourced. Fato interessante: Leonardo DiCaprio investiu no aplicativo, diz Magnus em sua página da Apple Store.
Museumgoers podem satisfazer sua fome de conhecimento com aplicativos como Smartify. Smartify é um guia de museu que você pode usar em dezenas de pontos conhecidos da arte mundial como o Metropolitan Museum of Art em Nova York, Smithsonian National Portrait Gallery em Washington DC, o Louvre em Paris, Rijksmuseum de Amsterdã, a Royal Academy of Arts em Londres, The State Hermitage Museum em São Petersburgo, e outros.
Como Smartify funciona. Fonte: Smartify
Para revelar detalhes sobre uma obra de arte, o aplicativo compara obras de arte digitalizadas com imagens digitais em um banco de dados, que continha quase 50.000 peças de arte a partir de 2017. A co-fundadora do Smartify, Anna Lowe, explica como a aplicação funciona desta forma: “Nós digitalizamos obras de arte usando fotos ou imagens digitais e depois criamos impressões digitais da obra de arte, o que significa que ela é reduzida a um conjunto de pontos e linhas digitais”
Reconhecimento facial para melhorar a experiência no aeroporto
Reconhecimento facial está se tornando mainstream entre as companhias aéreas que o usam para melhorar o embarque e check-in. Há duas direções principais desses upgrades: seguir as tendências de auto-atendimento e essa tecnologia biométrica e tornar a experiência aeroportuária mais segura e rápida. Quanto menos passos tanto os passageiros como o pessoal tiverem que dar para prosseguir com as rotinas de pré-voo, melhor.
Equipamento de bordo escaneia os rostos dos passageiros e os combina com fotos armazenadas em bancos de dados de agências de controle de fronteiras (ou seja, Alfândega e Proteção de Fronteiras dos EUA) para verificar sua identidade e dados de vôo. Estas podem ser fotos de identidades, vistos ou outros documentos.
American Airlines, por exemplo, começou a usar o reconhecimento facial nos portões de embarque do Terminal D no Aeroporto Internacional Dallas/Fort Worth, Texas. Ao invés de usar os cartões de embarque, os viajantes são escaneados. A única coisa que não mudou é que ainda é preciso ter um passaporte e um bilhete para passar por um controle de segurança. O embarque biométrico funciona em regime de opt-in.
Biometric boarding for American Airlines passengers. Fonte: The Dallas Morning News
Em 2018, a American estava testando a biometria durante 90 dias no Terminal 4 do Aeroporto Internacional de Los Angeles com a idéia de expandir o uso da tecnologia se o teste correr bem.
Numeras companhias aéreas implementam o reconhecimento facial como opção de embarque extra também: JetBlue, British Airways, AirAsia, Lufthansa, ou Delta. A última instalou uma queda de saco de auto-atendimento no Aeroporto Internacional de Minneapolis-St. Paul em 2017.
Procura de produto visual
As fronteiras entre compras online e offline desapareceram desde que a busca visual entrou no jogo. Por exemplo, o aplicativo Urban Outfitters tem um recurso Scan + Shop, graças ao qual os consumidores podem digitalizar um item que encontram em uma loja física ou impresso em uma revista, obter sua descrição detalhada, e imediatamente encomendá-lo. A pesquisa visual também melhora a experiência de compra online.
Aplicações com este recurso são alimentadas por redes neurais. NNs processam imagens carregadas pelos usuários e geram descrições de imagens (tags), por exemplo, tipo de roupa, tecido, estilo, cor. As descrições das imagens são comparadas com os itens em estoque, juntamente com suas respectivas tags. Os resultados da pesquisa são apresentados com base em uma pontuação de similaridade.
Dedicamos uma seção sobre pesquisa visual no artigo sobre como os varejistas usam a IA. Lá você também pode ler sobre como as tecnologias de reconhecimento facial e de imagem transformaram lojas sem caixa como a Amazon Go em uma realidade e também como elas alimentam sistemas de vigilância ou permitem a personalização na loja.
O trabalho continua
Na segunda metade do século 20, os pesquisadores estimaram que levaria um tempo relativamente curto para resolver um problema de visão computacional, entre outras coisas. Em 1966, o matemático, e antigo co-diretor do MIT Computer Science & AI Lab Seymour Papert estava coordenando o Projeto Visão de Verão. Os pesquisadores tinham um plano ambicioso: construir uma parte significativa de um sistema com capacidade de visão computacional, como os conhecemos hoje, durante um verão. “O objetivo principal do projeto é construir um sistema de programas que dividirá uma imagem vidisetorial em regiões como objetos prováveis, áreas prováveis de fundo e caos”, disse a descrição do projeto.
Bem, demorou muito mais tempo. Os softwares modernos podem reconhecer um grande número de objetos cotidianos, rostos humanos, texto impresso e manuscrito em imagens e outras entidades (veja nosso artigo sobre APIs de reconhecimento de imagens.) Mas o trabalho continua, e continuaremos testemunhando como cada vez mais empresas e organizações implementam o reconhecimento de imagens e outras tarefas de visão computacional para se destacar da concorrência e otimizar as operações.