No solo se mide el conocimiento de la marca. Las empresas están utilizando la detección de logos para calcular el ROI del patrocinio de eventos deportivos o para definir si su logo fue mal utilizado.
Análisis de imágenes médicas
El software impulsado por modelos de aprendizaje profundo ayuda a los radiólogos a lidiar con la enorme carga de trabajo que supone la interpretación de diversas imágenes médicas: tomografías computarizadas (TC) y ecografías, resonancias magnéticas (RM) o radiografías. IBM destaca que un radiólogo de urgencias debe examinar hasta 200 casos cada día. Además, algunos estudios médicos contienen hasta 3.000 imágenes. No es de extrañar que las imágenes médicas representen casi el 90 por ciento de todos los datos médicos.
Las herramientas radiológicas basadas en la IA no sustituyen a los médicos, sino que apoyan su toma de decisiones. Señalan las anomalías agudas, identifican a los pacientes de alto riesgo o a los que necesitan tratamiento urgente para que los radiólogos puedan priorizar sus listas de trabajo.
La división de investigación de IBM en Haifa, Israel, está trabajando en el Asistente de Radiología Cognitiva para el análisis de imágenes médicas. El sistema analiza las imágenes médicas y luego combina esta visión con la información de los registros médicos del paciente, y presenta los hallazgos que los radiólogos pueden tener en cuenta a la hora de planificar el tratamiento.
Demo de la herramienta de detección de cáncer de mama Eyes of Watson de IBM, que utiliza visión por ordenador y ML. Fuente: IBM Research
Científicos de esta división también desarrollaron una red neuronal profunda especializada para marcar tejido mamario anormal y potencialmente canceroso.
Aidoc ofrece otra solución que utiliza el aprendizaje profundo para escanear imágenes médicas (tomografías en particular) y priorizar las listas de pacientes. La solución recibió las autorizaciones de la Administración de Alimentos y Medicamentos de los Estados Unidos (FDA), de Productos Terapéuticos de Australia (TGA) y las marcas CE de la Unión Europea para marcar tres afecciones potencialmente mortales: embolia pulmonar, fractura de columna cervical y hemorragia intracraneal.
Los clientes de la empresa son el UMass Memorial Medical Center de Worcester (Massachusetts), el Montefiore Nyack Hospital del condado de Rockland (Nueva York) y el centro de diagnóstico por imagen Global Diagnostics Australia.
Aplicaciones para reconocer obras de arte
Magnus es una aplicación de reconocimiento de imágenes que guía a los amantes y coleccionistas de arte “por la jungla del arte”. Una vez que el usuario toma una foto de una obra de arte, la aplicación proporciona detalles como el autor, el título, el año de creación, las dimensiones, el material y, lo más importante, el precio actual e histórico. La aplicación también tiene un mapa con galerías, museos y subastas, así como obras de arte expuestas actualmente.
Magnus obtiene la información de una base de datos con más de 10 millones de imágenes de obras de arte; la información sobre las piezas y los precios se obtiene de forma colaborativa. Dato interesante: Leonardo DiCaprio invirtió en la aplicación, según dice Magnus en su página de la Apple Store.
Los aficionados a los museos pueden satisfacer su hambre de conocimiento con aplicaciones como Smartify. Smartify es una guía de museos que se puede utilizar en decenas de lugares de arte conocidos en todo el mundo, como el Museo Metropolitano de Arte de Nueva York, la Smithsonian National Portrait Gallery de Washington DC, el Louvre de París, el Rijksmuseum de Ámsterdam, la Real Academia de las Artes de Londres y el Museo Estatal del Hermitage de San Petersburgo, entre otros.
Cómo funciona Smartify. Fuente: Smartify
Para revelar detalles sobre una obra de arte, la app coteja las obras escaneadas con las imágenes digitales de una base de datos, que contenía casi 50.000 obras de arte en 2017. La cofundadora de Smartify, Anna Lowe, explica cómo funciona la aplicación: “Escaneamos obras de arte utilizando fotos o imágenes digitales y luego creamos huellas digitales de la obra, lo que significa que se reduce a un conjunto de puntos y líneas digitales”.”
Reconocimiento facial para mejorar la experiencia en los aeropuertos
El reconocimiento facial se está convirtiendo en algo habitual entre las aerolíneas que lo utilizan para mejorar el embarque y la facturación. Estas mejoras tienen dos direcciones principales: seguir las tendencias del autoservicio y de esta tecnología biométrica y hacer que la experiencia en el aeropuerto sea más segura y rápida. Cuanto menos pasos tengan que dar tanto los pasajeros como el personal para proceder a las rutinas previas al vuelo, mejor.
Los equipos de embarque escanean los rostros de los viajeros y los cotejan con las fotos almacenadas en las bases de datos de las agencias de control fronterizo (es decir, el Servicio de Aduanas y Protección de Fronteras de Estados Unidos) para verificar su identidad y los datos del vuelo. Pueden ser fotos de carnés de identidad, visados u otros documentos.
American Airlines, por ejemplo, ha empezado a utilizar el reconocimiento facial en las puertas de embarque de la Terminal D del Aeropuerto Internacional de Dallas/Fort Worth (Texas). En lugar de utilizar las tarjetas de embarque, se escanea el rostro de los viajeros. Lo único que no ha cambiado es que hay que seguir teniendo un pasaporte y un billete para pasar el control de seguridad. El embarque biométrico funciona por decisión propia.
El embarque biométrico para los pasajeros de American Airlines. Fuente: The Dallas Morning News
En 2018, American estuvo probando la biometría durante 90 días en la Terminal 4 del Aeropuerto Internacional de Los Ángeles con la idea de ampliar el uso de la tecnología si la prueba va bien.
Numerosas aerolíneas implementan también el reconocimiento facial como opción extra de embarque: JetBlue, British Airways, AirAsia, Lufthansa o Delta. Esta última instaló un autoservicio de entrega de bolsas en el aeropuerto internacional de Minneapolis-St. Paul en 2017.
Búsqueda visual de productos
Las fronteras entre las compras online y offline han desaparecido desde que la búsqueda visual entró en el juego. Por ejemplo, la aplicación Urban Outfitters cuenta con la función Scan + Shop, gracias a la cual los consumidores pueden escanear un artículo que encuentren en una tienda física o impreso en una revista, obtener su descripción detallada y pedirlo al instante. La búsqueda visual también mejora la experiencia de compra en línea.
Las aplicaciones con esta capacidad funcionan con redes neuronales. Las redes neuronales procesan las imágenes subidas por los usuarios y generan descripciones de imágenes (etiquetas), por ejemplo, tipo de prenda, tejido, estilo, color. Las descripciones de las imágenes se comparan con los artículos en stock junto con sus correspondientes etiquetas. Los resultados de la búsqueda se presentan en función de una puntuación de similitud.
Dedicamos una sección a la búsqueda visual en el artículo sobre cómo los minoristas utilizan la IA. Allí también puedes leer cómo las tecnologías de reconocimiento facial y de imágenes han hecho realidad las tiendas sin cajero como Amazon Go y también cómo potencian los sistemas de vigilancia o permiten la personalización en las tiendas.
El trabajo continúa
En la segunda parte del siglo XX, los investigadores estimaron que se necesitaría una cantidad de tiempo relativamente corta para resolver un problema de visión por ordenador, entre otras cosas. En 1966, el matemático y ex codirector del Laboratorio de Inteligencia Artificial del MIT & Seymour Papert coordinaba el Proyecto de Visión de Verano. Los investigadores tenían un ambicioso plan: construir una parte importante de un sistema con capacidades de visión por ordenador, tal y como las conocemos hoy, durante un verano. “El objetivo principal del proyecto es construir un sistema de programas que dividan una imagen vidisectorial en regiones como objetos probables, áreas de fondo probables y caos”, decía la descripción del proyecto.
Bueno, se tardó mucho más. El software moderno puede reconocer un gran número de objetos cotidianos, rostros humanos, texto impreso y escrito a mano en imágenes, y otras entidades (echa un vistazo a nuestro artículo sobre las API de reconocimiento de imágenes). Pero el trabajo continúa, y seguiremos siendo testigos de cómo cada vez más empresas y organizaciones implementan el reconocimiento de imágenes y otras tareas de visión por ordenador para diferenciarse de la competencia y optimizar las operaciones.