El economista ganador del Premio Nobel, Herbert Simon, describió famosamente la “pobreza en la atención” que acompaña a la superabundancia de la información. Este concepto se aplica, ciertamente, a la era actual de los Grandes Datos. En la medida en que nuestra capacidad para generar, almacenar y procesar bastas cantidad de datos se incrementa, también necesitamos nuevas técnicas para poder comprender y actuar a partir de los datos.
El campo de visualización de la información apunta a mejorar las capacidades de las personas para analizar y comunicar datos complejos de forma de justificar la toma de decisiones y permitir el descubrimiento científico. Las tecnologías y técnicas de visualización de información incluyen:
Codificación visual y métodos de interacción
Sistemas de software de visualización y lenguajes
Valuación experimental de la efectividad de la visualización, y
Modelos perceptuales informados para el diseño automatizado y su evaluación
En esta edición de Julio de 2017 de Computing Now presentamos cinco artículos recientes que tratan los avances en esta área, conduciendo a nuevas herramientas y modelos que le permiten a las personas una mejor comprensión de sus datos. Los videos relacionados examinan los desafíos de las herramientas para crear visualizaciones que le permiten a las personas explorar los datos, tomar decisiones y comunicar sus hallazgos.
Los Artículos
El análisis de redes puede incluir desafíos en términos de los conjuntos espaciales, los caminos a seguir, la identificación de constelaciones, y el descubrimiento de relaciones entre la estructura de grafos y los atributos multivariados de nodos y extremos. Las redes dinámicas que también cambian en el tiempo pueden fácilmente sobrecargar a los enfoques tradicionales de análisis. En la mejor ponencia del IEEE VAST de 2015, “Reduciendo las Instantáneas a Puntos: Un Enfoque de Analítica Visual a la Exploración Dinámica de Redes” Stef Van Den Elzen y sus colegas toman un enfoque de analítica visual que combina el análisis estadístico y la visualización con los sistemas de exploración interactiva. Los autores aplican técnicas de reducción dimensionales para crear una panorámica de la dinámica de la red, revelar la “trayectoria” de la red en el tiempo, incluyendo tanto la convergencia como la divergencia de la red. El sistema resultante permite la especificación de un método resumido y le permite a los usuarios “apreciar” a las redes con un grado creciente de detalle.
Los diagramas de Venn pueden parecer simples cuando muestran relaciones entre dos o tres conjuntos. Pero en la medida en que la cantidad de conjuntos se incrementa, los diagramas de Venn se transforman rápidamente inmanejables y difíciles de interpretar. Alexander Lex y sus colegas contribuyen con nuevas técnicas para el análisis interactivo de la composición e intersección de conjuntos, en el artículo “UpSet; Conjuntos de Visualización e Intersección” UpSet permite a los analistas formar agregados orientados a la tarea que comunican el tamaño y las propiedades de los agregados y las intersecciones. UpSet está disponible en paquetes de software de código abierto.
Un objetivo, establecido frecuentemente, de la visualización es el “descubrimiento de lo inesperado”. Si, en muchos casos, la graficación de datos pueden mal interpretarse al darle una preminencia visual al conocimiento de tasas de base, (como las densidades poblacionales), o a los artificios del tamaño de una muestra y su normalización, (tales como los valores atípicos a partir de muestras pequeñas, y las muestras variables).
En el articulo “Pesaje Bayesiano Sorpresivo! para la Eliminación del Sesgo de los Mapas Temáticos”, Michael Correll y Jeffrey Heer proponen técnicas de re pesaje para los datos espaciales y temporales que visualizan estadísticamente las características de sorpresa relativas a un conjunto modelo de base. Importar una medición de la visión científica denominada Sorpresa Bayesiana. Los Mapas de Sorpresa utilizan un espacio de inicio con modelos equi plausibles junto con pasos de actualización Bayesiana para la re estimación de la plausibilidad en función de los datos observados. Estos pasos de actualización reducen el pesaje esperado en los eventos espacio temporales y potencian a los eventos sorpresivos. Los mapas resultantes sirven para guiar la atención del análisis a las regiones de los datos donde las características observadas son menos esperadas de ocurrir dada la tasa base o la fluctuación estadística normal.
Adicionalmente al desarrollo de nuevas técnicas para la visualización de la información los investigadores apuntan a comprender que hace (y que no) más efectiva la presentación gráfica. Las guías de diseño a largo plazo incluyen los principios de efectividad y expresividad de Jock Macklinlay, las cuales, básicamente establecen: (1) las visualizaciones deben representar a las evidencias de los datos seleccionados y solo a tales evidencias, y que (2) los canales elegidos de codificación visual deben maximizar la capacidad de decodificación de los datos por las personas en forma rápida y precisa. En tanto que los trabajos precedentes operativizan los principios de expresividad en términos de criterios lógicos, los resultados empíricos sugieren la necesidad de un enfoque más gradual ligado a la percepción humana. En el artículo “Evaluando el impacto de los Campos Escalares 2D de Descarte”, Lace Padilla y sus colegas evalúan los efectos tanto del dominio continuo como discreto de la codificación de colores en los campos escalares. Los autores encuentran que las representaciones de descarte de un dominio continuo pueden presentar una gran exactitud que una codificación continua “directa”. Este artículo no solo refina las guías de diseño sino también que ejemplifica una visualización de alta calidad para la evaluación efectiva, incluyendo una cuidadosa selección de la misión.
Los experimentos de percepción se pueden utilizar no solo para evaluar y comparar directamente los enfoques de diseño en competencia, sino también para construir modelos predictivos de fenómenos perceptuales. Los constructores de herramientas pueden utilizar estos modelos para desarrollar métodos automáticos para el diseño y evaluación de las técnicas de visualización. En el artículo “Colorgorical: Creación, Discriminación y Preferencia de Paletas de Color para la Visualización de la Información” trata el problema de la generación efectiva automática de paletas de color para la categorización de datos utilizando un enfoque basado en la optimización que combina modelos de percepción de color, nombres y preferencias estéticas. Los Autores Connor C Gramazio, David H Laidlaw y Karen B Schloss se enfocan no solo en los procedimientos puramente automáticos, sino también en como incorporarlos en las herramientas interactivas que les posibilitan a los diseñadores expresar sus propias preferencias en junto con las guías vinculadas a lo perceptual. El artículo se centra en la forma en que las herramientas se aproximan a la percepción informada que da soporte a los diseños configurados y mantienen una sensibilidad efectiva como principios de diseño.
Video Perspectives
Maureen Stone shares insights into important challenges facing visualization tool designers
Perspectiva de la Industria
En el video de este mes, la Gerente de Investigación del Tableau de Software, Maureen Stone, comparte sus visiones de los desafíos importantes que enfrentan los diseñadores de herramientas de visualización: desarrollando el escepticismo critico de los datos, mejorando la curación e integración de los datos y desarrollando el proceso de comprensión de los usuarios, sus intenciones y objetivos.
Conclusión:
La información de visualización les ayuda a las personas en los ámbitos de empresas y de la academia a comprender sus datos y comunicar los hallazgos importantes. La investigación de avanzada y las herramientas presentadas en el tema de este mes de Computing Now puede ayudarle a los diseñadores a realizar una visualización más efectiva y ayudar a los analistas a descubrir nuevas visiones a partir de sus datos.
Editor Invitado
Jeffrey Heer es profesor asociado en el Departamento de Ciencias de las Computación de la Universidad de Washington y posee un Doctorado en ciencias de la computación de la Universidad de California, Berkeley. Es editor asociado en jefe de la IEEE Transactions on Visualization and Computer Graphics. Heer ha co fundado Trifacta, un proveedor de herramientas interactivas para la transformación escalable de datos y ha ayudado a desarrollar las herramientas de visualización (Vega, D3 js, Protovis y Prefuse), que investigadores, empresas y miles de entusiastas de los datos utilizan alrededor del mundo. Se lo puede contactar en: jheer@uw.edu.