SensorMov, biblioteca nativa para interacciones tangibles con dispositivos Android

SensorMov, Native Library for Tangible Interactions with Android Devices

DOI 10.22430/22565337.2446 Logotecnologicas PDF Tablas Figuras

Recibido: 06 julio 2022
Aceptado: 06 marzo 2023
Disponible: 14 marzo 2023

Cómo citar / How to cite
C. Urdaneta, J. Rodríguez-Almanza, L. Cortés-Rico, “SensorMov, biblioteca nativa para interacciones tangibles con dispositivos Android,” TecnoLógicas, vol. 26, nro. 56, e2446, 2023 https://doi.org/10.22430/22565337.2446

 


Highlights

  • Estudiantes obtienen curvas rápidas de aprendizaje realizando los ejemplos en un periodo aproximado de tres horas.
  • SensorMov puede usarse en proyectos educativos orientados a la programación móvil y específicamente para el sistema operativo Android.
  • Un campo en el que ha crecido el uso de este tipo de experiencias es en el desarrollo de artefactos museales para la divulgación de la ciencia y la tecnología.
  •  

    Resumen

    El estudio presentado en este artículo tuvo como objetivo contribuir a la comunidad de desarrolladores móviles hispanohablantes con un conjunto de herramientas libres de programación, documentación y ejemplos en español para crear interfaces tangibles de usuario con dispositivos móviles inteligentes. Este tipo de interfaces permiten diversificar las interacciones con los celulares, priorizando usos alternativos de sus sensores. El desarrollo de este conjunto de herramientas ocurrió en el marco de un proyecto de investigación que buscó promover el diálogo de saberes entre la ingeniería y los saberes textiles tradicionales. En el proyecto se usó una metodología de diseño participativa que involucró actores diversos en las diferentes etapas: reconocimiento propio y mutuo, ideación, prototipado y experimentación. Como resultados se presentan una revisión de referentes sobre dispositivos móviles e interfaces tangibles, destacando aquellas interacciones móviles que usan objetos físicos y acciones gestuales; una descripción técnica de SensorMov: su arquitectura y diseño específico y, finalmente, su evaluación preliminar a través de un estudio de caso y de un proyecto académico. La biblioteca entiende lo tangible como el propio móvil u objetos físicos pasivos, que no requieran alimentación mediante energía eléctrica, como imanes. En este sentido, la versión de SensorMov documentada permitió trabajar con datos crudos de los sensores, identificar objetos y posiciones según el campo magnético estático de objetos físicos e identificar y posicionar objetos físicos sobre la pantalla del móvil. El principal reto a futuro es posibilitar espacios de apropiación que faciliten y extiendan su uso y funcionalidades, creando comunidad en torno a ella.

    Palabras clave: Tecnologías Móviles, Aplicaciones Android, Interfaces Tangibles de Usuario, Software Libre

    Abstract

    The study presented in this paper aimed to contribute to the Spanish-speaking mobile developer community with a set of free programming tools, documentation, and examples to create tangible user interfaces with smartphones. These interfaces allow diversifying interactions with mobiles, prioritizing alternative uses of their sensors. The development of this set of tools occurred within the framework of a research project that sought to promote the dialogue of knowledge between engineering and traditional textile knowledge. The project used a participatory design methodology that involved diverse actors in different stages: self-recognition and mutual recognition, ideation, prototyping, and experimentation. As a result, we present a review of references on mobile devices and tangible interfaces, highlighting those mobile interactions that use physical objects and gestural actions; a technical description of SensorMov: its architecture and the specific design and, finally, its preliminary evaluation through a case study and an academic project. The library understands the tangible as the mobile itself or passive physical objects that do not require electrical power, such as magnets. In this sense, the documented version of SensorMov allowed working with raw data from the sensors, identifying objects and positions according to the static magnetic field of physical objects, and identifying and positioning physical objects on the mobile screen. The main challenge for the future is to enable appropriation spaces that facilitate and extend the library's use and functionalities, creating a community around it.

    Keywords: Mobile Technologies, Tangible User Interface, Open Software, Android Applications

    1. INTRODUCCIÓN

    La interacción humano-computador (IHC) nació como un área de investigación en la década de los 60s [1]. Se refiere a todas las formas de comunicación que permiten a los humanos comunicarse con artefactos computacionales que representan, procesan y despliegan información digital. Entre los campos más destacables, interés del presente artículo, se encuentran el reconocimiento de gestos y las interfaces tangibles de usuario.

    El reconocimiento de gestos, en el contexto de la IHC, tiene principalmente dos acepciones. Una, en relación con el uso del cuerpo en movimiento, especialmente las manos, como agente principal en la comunicación del humano hacia la máquina. Desde los primeros dispositivos de entrada, múltiples avances han sido desarrollados y con ellos diferentes formas de interacción y manipulación a través de acciones gestuales. Sin embargo, no fue sino hasta finales de los 70s e inicios de los 80s, que muchos de estos descubrimientos empezaron a estar disponibles para su comercialización [1]. La otra acepción es su uso para evaluar la experiencia del usuario al enfrentarse a ciertas interacciones para reconocer las emociones que genera de acuerdo con los gestos con los que reacciona.

    Las interfaces tangibles de usuario (ITU) agrupan todos aquellos medios de interacción en los que las personas utilizan recursos materiales, objetos físicos cotidianos para representar y manipular información digital [2]. Desde mediados de los 90s, cuando el profesor Hiroshi Ishii y su equipo presentó este concepto a la comunidad científica, ha sido creciente el trabajo académico en torno a este tipo de interfaces [3]. A pesar de esto, el impacto y uso a escala industrial de este tipo de interfaces continúa siendo motivo de debate; en general, la complejidad y costo de las ITU es alto, por lo que son utilizadas en contextos muy específicos [4]. Adicionalmente, al alcance de nuestro conocimiento, en el caso latinoamericano las ITU aún están reservadas para la academia y la investigación en laboratorios especializados.

    Actualmente, uno de los dispositivos tecnológicos cotidianos más versátiles son los teléfonos inteligentes -smartphones-; su uso se ha expandido a gran parte de la población, a tal punto que, por ejemplo, en Colombia hay más de sesenta millones de celulares conectados a internet [5]. A pesar de los avances tecnológicos y el potencial de uso de estos dispositivos, la mayoría de las interacciones se limitan a las pantallas táctiles (con uno o máximo dos toques). Los otros sensores disponibles en los dispositivos móviles son desaprovechados, e incluso pasados por alto, aun cuando podrían usarse para diversificar las formas de comunicación con la información digital que representan, a través de gestos e interfaces tangibles de usuario [6]. Los celulares no son directamente interfaces tangibles, pero sus múltiples características permiten su creación y uso en diferentes ámbitos, como en el entretenimiento [7]. Así mismo, permiten optimizar tareas mediante diferentes gestos [8].

    Este artículo presenta una biblioteca nativa para dispositivos móviles Android, llamada SensorMov, que comprende el potencial de smartphones, a través de su vasto repertorio de sensores, para desarrollar interacciones gestuales e interfaces de usuario tangibles. Para esto, considera al propio móvil como un objeto tangible dada su portabilidad, autonomía, y apropiación en la cotidianidad de los usuarios. Así mismo, recurre al gesto, de acuerdo con Pierre Guiraud, como un aspecto fisiológico consciente o inconsciente que se exterioriza a través de algún movimiento del cuerpo, inherente a la comunicación del ser humano [9], que debe potenciar la comunicación entre las personas y los dispositivos computacionales.

    Adicionalmente, SensorMov es una biblioteca libre desarrollada en Colombia, cuyas funcionalidades, documentación y ejemplos se encuentran en español. Con esto se busca que los desarrolladores independientes, pequeñas y medianas empresas de desarrollo de software, diversifiquen el tipo de interacciones que permiten a los usuarios de sus aplicaciones. Así, este artículo contribuye a la comunidad de desarrolladores de habla hispana con un conjunto de herramientas para reducir el tiempo y complejidad de desarrollar ITU e interfaces gestuales, con teléfonos inteligentes Android. Esta contribución se presenta a través de la sección metodología, donde se muestra cómo surge la biblioteca y cuál fue la metodología seguida. En la sección 3, se presenta una revisión de referentes. La sección 4 detalla el desarrollo y la sección 5 los resultados y discusión, detallando la biblioteca, su arquitectura, diseño, y evaluación preliminar. El artículo cierra con las conclusiones, en las que se concreta el estado actual, y los desafíos a futuro con SensorMov.

    2. METODOLOGÍA

    SensorMov es un producto derivado del proyecto de investigación “Diálogos de saberes en la creación de interfaces físicas artesanales para la interacción con dispositivos móviles”. Este proyecto tuvo como propósito poner en diálogo diferentes formas de conocimiento y de hacer, que coexisten en la región Sabana Centro de Bogotá, específicamente, los asociados a la ingeniería en multimedia, y los relacionados con las artesanías textiles. Aquí, se identificó el dispositivo móvil como el artefacto computacional que permeaba ambos saberes/haceres. Sin embargo, más que ser un punto en común para entablar el diálogo de saberes, se identificó que en ambos casos su uso estaba limitado al consumo y publicación de contenidos, especialmente a través de redes sociales.

    Así mismo, se identificó una connotación fenomenológica en ambas formas de hacer; de un lado, las artesanías textiles cuyo conocimiento está en las manos de las artesanas y es comunicado a través de la demostración y la experimentación conjunta. De otro lado, el de la ingeniería en multimedia, donde las representaciones computacionales y desarrollos tecnológicos están íntimamente ligados con la práctica y la abstracción del mundo material.

    A partir de la comprensión del dispositivo móvil como un artefacto tecnológico que podría tender un puente entre la ingeniería en multimedia y los haceres textiles, y entendiendo la importancia de profundizar sobre el rol del cuerpo en estos saberes y en el uso del dispositivo móvil, los fundamentos metodológicos que guiaron este proyecto fueron el diseño participativo [10] y la investigación basada en el diseño constructivo [11]. Sostenida sobre esta base, se propuso una estrategia iterativa, ágil, con las siguientes fases: Reconocimiento, Ideación, Prototipado y Experimentación (Figura 1) [12]. Otras aproximaciones metodológicas para el desarrollo de interfaces tangibles pueden ser consultadas en [3]; allí se detalla el diseño de ITU en conjunción con gamificación y se contrasta con otros enfoques metódicos.

    Esquema de las fases metodológicas
    Figura 1. Esquema de las fases metodológicas. Fuente: elaboración propia.

    La fase de reconocimiento, en el ciclo inicial, se refiere al reconocimiento propio y mutuo de prácticas textiles y de desarrollo de tecnologías digitales; durante esta fase se realizaron talleres colectivos para involucrar a estudiantes y artesanos en haceres relacionados con su práctica (Figura 2). En los ciclos siguientes, esta fase permitió hacer indagación y reconocimiento técnico de referentes sobre cómo podría ser utilizado el dispositivo móvil para interfaces tangibles y gestuales, donde el cuerpo y los objetos cotidianos tuvieran un papel preponderante en la interacción. Finalmente, el reconocimiento se enfocó en una evaluación del modelo propuesto, para identificar errores y potenciales mejoras de los artefactos que se iban desarrollando.

    Fotografías de los talleres participativos de reconocimiento
    Figura 2. Fotografías de los talleres participativos de reconocimiento. Fuente: elaboración propia.

    La fase de ideación correspondió a la propuesta de artefactos tecnológicos en los que convergieran las tecnologías digitales y las artesanales; en particular, ideas orientadas a la creación de tangibles como interfaces físicas para la interacción con móviles. Adicionalmente, se propusieron criterios técnicos y de usabilidad para ser abstraídos en la etapa de prototipado, en un modelo que permitiera el diseño de tangibles para la interacción con móviles en otros contextos.

    El prototipado estuvo enfocado en materializar las propuestas de la fase de ideación. Según el ciclo, los prototipos correspondieron a realizaciones físicas de las funcionalidades esperadas de los tangibles, o a abstracciones, como el modelo técnico y de usabilidad de los tangibles, como ejemplo, la Figura 3. Finalmente, la experimentación correspondió a las actividades de evaluación y sistematización de los prototipos generados en la fase anterior, desde un punto de vista técnico, social y de experiencia de usuario.

    Fotografías de prototipos de dechados textiles-digitales, desarrollados en talleres participativos, donde el móvil se utilizó para aumentar digitalmente el dechado y explicar el proceso de realización de las puntadas
    Figura 3. Fotografías de prototipos de dechados textiles-digitales, desarrollados en talleres participativos, donde el móvil se utilizó para aumentar digitalmente el dechado y explicar el proceso de realización de las puntadas. Fuente: elaboración propia.

    De este proceso metodológico surgió la propuesta de creación de un conjunto de herramientas de desarrollo para Android, que redujera los tiempos de desarrollo y optimizara funcionalidades para la creación de interfaces gestuales y tangibles con el dispositivo móviles, aprovechando la diversidad de sus sensores. Uno de los requisitos más significativos es que la biblioteca: sus funcionalidades, documentación y ejemplos sean en español, considerando que se desea propiciar, localmente, el desarrollo de interfaces tangibles que aprovechen el extendido uso de dispositivos móviles y que, a la vez, reconozcan las capacidades locales, como en el caso de las artesanías textiles.

    Una vez definidos los requisitos de la biblioteca, se siguió una metodología ágil, basada en SCRUM, pero adaptada a las particularidades de este proyecto, en donde se desglosó el proceso de desarrollo de software en cinco grandes etapas: especificación de usos, desarrollo de funcionalidades, Trabajo personal, Retroalimentación y, por último, la Publicación (Figura 4).

    Esquema de la metodología de desarrollo de la biblioteca SensorMov
    Figura 4. Esquema de la metodología de desarrollo de la biblioteca SensorMov. Fuente: elaboración propia.

    En la etapa de “Especificación de usos” se analizaron posibles interfaces que se podrían realizar para así encontrar qué debía incluir la biblioteca, en dónde se podría desarrollar y qué tipo de artefactos se podrían exportar. Así mismo, se contrastaron con las formas de utilizar los dispositivos móviles identificadas en los talleres de diseño participativo del proyecto de diálogos de saberes. A partir de este análisis, se especificaron los usos y formalizaron los requisitos funcionales y no funcionales de la biblioteca. La especificación de usos permitió establecer funcionalidades específicas que debía cumplir la biblioteca, por ejemplo, permitir el acceso a los datos crudos de los sensores. Con estas funcionalidades claramente definidas, se continuó con el desarrollo, de acuerdo con una arquitectura orientada a objetos. Cada funcionalidad, según su complejidad, tuvo tiempos de desarrollo de entre dos y cuatro semanas. La siguiente etapa correspondió al trabajo personal, teniendo en cuenta que la programación fue realizada principalmente por una persona. Una vez se consideraba una funcionalidad como completa para pruebas preliminares, se siguió con la retroalimentación, que consistió en reuniones donde se revisaron los resultados en comparación con los requisitos, se comentaron las adversidades encontradas en cada una de las tareas, para luego investigar o definir las siguientes tareas dependiendo del análisis realizado. Este proceso se hizo continuamente para ir avanzando y obteniendo resultados hasta llegar a una versión funcional de la biblioteca de acuerdo con los requisitos planteados.

    3. REVISIÓN DE REFERENTES

    Esta sección se divide en tres partes: fundamentos filosóficos y metodológicos, tecnologías plurales y referentes técnicos.

    3.1 Fundamentos filosóficos y metodológicos

    Este apartado presenta los fundamentos filosóficos y metodológicos que guiaron el desarrollo de la biblioteca SensorMov, dada su naturaleza sociotécnica. Desde lo filosófico, se tiene como base la fenomenología; metodológicamente, se tiene el diseño participativo y la investigación basada en el diseño constructivo.

    La fenomenología es una corriente filosófica que da énfasis al papel del cuerpo en los procesos de percepción y cognición. De acuerdo con esta corriente, el sentido que damos al mundo está estrechamente ligado a las acciones que realizamos con nuestro cuerpo en relación con el ambiente, pero también con las herramientas, objetos y tecnologías que están en él [13]. En este proyecto, el cuerpo tomó un rol fundamental teniendo en cuenta que es a través del hacer (especialmente con las manos) que artesanos e ingenieros construyen. Así mismo, al estar orientado al modelado y construcción de artefactos tecnológicos, el proyecto tomó como partida el concepto fenomenológico en el que la relación de las personas con los objetos (cómo los ven y los entienden) está en términos de lo que pueden hacer con ellos [14].

    El diseño participativo fue fundamental de este proyecto, en tanto se considera que la concepción del móvil como un objeto de interacción gestual y tangible es situada y se realiza continuamente con los usuarios y no solo para los usuarios [10]. En este sentido, los talleres participativos adquirieron gran relevancia metodológica, pues fueron los escenarios que permitieron continuamente la interacción entre los diferentes actores que hicimos parte de este proyecto. Adicionalmente, los espacios de encuentro involucraron continuamente diálogos de saberes y de formas-de-hacer en una dimensión material. La materialidad se establece en términos de la investigación basada en el diseño constructivo (Constructive Design Research) que implicó, rigurosamente, facilitar procesos creativos a través del hacer (desde el laboratorio, el trabajo de campo y los espacios demostrativos), que derivaron en prototipos, modelos, diseños en papel para darle forma física a la manera en que se comprende una situación (problemática o deseada) [11].

    3.2 Tecnologías plurales

    En esta parte se presentan algunos ejemplos en los que se han desarrollado artefactos socio-tecnológicos con una definición plural y horizontal de la tecnología, en los que se encuentran tanto tecnologías digitales, como tecnologías artesanales.

    El primer referente es Cala-ITU, prototipo de una ITU realizado como parte del proyecto Bordando el Conocimiento Propio [15], que buscó mediar el diálogo entre diseñadores de modas y caladoras en Cartago-Valle del Cauca. Cala-ITU incluye unos tangibles, llamados “sellos” que se construyen con hilo conductor, y que pueden ser identificados y posicionados por una tableta (de una referencia particular) cuando se ubican sobre su pantalla. Cada sello representa una puntada de calado distinta. Sin embargo, por la forma en que se hace el reconocimiento (según posición de las puntadas bordadas con el hilo conductor sobre la base del sello), solamente se reconocen 6 tipos distintos de puntadas (Figura 5).

    Sellos de Cala-ITU
    Figura 5. Sellos de Cala-ITU. Fuente: [16].

    El segundo referente es SPYN, creado por Daniela Rosner y Kimiko Ryokai en el 2010 [17], que corresponde a un sistema en el que se documenta digitalmente el proceso de tejido de una prenda a medida que se construye. Cada vez que se activa el registro digital, se almacena la posición georreferenciada en la que se está tejiendo esa parte del textil y se activa la grabación de audio, para que quien realiza la labor, cuente una historia. La lana con la que se va tejiendo, pasa por una tinta infrarroja que no afecta visualmente el textil, pero crea un patrón que puede ser posteriormente leído por un dispositivo móvil, para asociar cada parte del tejido con la información digital registrada durante su elaboración.

    La tercera referencia es Crafted Logic, desarrollada por Irene Posch y Ebru Kurbak en el 2016 [18]. Crafted Logic es una instalación interactiva, definida por sus creadoras como especulativa, en la que desarrollaron una serie de piezas con componentes textiles y electrónicos para exhibir el comportamiento de las compuertas lógicas en el cómputo de información. Con la instalación buscan problematizar la invención e innovación tecnológica como desindustrializadas y realizables / usables en comunidades artesanales textiles.

    El cuarto referente corresponde al Proyecto Jacquard de Google [19]. Jacquard busca la creación de artefactos tecnológicos vestibles, en los que el tejido mismo del textil es utilizado para sensar y digitalizar información. Específicamente, se incluye la manufactura de lanas conductoras que se puedan usar, según el tejido, como sensores multitáctil o como grillas para la detección de gestos. La elaboración de los tejidos se realiza con procesos clásicos, tradicionales. La visión del proyecto se orienta a que a futuro la computación esté de manera tan embebida en la cotidianidad, que sea indistinguible.

    Otras de estas tecnologías plurales se pueden encontrar en el artículo de Pérez-Bustos -2017-: “Hilvanar tecnologías digitales y procesos de tejido o costura artesanal: una revisión crítica de prácticas” [20].

    3.3 Dispositivos móviles e interfaces gestuales y tangibles

    Esta parte refiere a antecedentes relacionados con el uso de tangibles y gestos para la interacción con dispositivos móviles. Inicialmente, se presenta CapWidgets, tangibles pasivos que se pueden usar sobre pantallas táctiles capacitivas: mientras el usuario tiene el tangible con su mano y el tangible está tocando la pantalla, se reconoce su posición y rotación. Estos tangibles se construyen con placas de circuito impreso -PCB- doble capa, donde el tamaño y forma de las áreas conductoras que cierran el contacto entre la mano y la pantalla, son similares al área de contacto de los dedos sobre la pantalla (Figura 6) [21].

    Esquema de la estructura de los CapWidgets donde se observa el material conductor que cierra el camino entre la mano (que manipula el tangible) y los puntos de cobre que hacen contacto con la pantalla
    Figura 6. Esquema de la estructura de los CapWidgets donde se observa el material conductor que cierra el camino entre la mano (que manipula el tangible) y los puntos de cobre que hacen contacto con la pantalla. Fuente: Basada en [21].

    CapStones y ZebraWidgets son el siguiente referente. Estos tangibles, así como CapWidgets, utilizan el sensor de las pantallas capacitivas, para que sean reconocidos por el móvil. Sin embargo, CapStones y ZebraWidgets permiten más acciones físicas con los tangibles, reconocidas por el móvil, que solo ponerlos sobre la pantalla. Por ejemplo, se pueden apilar, desapilar, deslizar, o rotar; acciones que modifican conexiones internas que permiten variar qué áreas quedan en contacto o no con la pantalla [22] (Figura 7). Otra aplicación similar es pTUI, una interfaz tangible en la que se utilizan objetos construidos con papel en la interacción con el móvil, agregando láminas de metal para la detección de los objetos sobre la pantalla, usando la misma técnica de conexión indirecta con la mano [23].

    Esquema de los Tangibles de CapStones y ZebraWidgets. Se pueden observar las conexiones internas y acciones como "apilar" los tangibles
    Figura 7. Esquema de los Tangibles de CapStones y ZebraWidgets. Se pueden observar las conexiones internas y acciones como "apilar" los tangibles. Fuente: Basada en [22].

    Otro referente que se enfoca principalmente en la pantalla es ToMMI, una biblioteca de software libre para la interacción móvil [24]. Esta biblioteca permite la construcción de tokens (tangibles) pasivos, personalizados, que puedan ser identificados y sobre los que se pueda hacer seguimiento en el móvil, también al ubicarlos sobre la pantalla. Un ejemplo adicional sobre usos extendidos de la pantalla multitáctil es InfinityTouch [25]. Los anteriores referentes hacen parte de las interfaces tangibles categorizadas como “superficies interactivas”. Dentro de esta categoría se encuentran referentes fundamentales como el protocolo de comunicación TUIO y la aplicación ReacTIVision [26].

    Además de la pantalla como sensor capacitivo multitáctil, se han utilizado otros sensores de los teléfonos inteligentes para la creación de tangibles. El primer ejemplo es MagnetiCode, proyecto que usa el compás; en este caso, los tangibles son activos emitiendo pulsos magnéticos que permiten transmitir su número de identificación (ID) al móvil [27]. El segundo es VibroComm en el que usan el giroscopio del celular para interpretar datos acústicos para compartir información o efectuar pagos de manera segura [28]. Además, el experimento “Tangible Around-Device Interaction Using Rotatory Gestures with a Magnetic Ring” que propone nuevas formas de jugar un videojuego al usar una argolla y el magnetómetro del dispositivo como principal control de un juego de naves [7]. Adicionalmente, el artículo “A survey of patterns for adapting smartphone app UIs to smartwatches” presenta una revisión del uso de sensores externos, como los de los relojes inteligentes, para transmitir su información a dispositivos móviles, y así extender sus funcionalidades [29].

    Otras investigaciones de interés en este trabajo son aquellas en las que se indaga sobre la relación del usuario con el móvil, desde una dimensión corporal y experiencial. Este es el caso de la investigación de Larsen, et.al. [30], que tiene como propósito estudiar cómo usuarios con fisionomía de sus dedos diferente (ej., el tamaño del pulgar) tienen interacciones distintas con el móvil y cómo, con base en esto, se pueden optimizar algunos gestos como el swipe o el scroll. De forma similar, la investigación de Viet Le et.al [31] que indaga sobre la ergonomía de las interacciones con el móvil, especialmente a través de entradas atípicas como el lector de huella dactilar.

    Respecto a la aplicación de interfaces gestuales y tangibles con el móvil, uno de los campos en crecimiento es la fisicalización de datos. Por ejemplo, el trabajo de Bhargava y D’Ignazio [32] muestra un estudio en donde los participantes aprendieron y se motivaron mucho más hacia la analítica de datos cuando trabajaron con elementos tangibles. Otro ejemplo es el de Jansen, et.al. [33] donde se presenta una explicación de lo que es la fisicalización de los datos y cómo formas tangibles de presentar la información pueden ser de gran utilidad en un futuro, dado que permiten el uso de propiedades como la profundidad, las texturas, la dureza, entre otras, para representar la información. Así mismo, presentan que estas formas tangibles pueden ser más accesibles para población con capacidades diversas. Por último, en lo relacionado con la analítica de datos, el experimento “Touching Information with DIY Paper Charts & AR Markers” trata sobre la alfabetización de datos. Las actividades de este experimento se centraron en enseñar a niños sobre la lectura de datos mediante actividades y materiales que se encuentran en casa; concluyen que jugar con tangibles generó mayor compromiso con la interacción, de forma que los usuarios dieron mayor sentido a los datos [34].

    En el campo educativo también se evidencia creciente interés en el uso de teléfonos y tabletas inteligentes para optimizar procesos académico-administrativos y apoyar didácticas en procesos de enseñanza-aprendizaje. Un ejemplo de esto es el trabajo “Diseño de un juego basado en Interacción Tangible para la enseñanza de Programación” en el que, mediante una superficie interactiva tipo mesa, enseñan conceptos fundamentales de programación, a partir del planteamiento y estructuración de un problema [35]. De otro lado, diversos estudios sobre los gestos y lo material han concluido la importancia de involucrar el cuerpo en la interacción con las tecnologías digitales, para mejorar los procesos de aprendizaje, ejemplo: [36]–[38]. Un ejemplo comercial, desarrollado para iPad, es Tiggly; juguetes de silicona que se ubican sobre la tableta como las huellas de los dedos, para que el dispositivo reaccione y complemente la experiencia de los niños usuarios de sus juegos educativos [39].

    4. DESARROLLO

    SensorMov es una biblioteca de código abierto, desarrollada en lenguaje nativo de Android para dispositivos móviles, disponible para su uso, modificación y extensión en el repositorio: https://github.com/ljcortesr/SensorMov. Esta biblioteca reúne un conjunto de funcionalidades para aumentar el uso de varios de los sensores del móvil, de allí su nombre, a través gestos y de objetos físicos llamados tangibles. SensorMov busca facilitar el trabajo de los desarrolladores brindando funcionalidades ya establecidas y permitiendo su modificación y conexión con otras funcionalidades del sistema operativo, como las de comunicación, manejo de bases de datos, o gestión de archivos. Así mismo, está exportada en un formato que permitiría incluirla, con algunos ajustes, en otras plataformas de desarrollo, como Processing for Android.

    Fue concebida en un proyecto de investigación interdisciplinario, con un fuerte componente social, que llevó a identificar la necesidad de diversificar los desarrollos móviles en Colombia y Latinoamérica. En este sentido, se busca suavizar la curva de aprendizaje y facilitar la comunicación con los desarrolladores. Así, todas las clases, métodos, atributos, documentación y ejemplos están en español. La primera versión de SensorMov permite la recuperación de datos sin procesar del acelerómetro, giroscopio, vector de rotación, pantalla multitáctil, magnetómetro y GPS, la identificación y posicionamiento de imanes, y la identificación de la rotación del móvil desde una orientación inicial calibrada. La Tabla 1 presenta las clases principales.

    Tabla 1. Nombre y descripción de las clases principales de SensorMov. Fuente: elaboración propia.
    Clase Definición
    DatosCrudos Es la clase principal y permite acceder a los datos crudos de todos los sensores usados en la biblioteca.
    SensorDatos Es responsable de obtener los valores los sensores de tres ejes usados en la biblioteca.
    DatosPantalla Obtiene datos de la pantalla multitáctil.
    IdentificadorTactil Se utiliza para identificar objetos que tienen un identificador pasivo de tres puntos, sensados a través de la pantalla táctil.
    GPS Permite obtener los datos del GPS.
    RotaciónAngular Permite obtener la rotación del móvil como un ángulo en grados, para cada uno de los ejes, a partir de una rotación inicial calibrada.
    ObjetosMagneticos Permite calibrar, entrenar e identificar diferentes imanes (campos magnéticos).
    PosicionadorMagnetico Permite calibrar e identificar la posición de un imán.

    Esta biblioteca se diseñó siguiendo una lógica orientada a objetos, dado que el lenguaje nativo de Android está basado en Java. SensorMov funciona por herencia, esto quiere decir que las clases principales heredan de la actividad main brindada al inicio de la creación de un proyecto en AndroidStudio algunos métodos como lo son el OnCreate y el Context de dicha actividad para poder acceder a los sensores que se utilizarán. Adicionalmente, sobre cada clase se incluyeron mensajes informativos a través de bitácoras (LOG) informativas o de ocurrencia de errores, que permiten al usuario reconocer la ocurrencia de eventos o problemas cuando ocurra alguna excepción. El diagrama de clases se presenta en la Figura 8.

    Clases que hacen parte de SensorMov
    Figura 8. Clases que hacen parte de SensorMov. Fuente: [40] .

    Las clases que se presentan a continuación permiten la gestión básica de sensores de tres ejes, pantalla multitáctil y GPS en el móvil: 1. DatosCrudos permite acceder a los datos crudos de los diferentes sensores, que son provistos por SensorDatos, DatosPantalla y GPS, a través de objetos de cada una de esas clases. 2. SensorDatos es la clase que se encarga de obtener los valores de los sensores acelerómetro, giroscopio, magnetómetro, y vector de rotación; todos con tres ejes. 3. DatoSensor fue creada para el manejo de los sensores tres ejes, de manera que se puedan manejar siempre, en un mismo objeto, sus valores a través de los mismos atributos flotantes: x, y, z. 4. DatosPantalla se encarga de obtener los valores brindados por la pantalla multitáctil (posición en x, posición en y, tamaño y presión), a través de una lista que crece y decrece de acuerdo con la cantidad de puntos que están siendo tocados en la pantalla. 5. PuntoTactil fue creada para el manejo de los valores provenientes de la pantalla en un solo objeto.

    Entrega los valores de posición y si están disponibles, los de presión y amplitud de cada toque. 6. DatoGPS sirve para manejar los tres valores provenientes del GPS en un solo objeto: latitud, longitud y altitud – No disponible en algunos móviles-. 7. GPS se encarga de obtener los valores brindados por el GPS.

    Adicionalmente, esta versión incluye algunas clases más avanzadas que permiten realizar desarrollos más avanzados, orientados a lo gestual y lo tangible, procesando los datos crudos del celular. Gestos, permite obtener el ángulo en grados en el que se encuentra el celular por cada uno de los tres ejes utilizando solamente el sensor vector de rotación. Esta clase es limitada en la versión actual, pues solo incluye el gesto de rotar el celular. Sin embargo, está pensada para incluir otro tipo de gestos asociados a los sensores de tres ejes como vibración, saludo, voltear el móvil, etc. IdentificadorTactil utiliza los datos de posición de tres puntos táctiles que están a la vez sobre la pantalla y, según su posición relativa, les asigna una etiqueta. Esta clase se utiliza en fase de entrenamiento y en reconocimiento.

    Para realizar la identificación, se crea un vector de características y se utiliza la técnica de aprendizaje no supervisado k-means usando como criterio de distancia en el espacio característico, la euclidiana. El vector de características tiene tres dimensiones, representando la longitud normalizada de las rectas que conectan los puntos táctiles, ordenada según el ángulo entre el centro de la circunferencia que circunscribe el triángulo formado por los tres puntos táctiles y cada una de las esquinas, tal como se muestra en el siguiente algoritmo y en el procesamiento de los datos de las etiquetas en la Figura 9:

    1. Trazar una recta entre cada par de puntos detectados.
    2. Encontrar el punto medio de cada una de las rectas trazadas en 1.
    3. Trazar una recta perpendicular a cada una de las rectas de 1, que pase por su punto medio, encontrado en 2.
    4. Centro←Punto de cruce entre las rectas trazadas en el paso 3.
    5. Determinar el ángulo (entre 0° y 360°) desde el centro, 4, a cada uno de los puntos sobre la circunferencia que circunscribe los puntos táctiles.
    6. Ordenar puntos de acuerdo con los ángulos de 5
    7. Armar el vector de características como la longitud normalizada de las rectas entre los puntos, luego de organizados 6 (Del punto 1 al 2, del 2 al 3, del 3 al 1).

    Procesamiento de los datos de las etiquetas para la identificación de objetos sobre la pantalla táctil
    Figura 9. Procesamiento de los datos de las etiquetas para la identificación de objetos sobre la pantalla táctil. Fuente: Adaptado de [16] .

    La clase ObjetosMagneticos permite identificar distintos imanes utilizando la norma del vector proveniente de imanes diversos y un radio (como tolerancia). En este caso, el campo magnético del imán es el identificador, caracterizándose por una media y una desviación estándar. La clase permite primero un proceso de calibración (dado que el campo magnético puede variar según el lugar y entorno en el que se ejecute la aplicación). Así mismo, permite entrenar el sistema para aprender el campo magnético de cada objeto, tomando varias muestras para calcular el centro y radio -media y desviación-. En fase de reconocimiento, la clase permite la identificación de acuerdo con el entrenamiento que se haya realizado. Esta clase se apoya con IdentificadorMagnetico, para el manejo de las variables usadas para la identificación en ObjetosMagneticos en un solo objeto.

    Finalmente, PosicionadorMagnetico permite identificar la posición de un imán. Para esta clase el método de identificación utiliza un promedio de los datos obtenidos por cada eje; estos promedios cuentan con su desviación estándar que es utilizada como el criterio a evaluar. Un ejemplo de cómo se distribuyen los datos recolectados para 4 posiciones diferentes se presenta en la Figura 10. Esta clase se apoya de IdentificadorPosicionadorMagnetico para el manejo de las variables usadas para la identificación en PosicionadorMagnetico en un solo objeto.

    Datos de cuatro posiciones de un imán, respecto al magnetómetro del dispositivo móvil
    Figura 10. Datos de cuatro posiciones de un imán, respecto al magnetómetro del dispositivo móvil. Fuente: [40].

    Finalmente, PosicionadorMagnetico permite identificar la posición de un imán. Para esta clase el método de identificación utiliza un promedio de los datos obtenidos por cada eje; estos promedios cuentan con su desviación estándar que es utilizada como el criterio a evaluar. Un ejemplo de cómo se distribuyen los datos recolectados para 4 posiciones diferentes se presenta en la Figura 10. Esta clase se apoya de IdentificadorPosicionadorMagnetico para el manejo de las variables usadas para la identificación en PosicionadorMagnetico en un solo objeto.

    5. RESULTADOS Y DISCUSIÓN

    La biblioteca desarrollada contribuye con un conjunto de herramientas de desarrollo, documentación y ejemplos en español, para diversificar las interacciones con los móviles, priorizando usos alternativos de sus sensores; de allí su nombre: SensorMov. Su clase más sencilla recoge y organiza los datos crudos de los sensores, y los dispone en español, reduciendo los tiempos de compresión de la documentación nativa, y facilitando los procesos de apropiación. Al momento, se tienen cuatro clases de más alto nivel que permiten la identificación de objetos: táctil y magnética, su posicionamiento en dos dimensiones para el caso de objetos sobre la pantalla táctil, en tres dimensiones para los objetos magnéticos y la posición angular del dispositivo móvil como un todo. A continuación, se presenta el uso de la biblioteca en el marco del proyecto de investigación Diálogo de Saberes, y posteriormente un caso de evaluación en un proyecto académico de la clase Physical Computing de Ingeniería en Multimedia.

    5.1 Estudio de caso

    SensorMov fue utilizada en el proyecto investigación mencionado anteriormente. En este caso, artesanas y estudiantes de Ingeniería en Multimedia desarrollaron una serie de interfaces con componentes textiles y digitales. Los estudiantes (n = 5) utilizaron SensorMov para el desarrollo de las interfaces tangibles y gestuales, que usaran elementos digitales y textiles y que tuvieran como artefacto tecnológico al dispositivo móviles. En el desarrollo de estas interfaces se observó una alta facilidad de diálogo entre las artesanas y los desarrolladores de software que permitió a los estudiantes especificar colectivamente las historias de usuario e implementarlas en interfaces tangibles y gestuales (Figura 11).

    De izquierda a derecha. Prueba de la funcionalidad de SensorMov que permite determinar la posición de un imán. ITU donde el mensaje mostrado corresponde al parche bordado al que el celular esté apuntando. ITU para mostrar el proceso de elaboración de una puntada con una aguja imantada
    Figura 11. De izquierda a derecha. Prueba de la funcionalidad de SensorMov que permite determinar la posición de un imán. ITU donde el mensaje mostrado corresponde al parche bordado al que el celular esté apuntando. ITU para mostrar el proceso de elaboración de una puntada con una aguja imantada. Fuente: [41].

    Los estudiantes concluyeron que es necesario hacer pruebas de usuario más específicas para definir nombres más apropiados en los atributos, métodos y clases de la biblioteca. Así mismo, es necesario diseñar un método de apropiación para la construcción de comunidad en torno al uso de la biblioteca para tener una colección de ejemplos más extensa que reduzca los tiempos de desarrollo. Sin embargo, consideran que la biblioteca tiene una curva de aprendizaje rápida, lo que contribuye a una mayor propiedad por parte de los desarrolladores móviles.

    5.2 Evaluación

    Se realizó una evaluación preliminar de la biblioteca con estudiantes de Ingeniería en Multimedia de décimo semestre (n=22), en el marco de una asignatura electiva denominada Physical Computing. Esta evaluación se realizó a través de un taller sobre el uso del dispositivo móvil como plataforma para el desarrollo de interfaces tangibles y gestuales, dividido en tres etapas: exploración de referentes, reconocimiento de la biblioteca, y reto final.

    La exploración de referentes buscó que los estudiantes hicieran una reflexión activa sobre sus dispositivos móviles, sus potencialidades, formas de interacción, usos atípicos y aplicaciones con interfaces diferentes a las tradicionales. Para hacerlo, se propusieron actividades como completar una tabla con los sensores disponibles, rangos de medición, y unidades de medida; el de responder a la pregunta de ¿Qué acciones realizamos con el móvil para cumplir qué tareas?, a través de dibujos (Sketch list); o el compartir a través de un diálogo material, ¿Cuál es la interfaz de usuario más curiosa que recuerdas? (Figura 12).

    Capturas del taller de evaluación, parte de exploración de referentes
    Figura 12. Capturas del taller de evaluación, parte de exploración de referentes. Fuente: elaboración propia.

    El reconocimiento de la biblioteca se realizó a través de una introducción al desarrollo móvil en Android Studio, un Hola Mundo en esta plataforma usando el lenguaje Java, y el despliegue de un glosario de términos asociados a esta forma de desarrollo. La biblioteca fue presentada a grandes rasgos, sin profundizar en su uso. La razón, es que la documentación y ejemplos disponibles también eran objeto de la evaluación. En esta etapa, cada grupo de cuatro estudiantes replicó tres ejemplos de la biblioteca y extendió alguno de ellos con funcionalidades similares. Todos lograron completar adecuadamente esta parte del taller.

    Finalmente, para la parte del reto se planteó que diseñaran y desarrollaran un juego de mesa tangible que hiciera uso de SensorMov. Al ser tangible, se incluyó como requisito que debía tener componentes físicos (que podría ser objetos o gestos con el cuerpo) y digitales; y todos los componentes debían ser relevantes para la experiencia de usuario. El proceso de diseño implicó hacer un video escenario para probar en papel los prototipos (Figura 13 A). Los cinco grupos diseñaron y desarrollaron los juegos, de acuerdo con los requisitos planteados, como se muestra en el ejemplo de la Figura 13 B.

    A. Prototipo en papel de un juego de mesa tipo ping pong. El objeto, con un imán descentrado, al rotarse mueve la posición de la raqueta virtual. B. Juego de mesa en el que el acelerómetro es usado para lanzar un dado
    Figura 13. A. Prototipo en papel de un juego de mesa tipo ping pong. El objeto, con un imán descentrado, al rotarse mueve la posición de la raqueta virtual. B. Juego de mesa en el que el acelerómetro es usado para lanzar un dado. Fuente: Elaboración propia.

    Los juegos desarrollados por los estudiantes permitieron evidenciar que la curva de aprendizaje de la biblioteca y la apropiación de la documentación y ejemplos es rápida. Sin embargo, uno de los aspectos más relevantes a mejorar en SensorMov es el planteamiento de retos dentro de la documentación, que permita más fácilmente moverse de los ejemplos planteados. Así mismo, es importante diversificar los ejemplos con otras funcionalidades del sistema operativo, para que los desarrolladores puedan integrar más fácilmente la biblioteca con otros desarrollos.

    Adicionalmente, se identificó la necesidad de hacer más versátil la herencia de las clases principales. Como se mencionó anteriormente SensorMov se extiende de la actividad main brindada al inicio de la creación de un proyecto básico en AndroidStudio. Sin embargo, la versión actual de Android permite, por defecto, la creación de varias actividades más allá de la básica (ej. AppCompactActivity, FragmentActivity o ActionBarActivity). Por esta razón, es limitado el alcance de la biblioteca, en tanto no se puede combinar actualmente con otras formas de actividad que también reducen tiempos de desarrollo, especialmente de interfaces gráfica de usuario.

    Finalmente, son aún amplias las funcionalidades que es preciso desarrollar con la biblioteca. Por ejemplo, gran cantidad de referentes utilizan tangibles sobre la pantalla multitáctil para identificar y detectar la posición y rotación de objetos sobre la pantalla- widgets- [16], [21], [22], [24], [25]; sin embargo, la versión actual de SensorMov solo permite la identificación de objetos estático con tres puntos de toque y la captura de los datos crudos. Potencialmente, se puede extender la identificación de objetos a figuras más complejas e incluir algoritmos de procesamiento de señales para suavizar y estabilizar la captura de datos crudos. Así mismo, se encontró que los estudiantes (n=22) tienden a identificar varios gestos similares como medios de ingreso de información al móvil. Se reconoce que estos gestos (como swipe, scroll, voltear o agitar el celular, etc.) podrían ser provistos por la biblioteca, y que no sea tarea del desarrollador final.

    La biblioteca presentada es potencialmente aplicable en el desarrollo de experiencias interactivas que hagan uso del dispositivo móvil como interfaz de interacción o como dispositivo para el cómputo de información, en caso de que los datos sean capturados a través de sus sensores. Un campo en el que ha crecido el uso de este tipo de experiencias es en el desarrollo de artefactos museales para la divulgación de la ciencia y la tecnología, o incluso como estrategia para conectar más estrechamente a los públicos con los contenidos de las exhibiciones en museos tradicionales [42], [43]. Así mismo, el sector educativo utiliza ampliamente las interfaces tangibles teniendo en cuenta su esencia fenomenológica que contribuye a la incorporación del conocimiento y la apropiación de contenidos [37], [38].

    Adicionalmente, esta biblioteca puede ser usada en proyectos educativos orientados a conocer los paradigmas de programación móvil y específicamente para el sistema operativo Android. En el caso de evaluación presentado, se evidenció cómo los estudiantes tuvieron curvas rápidas de aprendizaje, realizando los ejemplos en un periodo aproximado de tres horas, incluso en los casos en los que no habían realizado previamente programación con Android. En particular, para los hispanoparlantes, es de gran ayuda encontrar las funcionalidades y la documentación en su lengua, reduciendo el temor de enfrentarse a herramientas nuevas y desconocidas.

    6. CONCLUSIONES

    Esta versión de SensorMov, biblioteca nativa para dispositivos móviles con sistema operativo Android, permite recoger datos crudos de los sensores los ejes x, y, z: acelerómetro, giroscopio, magnetómetro, y vector de rotación. Así mismo, captura los datos de la pantalla multitáctil, entregando una lista de puntos con su posición x,y, presión y amplitud del toque si están disponibles. Del sensor GPS entrega los datos crudos de latitud, longitud y, si el hardware del celular lo permite, altitud. Además, implementa funciones de alto nivel para identificar objetos a través de dos métodos, determinar el ángulo de giro de un móvil según una orientación inicial y localizar la posición (x,y,z) de un imán según una calibración de partida. Respecto a la identificación de objetos, el primer método utiliza el campo magnético estático de un imán anclado al objeto, de manera que se realiza una calibración inicial seguida de un proceso de entrenamiento para asociar la etiqueta del objeto a su campo magnético. El segundo método de identificación se realiza a través de la pantalla táctil, asignando a un objeto un identificador de acuerdo con la posición angular y radial de tres puntos de marcación.

    El trabajo futuro incluye el desarrollo de nuevas funcionalidades de alto nivel, como la identificación de mayor número de tangibles en la pantalla multitáctil, el uso del micrófono como sensor para la triangulación de posición de las fuentes de audio y el reconocimiento de una mayor diversidad de gestos mediante el uso combinado de los diferentes sensores. Adicionalmente, es fundamental que la documentación de la biblioteca sea más clara en cuanto a la variable tiempo: ¿Cuánto tiempo tarda la captura de los datos?, ¿Cuánto tiempo se demora el entrenamiento en las clases de identificación magnética e identificación táctil?, ¿Cuánto tarda en reconocer un objeto luego de haber hecho el entrenamiento? Además de requerir esta información en la documentación, la cada una de las clases podría hacer el cálculo y proveerlo a través de la bitácora LOG. Otro aspecto de gran relevancia para el trabajo futuro se encuentra en la construcción de comunidad alrededor de la biblioteca. Al ser un desarrollo de código abierto, es importante que los desarrolladores de habla hispana la conozcan y contribuyan con la ampliación de sus funcionalidades, el ajuste de errores, los foros de discusión sobre su uso y dificultades, entre otros.

    7. AGRADECIMIENTOS

    Este artículo es producto del proyecto INV-ING-2981 “Diálogos de saberes en la creación de interfaces físicas artesanales para la interacción con dispositivos móviles”, financiado por la Vicerrectoría de Investigaciones de la Universidad Militar Nueva Granada, Vigencia 2019.

    CONFLICTO DE INTERÉS

    No existe conflicto de interés de los autores.

    CONTRIBUCIÓN DE LOS AUTORES

    Camilo Urdaneta: Ajuste de la documentación, creación del repositorio, desarrollo del taller de evaluación, escritura del artículo.

    Julián Rodríguez-Almanza: Desarrollo inicial de SensorMov y documentación preliminar.

    Laura Cortés-Rico: Concepción y diseño de SensorMov, escritura del artículo, investigadora principal del proyecto Diálogo de Saberes.

    8. REFERENCIAS

    • arrow_upward [1]   B. Myers, «A Brief History of Human Computer Interaction Technology», Interactions, vol. 5, pp. 44-54, mar. 1998, https://doi.org/10.1145/274430.274436
    • arrow_upward [2]   H. Ishii, «The Tangible User Interface and Its Evolution», Commun. ACM, vol. 51, n.o 6, pp. 32-36, jun. 2008, https://doi.org/10.1145/1349026.1349034
    • arrow_upward [3]   L. R. Ramos Aguiar y F. J. Álvarez Rodríguez, «Methodology for Designing Systems Based on Tangible User Interfaces and Gamification Techniques for Blind People», Appl. Sci., vol. 11, n.o 12, n.o 12, ene. 2021, https://doi.org/10.3390/app11125676
    • arrow_upward [4]   L. E. Holmquist, O. Zuckerman, R. Ballagas, H. Ishii, K. Ryokai, y H. Zhang, «The Future of Tangible User Interfaces», en Extended Abstracts of the 2019 CHI Conference on Human Factors in Computing Systems, Glasgow Scotland Uk, may 2019, pp. 1-6. https://doi.org/10.1145/3290607.3311741
    • arrow_upward [5]   Editorial La República, «Uso de smartphones incrementó 4,5% en Colombia, según reporte de We are social y Hootsuite», Diario La República. https://www.larepublica.co/internet-economy/uso-de-smartphones-incremento-4-5-en-colombia-segun-reporte-de-we-are-social-y-hootsuite-3241151 (accedido 14 de junio de 2022)
    • arrow_upward [6]   P. M. Vera, R. A. Rodríguez, y M. R. Martínez, «Interfaces tangibles - una nueva forma de interactuar con los smartphones», En XX Workshop de Investigadores en Ciencias de la Computación (WICC 2018, Universidad Nacional del Nordeste)., 2018. Accedido: 29 de junio de 2022. [En línea]. Disponible en: http://sedici.unlp.edu.ar/handle/10915/67966
    • arrow_upward [7]   V. Cheung y A. Girouard, «Tangible Around-Devices Interaction Using Rotatory Gestures with a Magnetic Ring», En Proc. 21st Int. Conf. Hum.-Comput. Interact. Mob. Devices Serv., 2019, https://doi.org/10.1145/3338286.3340137
    • arrow_upward [8]   S. Mayer, L. Lischke, A. Lanksweirt, H. Viet Le, y N. Henze, «How to communicate new input techniques», En Proc. 10th Nord. Conf. Hum.-Comput. Interact., 2018, https://doi.org/10.1145/3240167.3240176
    • arrow_upward [9]   P. Guiraud, El lenguaje del cuerpo. Fondo de Cultura Económica, 1993
    • arrow_upward [10] J. M. Carroll, M. B. Rosson, y J. M. Carroll, «Participatory design in community informatics», Des. Stud., vol. 28, n.o. 3, pp. 243-261, May. 2007, https://doi.org/10.1016/j.destud.2007.02.007
    • arrow_upward [11] I. Koskinen, J. Zimmerman, T. Binder, J. Redström, y S. Wensveen, «Constructive Design Research», en Design Research Through Practice, Boston: Morgan Kaufmann, 2012, pp. 1-13. https://doi.org/10.1016/B978-0-12-385502-2.00001-8
    • arrow_upward [12] L. Cortés-Rico y G. Piedrahita-Solórzano, «Participatory Design in Practice», en Human-Computer Interaction – INTERACT 2015, sep. 2015, pp. 518-525. https://doi.org/10.1007/978-3-319-22698-9_35
    • arrow_upward [13] S. Gallagher, «Phenomenology», en The Encyclopedia of Human-Computer Interaction, 2014. [En línea]. Disponible en: https://www.interaction-design.org/literature/book/the-encyclopedia-of-human-computer-interaction-2nd-ed/phenomenology
    • arrow_upward [14] M. Merleau-Ponty, Phenomenology of Perception. Routledge, 2012
    • arrow_upward [15] T. Pérez-Bustos y M. Franco-Avellaneda, «Embroidering Self-knowledge: Systematization of Experiences and Participatory Design of Weaving As a Caring Practice in Cartago, Valle, Colombia», en Proceedings of the 13th Participatory Design Conference: Short Papers, Industry Cases, Workshop Descriptions, Doctoral Consortium Papers, and Keynote Abstracts – Vol. 2, New York, NY, USA, 2014, pp. 99-102. https://doi.org/10.1145/2662155.2662173
    • arrow_upward [16] L. Cortés-Rico, «ApTUI - Framework para el diseño participativo de interacciones tangibles», Pontificia Universidad Javeriana, Bogotá, 2015. [En línea]. Disponible en: https://docplayer.es/35500910-Pi-aptui-framework-para-el-diseno-participativo-de-interacciones-tangibles.html
    • arrow_upward [17] D. K. Rosner y K. Ryokai, «Spyn: Augmenting the Creative and Communicative Potential of Craft», en Proceedings of the SIGCHI Conference on Human Factors in Computing Systems, New York, NY, USA, 2010, pp. 2407-2416. https://doi.org/10.1145/1753326.1753691
    • arrow_upward [18] I. Posch y E. Kurbak, «CRAFTED LOGIC Towards Hand-Crafting a Computer», en Proceedings of the 2016 CHI Conference Extended Abstracts on Human Factors in Computing Systems, New York, NY, USA, 2016, pp. 3881-3884 https://doi.org/10.1145/2851581.2891101
    • arrow_upward [19] I. Poupyrev, N.-W. Gong, S. Fukuhara, M. E. Karagozler, C. Schwesig, y K. E. Robinson, «Project Jacquard: Interactive Digital Textiles at Scale», en Proceedings of the 2016 CHI Conference on Human Factors in Computing Systems, New York, NY, USA, 2016, pp. 4216-4227. https://doi.org/10.1145/2858036.2858176
    • arrow_upward [20] T. Pérez - Bustos, «Hilvanar tecnologías digitales y procesos de tejido o costura artesanal: una revisión crítica de prácticas», Signo Pensam., vol. 36, n.o 70, p. 14, jul. 2017, https://doi.org/10.11144//Javeriana.syp36-70.htdp
    • arrow_upward [21] S. Kratz, T. Westermann, M. Rohs, y G. Essl, «CapWidgets: Tangile Widgets Versus Multi-touch Controls on Mobile Devices», en CHI ’11 Extended Abstracts on Human Factors in Computing Systems, New York, NY, USA, 2011, pp. 1351-1356. https://doi.org/10.1145/1979742.1979773
    • arrow_upward [22] L. Chan, S. Müller, A. Roudaut, y P. Baudisch, «CapStones and ZebraWidgets: Sensing Stacks of Building Blocks, Dials and Sliders on Capacitive Touch Screens», en Proceedings of the SIGCHI Conference on Human Factors in Computing Systems, New York, NY, USA, 2012, pp. 2189-2192. https://doi.org/10.1145/2207676.2208371
    • arrow_upward [23] K. Wolf et al., “TUIs in the Large,” en Proceedings of the 33rd Annual ACM Conference Extended Abstracts on Human Factors in Computing Systems, New York, NY, USA, Apr. 2015, pp. 1579–1584. https://doi.org/ 10.1145/2702613.2732863
    • arrow_upward [24] F. Strada and A. Bottino, “ToMMI - A Software Library for Multiplatform Tangible Mobile Interaction,” en Proceedings of the 12th International Joint Conference on Computer Vision, Imaging and Computer Graphics Theory and Applications, Porto, Portugal, 2017, pp. 100–107.  https://doi.org/10.5220/0006141401000107
    • arrow_upward [25] H. V. Le, S. Mayer, y N. Henze, «InfiniTouch: Finger-Aware Interaction on Fully Touch Sensitive Smartphones», en Proceedings of the 31st Annual ACM Symposium on User Interface Software and Technology, New York, NY, USA, oct. 2018, pp. 779-792. https://doi.org/10.1145/3242587.3242605
    • arrow_upward [26] M. Kaltenbrunner, «reacTIVision and TUIO: a tangible tabletop toolkit», en ACM Internationa Conference on Interactive Tabletops and Surfaces, ITS, 2009, p. 9. https://doi.org/10.1145/1731903.1731906
    • arrow_upward [27] M. Fetter, C. Beckmann, and T. Gross, “MagnetiCode,” en Proceedings of the 8th International Conference on Tangible, Embedded and Embodied Interaction, Munich, Germany, Feb. 2014, pp. 205–212. https://doi.org/10.1145/2540930.2540963
    • arrow_upward [28] R. Xiao, S. Mayer, y C. Harrison, «VibroComm: Using Commodity Gyroscopes for Vibroacoustic Data Reception», en 22nd Int. Conf. Hum.-Comput. Interact. Mob. Devices Serv., n.o 5, pp. 1-9, 2020
    • arrow_upward [29] S Z. Zhou, J. Xu, A. Balasubramanian, y D. E. Porter, «A Survey of Patterns for Adapting Smartphone App UIs to Smart Watches», en 22nd International Conference on Human-Computer Interaction with Mobile Devices and Services, New York, NY, USA: Association for Computing Machinery, 2020, pp. 1-11. Accedido: 6 de julio de 2022. [En línea]. Disponible en: http://doi.org/10.1145/3379503.3403564
    • arrow_upward [30] J. Normann Larsen, T. Højgaard Jacobsen, S. Boring, J. Bergström, y H. Pohl, «The Influence of Hand Size on Touch Accuracy», en Proc. 21st Int. Conf. Hum.-Comput. Interact. Mob. Devices Serv., n.o 4, pp. 1-11, 2019, http://doi.org/10.1145/3338286.3340115
    • arrow_upward [31] H. Viet Le, S. Mayer, B. Steuerlein, y N. Henze, «Investigating Unintended Inputs for One-Handed Touch Interaction Beyond the Touchscreen», en Proc. 21st Int. Conf. Hum.-Comput. Interact. Mob. Devices Serv., n.o 34, pp. 1-14, 2019
    • arrow_upward [32] R. Bhargava y C. D´Ignazio, «Data sculptures as a playful and low-tech introduction to work with data», 2017, Accedido: 22 de junio de 2022. [En línea]. Disponible en: https://www.media.mit.edu/publications/data-sculptures-as-a-playful-and-low-tech-introduction-to-working-with-data/
    • arrow_upward [33] Y. Jansen et al., «Opportunities and Challenges for Data Physicalization», en Proceedings of the 33rd Annual ACM Conference on Human Factors in Computing Systems, New York, NY, USA, 2015, pp. 3227-3236. https://doi.org/10.1145/2702123.2702180
    • arrow_upward [34] S. Bae, R. Yang, P. Gyory, J. Uhr, D. A. Szafir, and E. Y.-L. Do, “Touching Information with DIY Paper Charts & AR Markers,” en Interaction Design and Children, Athens, Greece, Jun. 2021, pp. 433–438. https://doi.org/10.1145/3459990.3465191
    • arrow_upward [35] C. Sanz, G. Gorga, P. M. Pesado, y V. Artola, «Diseño de un juego basado en Interacción Tangible para la enseñanza de Programación», Accedido: 27 de febrero de 2023. [En línea]. Disponible en: https://core.ac.uk/display/153566495?utm_source=pdf&utm_medium=banner&utm_campaign=pdf-decoration-v1
    • arrow_upward [36] H. Zeng, X. He, y H. Pan, «FunPianoAR: A Novel AR Application for Piano Learning Considering Paired Play Based on Multi-Marker Tracking», J. Phys. Conf. Ser., vol. 1229, n.o 1, p. 012072, may 2019, https://doi.org/10.1088/1742-6596/1229/1/012072
    • arrow_upward [37] H. K. H. Suzuki, «Algoblock: a tangible programming language, a tool for collaborative learning», 1993
    • arrow_upward [38] P. Marshall, «Do tangible interfaces enhance learning?», en Proceedings of the 1st international conference on Tangible and embedded interaction, New York, NY, USA, 2007, pp. 163-170. https://doi.org/10.1145/1226969.1227004
    • arrow_upward [39] Tiggly, «Tiggly», https://www.tiggly.com/ (accedido 23 de abril de 2018)
    • arrow_upward [40] J. Rodríguez-Almanza, «Desarrollo de una biblioteca que permita la programación de aplicaciones móviles que utilicen interfaces físcas artesanales». M.S. tesis, Universidad Militar Nueva Granada, Bogotá, Colombia, 2020. [En línea]. Disponible en: http://hdl.handle.net/10654/36921
    • arrow_upward [41] L. Cortes-Rico y J. Rodriguez Almanza, «SensorMov, mobile devices as/for tangible user interfaces», en X Latin American Conference on Human Computer Interaction, New York, NY, USA, nov. 2021, pp. 1-3. https://doi.org/10.1145/3488392.3488409
    • arrow_upward [42] M. S. Horn, E. T. Solovey, y R. J. K. Jacob, «Tangible programming and informal science learning: making TUIs work for museums», en Proceedings of the 7th international conference on Interaction design and children, New York, NY, USA, jun. 2008, pp. 194-201. https://doi.org/10.1145/1463689.1463756
    • arrow_upward [43] J. Ma, L. Sindorf, I. Liao, y J. Frazier, «Using a Tangible Versus a Multi-touch Graphical User Interface to Support Data Exploration at a Museum Exhibit», en Proceedings of the Ninth International Conference on Tangible, Embedded, and Embodied Interaction, New York, NY, USA, ene. 2015, pp. 33-40. https://doi.org/10.1145/2677199.2680555