Mostrar el registro sencillo del ítem

dc.contributor.authorDe la Rosa, Fernandospa
dc.contributor.authorDuque, Carlosspa
dc.contributor.authorHernández, José Tiberiospa
dc.date.accessioned2020-10-27T00:20:26Z
dc.date.available2020-10-27T00:20:26Z
dc.date.issued2013-12-01
dc.identifier.issn2539-2115
dc.identifier.issn1657-2831
dc.identifier.urihttp://hdl.handle.net/20.500.12749/8908
dc.description.abstractEste trabajo presenta una propuesta del componente de interacción de usuario multimodal para ser integrado principalmente con aplicaciones de computación visual 2D/3D. El componente considera múltiples canales de entrada de información funcionando simultáneamente. Sobre cada canal de entrada se define un proceso de tratamiento de información que corresponde a una modalidad de interacción disponible al usuario. La información resultante de las diferentes modalidades se integra para definir acciones/comandos conjuntos de interacción hacia la aplicación computacional. La interacción multimodal busca ser más natural para el usuario, lo cual significa una interacción más fácil y agradable. La propuesta fue validada integrando una componente de interacción multimodal basada en gestos manuales y voz con la aplicación Bing-Maps para realizar la tarea de navegación en mapas 2D en un ambiente de visualización de mediano formato. El prototipo de integración fue validado por un conjunto de usuarios y se obtuvieron resultados preliminares de su funcionalidad y de la experiencia de usuario resultante.spa
dc.format.mimetypeapplication/pdfspa
dc.language.isospaspa
dc.publisherUniversidad Autónoma de Bucaramanga UNAB
dc.relationhttps://revistas.unab.edu.co/index.php/rcc/article/view/2019/1804
dc.relation.urihttps://revistas.unab.edu.co/index.php/rcc/article/view/2019
dc.rightsDerechos de autor 2013 Revista Colombiana de Computación
dc.rights.urihttp://creativecommons.org/licenses/by-nc-sa/4.0/*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/2.5/co/
dc.sourceRevista Colombiana de Computación; Vol. 14 Núm. 2 (2013): Revista Colombiana de Computación; 141-161
dc.subjectInnovaciones tecnológicas
dc.subjectCiencia de los computadores
dc.subjectDesarrollo de tecnología
dc.subjectIngeniería de sistemas
dc.subjectInvestigaciones
dc.subjectTecnologías de la información y las comunicaciones
dc.subjectTIC´s
dc.titlePropuesta de interacción multimodal: caso de estudio navegación en mapas
dc.title.translatedMultimodal interaction proposal: navigation map case studyeng
dc.type.driverinfo:eu-repo/semantics/article
dc.type.localArtículospa
dc.type.coarhttp://purl.org/coar/resource_type/c_7a1f
dc.subject.keywordsTechnological innovationseng
dc.subject.keywordsComputer scienceeng
dc.subject.keywordsTechnology developmenteng
dc.subject.keywordsSystems engineeringeng
dc.subject.keywordsInvestigationseng
dc.subject.keywordsInformation and communication technologieseng
dc.subject.keywordsICT'seng
dc.subject.keywordsMan-machine interaction,eng
dc.subject.keywordsMultimodal interactionspa
dc.subject.keywordsGesture interactioneng
dc.subject.keywordsVoice interactioneng
dc.subject.keywordsNavigation on mapseng
dc.identifier.instnameinstname:Universidad Autónoma de Bucaramanga UNABspa
dc.type.hasversioninfo:eu-repo/semantics/acceptedVersion
dc.rights.accessrightsinfo:eu-repo/semantics/openAccessspa
dc.relation.referencesS. Oviatt, “Multimodal Interfaces,” Handbook of HumanComputer Interaction, 2002, Capítulo 14, pp. 286-304.
dc.relation.referencesC. Duque, F. De la Rosa, J.T. Hernández. “Multimodal Interaction Architecture applied to Navigation in Maps,” VIII Congreso Colombiano de Computación (8CCC), Armenia, Colombia, 2013.
dc.relation.referencesMicrosoft Bing-Maps. (2013, Mar 4). [En línea] Disponible: http://www.bing.com/maps/.
dc.relation.referencesM.J. Egenhofer, “Query processing in spatial-query-by-sketch,” J. Visual Languages and Computing, vol. 8, no. 4, pp. 403-434, 1997.
dc.relation.referencesD. McGee, P. Cohen, L. Wu, “Something from nothing: Augmenting a paper-based work practice via multimodal interaction,” en Proc. ACM Designing Augmented Reality Environments, 2000, pp. 71-80.
dc.relation.referencesJ. Florence, K. Hornsby, M.J. Egenhofer, “The GIS WallBoard: Interactions with spatial information on large-scale displays,” en th 7 Int. Symp. on Spatial Data Handling SDH, 1996, pp. 449-463.
dc.relation.referencesM. Johnston, S. Bangalore, G. Vasireddy, “MATCH: Multimodal access to city help,” en Autom. Speech Recognit. and Understand. Works., 2001.
dc.relation.referencesL. B. Larsen, R. B. Jensen, K. L. Jensen, S. Larsen, “Development of an automatic pool trainer,” en Proc. ACM SIGCHI Int. Conf. of Advances in Computer Entertainment Technology ACE, 2005, pp. 83-87.
dc.relation.referencesL.R. Ruiz, F. De la Rosa, J.T. Hernández, “Platform integrating interactive applications with gesture-based interaction,” en XXXVIII Conf. Latinoamericana en Informática CLEI, 2012.
dc.relation.referencesY. Ying, “A hierarchical approach to continuous gesture analysis for natural multi-modal interaction,” en Proc. 14th ACM Int. Conf. on Multimodal Interaction ICMI, 2012, pp. 357-360.
dc.relation.referencesF. Daiber, S. Gehring, M. Löchtefeld, A. Krüger, “TouchPosing: multi-modal interaction with geospatial data,” en Proc. 11th Int. Conf. on Mobile and Ubiquitous Multimedia (MUM), 2012, Article 8.
dc.relation.referencesMicrosoft. “Kinect for Windows SDK”. (2013, Mar 4). [En línea] Disponible: http://msdn.microsoft.com/en-us/library/hh85 5347.aspx.
dc.relation.referencesD. Catuhe, Programming with the Kinect for Windows software development kit. Ed. Microsoft Press, 2012.
dc.relation.referencesMicrosoft. “Microsoft Speech Platform”. (2013, Mar 4). [En línea] Disponible: http://msdn.microsoft.com/en-us/library/hh361 572.aspx.
dc.relation.referencesS. Oviatt, A. DeAngeli, K. Kuhn, “Integration and synchronization of input modes during multimodal human-computer interaction,” en Proc. ACM SIGCHI CHI Conference, 1997, pp. 415-422.
dc.relation.referencesJ. Chang, M.-L. Bourguet, “Usability framework for the design and nd evaluation of multimodal interaction,” en Proc. of the 22 British HCI Group Annu. Conf. on People and Computers: Culture, Creativity, Interaction BCS-HCI, 2008, pp. 123-126.
dc.relation.referencesM. Turunen, J. Hakulinen, A. Melto, T. Heimonen, T. Laivo, J. Hella, “SUXES-user experience evaluation method for spoken and multimodal interaction,” en Proc. of INTERSPEECH Conf., 2009, pp. 2567-2570.
dc.contributor.googlescholarDe la Rosa, Fernando [UB6e9ywAAAAJ]spa
dc.contributor.googlescholarHernández, José Tiberio [-gUUc7oAAAAJ]spa
dc.contributor.orcidDe la Rosa, Fernando [0000-0002-9066-7225]spa
dc.contributor.orcidHernández, José Tiberio [0000-0002-5035-4363]spa
dc.contributor.researchgateDe la Rosa, Fernando [Jose-Hernandez-104]spa
dc.subject.lembInnovaciones tecnológicasspa
dc.subject.lembCiencias de la computaciónspa
dc.subject.lembDesarrollo tecnológicospa
dc.subject.lembIngeniería de sistemasspa
dc.subject.lembInvestigacionesspa
dc.subject.lembTecnologías de la información y la comunicaciónspa
dc.identifier.repourlrepourl:https://repository.unab.edu.co
dc.description.abstractenglishThis paper presents a proposal for the user interaction component multimodal to be integrated mainly with computer applications 2D/3D view. The component considers multiple input channels of information running simultaneously. On each input channel defines an information processing process that corresponds to a mode of interaction available to the user. The information resulting from the different modalities are integrated to define joint actions/commands of interaction towards the computational application. multimodal interaction seeks to be more natural for the user, which means easier interaction And pleasant. The proposal was validated by integrating a component of multimodal interaction based on manual gestures and voice with the application Bing-Maps to carry out the task of navigation on 2D maps in an environment of medium format display. The integration prototype was validated by a set of users and preliminary results were obtained from their functionality and the resulting user experience.eng
dc.subject.proposalInteracción hombre-máquina,spa
dc.subject.proposalInteracción multimodalspa
dc.subject.proposalInteracción gestualspa
dc.subject.proposalInteracción por vozspa
dc.subject.proposalNavegación en mapasspa
dc.type.redcolhttp://purl.org/redcol/resource_type/CJournalArticle
dc.rights.creativecommonsAtribución-NoComercial-SinDerivadas 2.5 Colombia*


Ficheros en el ítem

Thumbnail

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem

Atribución-NoComercial-SinDerivadas 2.5 Colombia
Excepto si se señala otra cosa, la licencia del ítem se describe como Atribución-NoComercial-SinDerivadas 2.5 Colombia