Interface Computacional para Controle Musical Utilizando os Movimentos dos Olhos

Visualizações: 124

Autores

  • Higor Araújo Fim Camporez Universidade Federal do Espí­rito Santo
  • Anselmo Frizera Neto Universidade Federal do Espí­rito Santo
  • Leandro Lesqueves Costalonga Universidade Federal do Espí­rito Santo
  • Helder Roberto de Oliveira Rocha Universidade Federal do Espí­rito Santo

DOI:

https://doi.org/10.33871/23179937.2018.6.2.2616

Resumo

O último censo demográfico do Brasil relata que cerca de 13,1 milhões de pessoas se declaram com alguma deficiência do tipo motora. O avanço tecnológico tem contribuí­do na promoção da acessibilidade e inclusão por meio das técnicas de tecnologia assistiva. Este trabalho apresenta uma interface computacional para controle musical, porém com foco em promover acessibilidade e inclusão a inúmeras pessoas. Por meio do movimento dos olhos o usuário pode controlar uma interface gráfica que envia mensagens (MIDI) para o software Ableton Live com objetivo de controlar a execução sonora. Visando o uso por pessoas leigas no campo musical, a interface proporciona indicações de escolhas para direcionar o usuário a gerar sons mais conexos. As indicações podem ser configuradas de forma manual ou automatizada com auxí­lio do algoritmo de agrupamento K-means.

Downloads

Não há dados estatísticos.

Biografia do Autor

Higor Araújo Fim Camporez, Universidade Federal do Espí­rito Santo

É mestrando em engenharia elétrica, na área de telecomunicações e tecnologia da informação, pela Universidade Federal do Espí­rito Santo (UFES). É graduado em Engenharia da Computação pela UFES - CEUNES. É membro do grupo de pesquisa NESCoM (Núcleo Espí­rito-santense de Computação Musical), auxiliando no desenvolvimento de software e hardware. Participou de um projeto de iniciação cientí­fica sobre Smartgrid, financiado pela FAPES. Foi membro da empresa júnior Adapti com cargo de assessor de desenvolvimento. E-mail: higorcamporez@gmail.com

Anselmo Frizera Neto, Universidade Federal do Espí­rito Santo

Graduado em Engenharia Elétrica pela Universidade Federal do Espí­rito Santo (2006). Doutor em Eletrônica pela Universidad de Alcalá (2010). Foi pesquisador do Grupo de Bioengenharia do Consejo Superior de Investigaciones Cientí­ficas entre 2006 e 2010. Atualmente, é Professor Adjunto do Departamento de Engenharia Elétrica e Docente Permanente do Programa de Pós-Graduação em Engenharia Elétrica, ambos da Universidade Federal do Espí­rito Santo - Brasil. Atua como membro da Junta Diretiva da Asociación Iberoamericana de Tecnologí­as de Apoyo a la Discapacidad, contribuindo no apoio í  difusão do conhecimento na área de tecnologias de apoio í  deficiência. Possui experiência em Eletrônica e Engenharia Biomédica, atuando principalmente nos seguintes temas: robótica de reabilitação, desenvolvimento de sensores e interfaces homem-máquina, análise de marcha (gait analysis), processamento de sinais biomédicos, tecnologias de apoio í  deficiência e ajuda í  mobilidade. E-mail: frizera@ieee.org

Leandro Lesqueves Costalonga, Universidade Federal do Espí­rito Santo

É professor do Departamento de Computação e Eletrônica da Universidade Federal do Espí­rito Santo, onde também coordena o grupo de pesquisa denominado NESCoM - Núcleo Espí­rito-santense de Computação Musical. Doutor em Computação Musical pela University of Plymouth (UK), atua na pesquisa interdisciplinar nas áreas de: multimí­dia, interação homem-computador, linguagens de programação, inteligência artificial, computação ubí­qua, e computação musical, sendo a última a principal linha de pesquisa. Atualmente, além do NESCoM, está ligado aos grupos de pesquisa de Computação Musical (UFRGS), Música Ubí­qua (NAP/UFAC) e Computação Aplicada (UFES). E-mail: leandro.costalonga@ufes.br

Helder Roberto de Oliveira Rocha, Universidade Federal do Espí­rito Santo

Possui Doutorado e Mestrado em Computação Cientí­fica e Sistemas de Potência - UFF, Especialização em Administração e Negócios - UCAM, Bacharelado em Administração - UFRRJ e Graduação em Engenharia Elétrica - UFF. Tem experiência na área de Engenharia Elétrica, atuando principalmente nos seguintes temas: Estimação de Estado, Metaheurí­sticas, Sistema de Potência e Telecomunicações. Foi Tutor Presencial no curso de Tecnologia de Sistemas de Computação oferecido pelo CEDERJ, professor no Instituto Federal do Espí­rito Santo e do Departamento de Computação e Eletrônica do CEUNES/UFES. Realizou pesquisa no âmbito do programa Pós-Doutorado da CAPES na UFES. Ocupa atualmente o cargo de Professor Classe C - Adjunto II do Departamento de Engenharia Elétrica da UFES. E-mail: helder.rocha@ufes.br

Referências

ALVA, M. et al. An image based eye controlled assistive system for paralytic patients. In: INTERNATIONAL CONFERENCE ON COMMUNICATION SYSTEMS, COMPUTING AND IT APPLICATIONS, 2., 2017, Mumbai. Anais... IEEE, 2017. DOI: https://doi.org/10.1109/CSCITA.2017.8066549

ANTON, H.; RORRES, C. Elementary Linear Algebra: Applications Version. 11. ed. USA: Wiley Global Education, 2013.

BRASIL. Lei n. 13.146, de 6 de jul. de 2015. Lei Brasileira de Inclusão da Pessoa com Deficiência (Estatuto da Pessoa com Deficiência). Brasí­lia, DF, jul. 2017. Disponí­vel em: < http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2015/lei/l13146.htm>.

CAMPOREZ, H. et al. RoboMus: Sistema de performances musicais robóticas. In: WORKSHOP ON UBIQUITOUS MUSIC, 7., 2016, Foz do Iguaçu. Anais... Foz do Iguaçu: 2016.

COOLEY, J. W.; LEWIS, P. A. W.; WELCH, P. D. The Fast Fourier Transform and its Applications. IEEE Transactions on Education, v. 12, n. 1, p. 27–34, 1969. DOI: https://doi.org/10.1109/TE.1969.4320436

CORRÊA, A. G. D. et al. GenVirtual: um Jogo Musical para Reabilitação de Indiví­duos com Necessidades Especiais. Revista Brasileira de Informática na Educação, v. 16, n. 1, p. 9–17, 2008.

FORNARI, J. Aplicações artí­sticas de ubimus. NICS Reports, n. 8, p. 16–26, 2014.

FUTRELLE, J.; DOWNIE, J. S. Interdisciplinary Research Issues in Music Information Retrieval: ISMIR 2000--2002. Journal of New Music Research, v. 32, n. 2, p. 121–131, 2003. DOI: https://doi.org/10.1076/jnmr.32.2.121.16740

HANTRAKUL, L.; KACZMAREK, K. Implementations of the Leap Motion device in sound synthesis and interactive live performance. In: INTERNATIONAL WORKSHOP ON MOVEMENT AND COMPUTING, 14., 2014, Paris. Anais... NY, USA: ACM, 2014. DOI: https://doi.org/10.1145/2617995.2618020

HORNOF, A. J.; SATO, L. EyeMusic: Making Music with the Eyes. In: INTERNATIONAL CONFERENCE ON NEW INTERFACES FOR MUSICAL EXPRESSION, 4., 2004, Hamamatsu. Anais... Singapore: National University of Singapore, 2004.

IBGE. Censo Demográfico 2010 - Caracterí­sticas Gerais da População, Religião, e Pessoas com Deficiência. Disponí­vel em: <http://biblioteca.ibge.gov.br/visualizacao/periodicos/94/cd_2010_religiao_deficiencia.pdf>.

JAIN, A. K. Data clustering: 50 years beyond K-means. Pattern Recognition Letters, v. 31, n. 8, p. 651–666, 2010. DOI: https://doi.org/10.1016/j.patrec.2009.09.011

KELLER, D. et al. Música Ubí­qua: Conceito e Motivação. In: CONGRESSO DA ANPPOM, 19., 2009, Curitiba. Anais... Curitiba: PPGM/UFPR, 2009.

KELLER, D. et al. Convergent Trends Toward Ubiquitous Music. Journal of New Music Research, v. 40, n. 3, p. 265–276, 2011. DOI: https://doi.org/10.1080/09298215.2011.594514

KIM, J.; SCHIEMER, G.; NARUSHIMA, T. Oculog: playing with eye movements. In: INTERNATIONAL CONFERENCE ON NEW INTERFACES FOR MUSICAL EXPRESSION, 7., 2007, New York, USA. Anais... NY, USA: ACM, 2007. DOI: https://doi.org/10.1145/1279740.1279747

KRÓLAK, A.; STRUMIÅÅO, P. Eye-blink detection system for human-computer interaction. Universal Access in the Information Society, v. 11, n. 4, p. 409–419, 2012. DOI: https://doi.org/10.1007/s10209-011-0256-6

LAZZARINI, V. et al. Development Tools for Ubiquitous Music on the World Wide Web. In: KELLER, D.; LAZZARINI, V.; PIMENTA, M. (Eds.). Ubiquitous Music. Cham: Springer, 2014a. p. 111–128. DOI: https://doi.org/10.1007/978-3-319-11152-0_6

LAZZARINI, V. et al. Prototyping of Ubiquitous Music Ecosystems. In: WORKSHOP ON UBIQUITOUS MUSIC, 5., 2014, Vitória. Anais...Vitória: 2014b.

LOURO, V. S.; IKUTA, C. Y.; NASCIMENTO, M. Música e deficiência: levantamento de adaptações para o fazer musical de pessoas com deficiência. Arquivos Brasileiros de Paralisia Cerebral, v. 1, n. 2, p. 11–17, 2005.

LUPU, R. G. et al. Eye tracking user interface for Internet access used in assistive technology. In: E-HEALTH AND BIOENGINEERING CONFERENCE, 6., 2017, Sinaia. Anais...IEEE, 2017. DOI: https://doi.org/10.1109/EHB.2017.7995510

MARTIN, A. et al. Creative experiments using a system for learning high-level performance structure in ableton live. In: SOUND AND MUSIC COMPUTING CONFERENCE, 9., 2012, Copenhagen. Anais...2012.

MOOG, R. A. MIDI: Musical Instrument Digital Interface. J. Audio Eng. Soc, v. 34, n. 5, p. 394–404, 1986.

OLHAR MUSICAL. Olhar Musical - Experimentação Sonora com Jazz e Distância Euclidiana. 2018a. Disponí­vel em: <https://youtu.be/PAgRCXpyuwg>. Acesso em: <28 set. 2018>.

OLHAR MUSICAL. Olhar Musical - Experimentação Sonora com Jazz e Distâncias Aleátórias. 2018b. Disponí­vel em: <https://youtu.be/ZKgkqn168_k>. Acesso em: <28 set. 2018>.

OLHAR MUSICAL. Música Eletrônica Feita com os Olhos. 2018c. Disponí­vel em: <https://youtu.be/YDj8pr3Cnx8>. Acesso em: <28 set. 2018>.

OLHAR MUSICAL. Olhar Musical - Música Feita com os Olhos #1. 2018d. Disponí­vel em: <https://youtu.be/PzSIt603LWo>. Acesso em: <28 set. 2018>.

PIMENTA, M. S. et al. Methods in Creativity-Centred Design for Ubiquitous Musical Activities. In: KELLER, D.; LAZZARINI, V.; PIMENTA, M. (Eds.). Ubiquitous Music. Cham: Springer, 2014. p. 25–48. DOI: https://doi.org/10.1007/978-3-319-11152-0_2

POOLE, A.; BALL, L. Eye tracking in human-computer interaction and usability research: Current status and future prospects. In: ENCYCLOPEDIA OF HUMAN COMPUTER INTERACTION. USA: Idea Group Reference, 2006. p. 211–219. DOI: https://doi.org/10.4018/978-1-59140-562-7.ch034

ROBERTSON, A.; PLUMBLEY, M. D. B-Keeper : A Beat-Tracker for Live Performance. In: INTERNATIONAL CONFERENCE ON NEW INTERFACES FOR MUSICAL EXPRESSION, 7., 2017, New York. Anais... New York: ACM, 2007. DOI: https://doi.org/10.1145/1279740.1279787

VAMVAKOUSIS, Z.; RAMIREZ, R. Temporal control in the EyeHarp gaze-controlled musical interface. In: INTERNATIONAL CONFERENCE ON NEW INTERFACES FOR MUSICAL EXPRESSION, 12., 2012, Ann Arbor. Anais... Ann Arbor: University of Michigan, 2012.

WHO, (WORLD HEALTH ORGANIZATION). International Classification of Functioning, Disability and Health, 2001. Disponí­vel em: <http://apps.who.int/iris/bitstream/handle/10665/43737/9789241547321_eng.pdf;jsessionid=36A69A0C518E07E7411F5C69E0BFE282?sequence=1>. Acesso em: 28 set. 2018.

WHO, (WORLD HEALTH ORGANIZATION). Relatório mundial sobre a deficiência, 2012. Disponí­vel em: <http://apps.who.int/iris/bitstream/handle/10665/70670/WHO_NMH_VIP_11.01_por.pdf?sequence=9>. Acesso em: 1 jun. 2018.

Downloads

Publicado

01.09.2018

Como Citar

Camporez, H. A. F., Frizera Neto, A., Costalonga, L. L., & Rocha, H. R. de O. (2018). Interface Computacional para Controle Musical Utilizando os Movimentos dos Olhos. Revista Vórtex, 6(2). https://doi.org/10.33871/23179937.2018.6.2.2616

Edição

Seção

Artigos | Dossiê "Ubimus"

Métricas