En una reciente investigación y aclaro para ser muy objetivo, aplicada principalmente al habla con pruebas en idioma inglés, el investigador Bryan Glick y Donald Derrick de la Universidad de Columbia Británica, en Vancouver, Canada publicó una investigación en la que concluyen que micro vibraciones en la piel al momento de recibir un mensaje audible determinan también el modo en que las escuchamos. Hicieron una prueba en la que sonidos que requieren cierta exhalación fueron generados con otros que no, pero en los sujetos de prueba al emitirles sonidos son exhalación, independientemente en alguna extremidad o cuello recibian una ligera presión de aire o ligero soplido, el resultado es que creyeron escuchar un sonido pero de los del tipo que emiten naturalmente una exhalación o soplo al pronunciarlos.
MAS INTERESANTE AUN - retomando el asunto de las pruebas a doble ciego ABX - es leer que para estos investigadores la unión de percepción auditiva y visual NO VAN SEPARADAS. Es decir en VERDADERAS esferas de investigación esto se da ya por hecho, percepcion auditiva se respalda también en la visual y ahora según lo descubierto en lo tactil. Así que no nos preocupemos por lo que se dice en sitios y agrupaciones pseudo audiófilas y pseudio científicas creyentes del ABX con sus "pruebas y procedimientos científicos" pues al parecer su enfoque está sesgado, es inútil y demuestra profunda ignorancia del proceso perceptivo auditivo.
Dejo aquí algunos de los pocos documentos al respecto que pude encontrar, el primero un artículo de Henry Fountain, encargado de la sección de Ciencia en el periódico New Yoork Times, posteriormente el trabajo de Bryan Glick, Donald Derrick y Peter Anderson, lamentablemente su nvestigación no está disponible libremente, cuesta 25 USD la descarga.
Are you feeling it?
We hear with our ears, right? Yes, but scientists have known for years that we also hear with our eyes. In a landmark study published in 1976, researchers found that people integrate auditory cues and visual cues, like mouth and face movements, when they hear speech.
A new study that looks at a different set of sensory cues adds to a growing body of evidence that suggests the ability to use different senses to hear is innate.In a paper in Nature, the international weekly journal, Bryan Glick and Donald Derrick of the University of British Columbia report that people can hear with their skin.The researchers had subjects listen to spoken syllables while hooked up to a device that would simultaneously blow a tiny puff of air onto the skin of their hand or neck. The syllables included “pa” and “ta,” which produce a brief puff from the mouth when spoken, and “ba” and “da,” which don’t produce puffs. They found that when listeners heard “ba” or “da” while a puff of air was blown onto their skin, they perceived the sound as “pa” or “ta.”Gick said the findings were similar to the 1976 study, in which visual cues trumped auditory ones—subjects listened to one syllable but perceived another because they were watching video of mouth movements corresponding to the second syllable. In his study, he said, cues from sensory receptors on the skin trumped the ears as well. “Our skin is doing the hearing for us,” he said.Gick noted that it would normally be rare that someone actually sensed a puff of air produced by another, although people might occasionally sense their own puffs. Either way, he said, the stimulus is very subtle, “which suggests it is very powerful.”“What’s so persuasive about this particular effect,’ he added, “is that people are picking up on this information that they don’t know they are using.” That supports the idea that integrating different sensory cues is innate.Gick said the finding also suggested there might be other sensory cues at work in speech perception—that, as he put it, “we are these fantastic perception machines that take in all the information available to us and integrate it seamlessly.”By Henry Fountain, The New York Times
No hay comentarios:
Publicar un comentario