Por: Redacción
¿Te ha pasado que tienes una canción en la mente pero no logras recordar cuál es? Claro, ya existen aplicaciones como Shazam que son de gran ayuda cuando vas escuchando la radio y descubres una nueva rola, pero, ¿te imaginas que una aplicación lograra leer tu mente? Tal vez ahora eso ya no esté tan lejos de hacerse realidad, al menos eso creen unos investigadores de la Universidad de California, Berkeley.
Años atrás, en 2014, Brian Pasley y sus colegas comenzaron una investigación en la que usaron algoritmos de aprendizaje y actividad cerebral, de esta manera, trataban de convertir los pensamientos de una persona en un discurso sintetizado digitalmente, o lo que es lo mismo, trataban de descifrar los pensamientos. El objetivo se logró gracias a un análisis de las ondas cerebrales de una persona, mientras hablaba, se iba decodificando el vínculo entre su plática y su actividad cerebral.
Pero ahora, ese grupo de investigadores ha mejorado sus experimentos y los aplicaron a la música. Ahora, fueron capaces de predecir en qué sonidos estaba pensando un pianista, esto con base en su actividad cerebral.
“Durante la percepción auditiva, cuando escuchas sonidos como el habla o la música, sabemos que ciertas partes de la corteza auditiva descomponen estos sonidos en frecuencias acústicas, por ejemplo, tonos bajos o altos. Probamos si estas mismas áreas cerebrales también procesan sonidos imaginarios de la misma manera que verbalizas internamente el sonido de tu propia voz, o imaginas el sonido de la música clásica en una habitación silenciosa. Descubrimos que había una gran superposición, pero también diferencias claras en cómo el cerebro representa el sonido de la música imaginada. Al construir un modelo de aprendizaje automático de la representación neural del sonido imaginario, usamos el modelo para adivinar con precisión razonable qué sonido se imaginó en cada instante en el tiempo”, dijo Pasley a Digital Trends.
En este nuevo estudio, el equipo grabó la actividad cerebral de un pianista mientras éste tocaba en un teclado eléctrico. Así, lograron hacer coincidir los patrones cerebrales y las notas que tocó. Cuando volvieron a hacer el experimento, apagaron en esa ocasión el sonido del teclado y le pidieron al músico que imaginara las notas que había tocado, lo que les permitió crear un algoritmo de predicción de música.
“El objetivo a largo plazo de nuestra investigación es desarrollar algoritmos para un dispositivo prostático del habla para restablecer la comunicación en personas paralizadas que no pueden hablar. Estamos bastante lejos de realizar ese objetivo, pero este estudio representa un importante paso adelante. Demuestra que la señal neuronal durante las imágenes auditivas es suficientemente robusta y precisa para su uso en algoritmos de aprendizaje automático que pueden predecir señales acústicas de la actividad cerebral medida”, dijo Pasley.
Vía: Sopitas