Resumen del proyecto 2016

El proyecto ‘Sonido, espacio, inmersión e interacción’ ha sido desarrollado por el colectivo ArsGames –en residencia en LABoral en 2015- y ha sido financiado por el Grupo de Mecenazgo Expandido. El resultado son herramientas de interacción que se ofrecerán a los colegios de la región y que pueden posicionar Asturias en una referente en el entorno laboral y educativo.

Sonido, espacio, inmersión e interacción es un proyecto de investigación basado en el desarrollo de una serie de entornos virtuales en los que se exploran los diferentes niveles de realidad a través de la interacción de los usuarios con el espacio físico, la realidad aumentada y los mundos virtuales. El proyecto ha sido desarrollado en estrecha colaboración entre el colectivo ArsGames y LABoral Centro de Arte y Creación Industrial, desde el mes de octubre de 2015.

Como resultado de esta investigación, se han desarrollado una serie de recursos que van de la mano de metodologías innovadoras que puede posicionar Asturias como un referente en el entorno laboral y educativo, ya que se trata de una serie de aplicaciones abiertas para que los alumnos, los profesores y otros agentes trabajen de manera conjunta.

Para buscar posibles vías de implantación de esta serie de tecnologías, el grupo de Arsgames ha trabajado con estas herramientas -durante todo el año académico- con IES Barredos y el colegio público Granda. Este proyecto forma parte de futuras áreas de investigación para adaptar estas tecnologías a varios formatos y contextos, tratando de implementar las líneas de trabajo de los Fablabs y MEdialabs a los centros educativos de diferente naturaleza.

A través de la integración de elementos de la vida cotidiana como el espacio urbano, se reflexiona en torno al potencial y las dimensiones de acceso e interacción con el mundo virtual, a través de dispositivos emergentes como los HMD (Head-Mounted Display) y los MSID (Motion Sensing Input Device). Surge así un escenario en el que el espacio virtual, en retroalimentación con el espacio físico, se configura como un ámbito de expresión para los estudiantes, quienes desarrollan su potencial creativo y tienen la oportunidad de experimentar con el entorno a través de las artes, potenciando al mismo tiempo su capacidad para generar ideas.

Con todo ello, disciplinas artísticas como la danza, la performance, la pintura interactiva, el arte generativo y digital o la propia música (incluyendo el paisaje sonoro), encuentran un espacio de confluencia gracias a las tecnologías táctiles y la realidad aumentada y virtual, en un proceso de retroalimentación donde intervienen numerosos agentes: docentes, estudiantes, artistas, ingenieros, etcétera.

Sonido, espacio, inmersión e interacción tiene como objetivo principal redefinir el espacio educativo, gracias a tecnologías como la realidad virtual, aumentada o sensores de movimiento basados en infrarrojos. La implantación de este tipo de tecnologías proyecta nuevas dinámicas de relación con el espacio y la información, potenciando líneas de investigación en metodologías experimentales e innovadoras.

El proyecto integra las siguientes tecnologías:

-HMD o gafas de realidad virtual. Se utilizan las Oculus Rift DK2 a nivel experimental para experiencias inmersivas. Una serie de entornos virtuales desarrollados ad hocpara investigar en torno a su uso como contenidos educativos.

-Aplicaciones de realidad aumentada. Consiste en usar los elementos del espacio físico como experiencias interconectadas con el espacio virtual.

-Dispositivos de entrada basados en la detección por luz e infrarrojos, como Kinect o Leap Motion. A través del movimiento corporal o de las manos, se investigan en torno a las posibilidades de estos dispositivos para llevar a cabo actividades experimentales en el contexto educativo, como la composición sonora generativa o la acción de esculpir.

-En líneas de investigación futuras, se plantea el uso de dispositivos y wearables que registran la actividad cerebral, de tipo biométrico, para su uso experimental con fines educativos y su implementación en espacios de aprendizaje.

Sonido, espacio, inmersión e interacción se enmarca dentro del programa Mecenazgo Expandido, dirigido por Alicia Ventura, y en el que también colaboran Colección ACB, Julián Castilla, Tanalot 98  y Mariano Yera. Se trata de un modelo de colaboración que involucra a un grupo de coleccionistas privados y que se presenta como un nuevo paradigma en el ámbito del fomento de la creación artística y de la financiación cultural en espacios públicos.

Más información aquí.

 

Sonido kinético

Sonido-Kinetico

Espacio, inmersión, interacción es un proyecto de investigación para el desarrollo de una herramienta educativa en colaboración con LABoral, Centro de Arte y Creación Industrial (Gijón).

Unas de las partes que componen la investigación es el instrumento “Sonido-Kinetico”, un instrumento sonoro interactivo controlado por los movimientos de las manos.

La experimentación sonora es una de las partes fundamentales del proyecto, ya que consideramos que muchos modelos de interacción con la tecnología pasan por lo sonoro. Asociar una composición a ciertos patrones de movimiento facilita los procesos de interacción y relación con el entorno, utilizando al mismo tiempo la dinámica del juego para descubrir diferentes formas y dimensiones de llevar a cabo esta relación con el entorno.

Sonido-Kinetico está compuesto por dos componentes de software y un sensor microsoft kinect.

En primer lugar, un programa de seguimiento rastrea el movimiento de los brazos de la jugadora y envía la información de posición por medio de un protocolo de comunicación estándar denominado OpenSoundControl. Actualmente hay varios programas que realizan esta tarea, dependiendo del sistema operativo, y todos ellos están basados en la librería openNI.

En windows puedes usar delicode NI mate, en mac synapse y en linux OSCeleton. Los datos de posición en el espacio de las manos se envía y usan como parámetros de control para dos sintetizadores escritos en el lenguaje de programación visual Pure Data. A través de este lenguaje, especialmente diseñado para la composición sonora en tiempo real, el movimiento de cada mano se convierte en un sonido “ruidista” que a partir de un efecto de “feedback” hecho por el micrfono logra construir una dinámica sonora casi musical.

Consideramos el desarrollo de este instrumento como un primer acercamiento a prácticas de carácter  educativo donde convergen la tecnología y la creación musical. En breve publicaremos el proceso de desarrollo del segundo instrumento, en la misma línea de investigación de “sonido kinetico“, y que pretende abrir líneas de trabajo en colaboración con centros educativos basadas en esta relación.

Durante estas semanas, personas de diferentes colectivos que colaboran con LABoral en el ámbito educativo, han tenido la oportunidad de probar Sonido-Kinetico, resultando en una experiencia enriquecedora, que nos impulsan a seguir trabajando en esta línea.