El próximo 28 de febrero, en Medialab-Prado (Marid), Luca Carrubba (presidente de ArsGames) presentará el Laboratorio de Educación Aumentada (LEA), un proyecto que pretende establecer metodologías de trabajo y de codiseño con dispositivos de realidad virtual y aumentada en colegios e institutos.
Esta intevención en la que ArsGames explicará y presentará los resultados de LEA se entronca dentro de la presentación de Arte e Innovación Educativa en la Era Digital, publicación bilingüe sobre las experiencias interdisciplinares de enseñanza y aprendizaje de LABoral Centro de Arte y Creación Industrial. Asimismo, se presentarán los resultados de la beca de Mecenazgo Expandido de la que ArsGames resultó beneficiaria y gracias a la cual surge LEA.
Fecha: 28 de febrero de 2018 |19:00 h. – 21:00 h.
Lugar: Medialab Prado (Madrid)
Programa:
19: 00 h. Presentación del programa AuLAB y los resultados de la beca de Mecenazgo Expandido
Ponente: Karin Ohlenschläger (Directora Artística de LABoral)
19:30 h. Presentación del Laboratorio de Educación Aumentada (LEA)
Prácticas pedagógicas a través del uso de tecnología de realidad virtual y aumentada para el contexto de la educación formal
Ponente: Luca Carrubba
Arrancamos LEA, segunda fase del proyecto de investigación ‘Sonido, espacio, inmersión e interacción’ que entre 2015 y 2016 realizamos en colaboración con LABoral Centro de Arte y Creación Industrial (Gijón) para la concepción y desarrollo de herramientas educativas.
Entre 2015 y 2016, gracias al programa Mecenazgo Expandido de LABoral Centro de Arte y Creación Industrial, llevamos a cabo el proyecto de investigación ‘Sonido, espacio, inmersión e interacción: HMD y MSID para el desarrollo de entornos virtualies y aumentados’, un proyecto de investigación para conceptualizar y desarrolar una serie de herramientas educativas con una base de transformación social y crítica desde el punto de vista tecnológico. Durante su desarrollo se profundizó en la transformación que ofrece la implantación de tecnologías como la realidad virtual y los dispositovs sensores de movimiento, entre otras, en las metodologías usadas en la educación, así como su reflexión en torno al potencial que tienen para generar nuevos discursos o propiciar el empoderamiento de la comunidad y trasnformaciones en contextos sociales específicos.
Ahora, dicho proyecto, llega a una segunda fase: LEA (Laboratorio de Educación Aumentada). LEA es un laboratorio expandido de codiseño de prácticas pedagógicas a través del uso de tecnologías de realidad virtual, aumentada y mixta para contextos de educación formal que, bajo la coordinación de ArsGames y el apoyo de LABoral Centro de Arte y Creación Industrial, tiene lugar en diversas ciudades en España y México.
Durante las próximas semanas, como arranque de esta nueva etapa, pretendemos divulgar los resultados, valoraciones y logros de la primera fase del proyecto, cuya investigación, experimentación y producción de herramientas educativas pudo verse implementada y testada gracias a la colaboración con varios centros educativos del Principado de Asturias, transformando los diferentes centros educativos en laboratorios de experimentación con la tecnología como herramienta de aprendizaje.
Todo ello podrá consultarse en la nueva página web del proyecto, en cuyo blog se documentan las distintas sesiones y valoraciones de la primera etapa del mismo: lea.arsgames.net.
Contacto: [email protected]
El Proyecto de investigación en torno al desarrollo de una herramienta educativa, llevado a cabo por ARSGAMES en colaboración con LABoral Centro de Arte y Creación Industrial, ha tenido una buena acogida y repercusión en distintos medios. Desde ARSGAMES seguimos publicando y divulgando tanto el tratamiento y las diferentes perspectivas que le dan lo medios, como las impresiones en primera persona de la gente que colaboró en el proyecto.
Desde este espacio, queremos dar especialmente las gracias a las chicas y chicos del Colegio Público de Granda (Siero), con quienes hemos trabajado estrechamente y con quienes estaríamos encantados de seguir colaborando, ya que la experiencia ha sido enriquecedora por ambas partes. Desde aquí, mandamos un afectuoso saludo a Gabriel, Nico, Aarón, Víctor, Kevin, Lázaro, Abraham, Yolanda, y al resto de alumnado del colegio. También a las profesoras y los profesores por su implicación y por el admirable trabajo que realizan cada día, entre los se encuentran Jesús García y Javier Silvero, con quienes hemos tenido el placer de colaborar directamente.
Entre estos muchos relatos, historias y cabida en medios que ha dado (y dará) este proyecto, os dejamos con un vídeo que recoge las impresiones en primera persona del grupo de alumnos del Colegio Público de Granda, cuya voz creemos que es sin duda imprescindible (si no de las más importantes) para contar este tipo de experiencias.
El proyecto en medios:
El proyecto ‘Sonido, espacio, inmersión e interacción’ ha sido desarrollado por el colectivo Arsgames –en residencia en LABoral en 2015- y ha sido financiado por el Grupo de Mecenazgo Expandido. El resultado son herramientas de interacción que se ofrecerán a los colegios de la región y que pueden posicionar Asturias en una referente en el entorno laboral y educativo.
Sonido, espacio, inmersión e interacción es un proyecto de investigación basado en el desarrollo de una serie de entornos virtuales en los que se exploran los diferentes niveles de realidad a través de la interacción de los usuarios con el espacio físico, la realidad aumentada y los mundos virtuales. El proyecto ha sido desarrollado en estrecha colaboración entre el colectivo ArsGames y LABoral Centro de Arte y Creación Industrial, desde el mes de octubre de 2015.
Como resultado de esta investigación, se han desarrollado una serie de recursos que van de la mano de metodologías innovadoras que puede posicionar Asturias como un referente en el entorno laboral y educativo, ya que se trata de una serie de aplicaciones abiertas para que los alumnos, los profesores y otros agentes trabajen de manera conjunta.
Para buscar posibles vías de implantación de esta serie de tecnologías, el grupo de Arsgames ha trabajado con estas herramientas -durante todo el año académico- con IES Barredos y el colegio público Granda. Este proyecto forma parte de futuras áreas de investigación para adaptar estas tecnologías a varios formatos y contextos, tratando de implementar las líneas de trabajo de los Fablabs y MEdialabs a los centros educativos de diferente naturaleza.
A través de la integración de elementos de la vida cotidiana como el espacio urbano, se reflexiona en torno al potencial y las dimensiones de acceso e interacción con el mundo virtual, a través de dispositivos emergentes como los HMD (Head-Mounted Display) y los MSID (Motion Sensing Input Device). Surge así un escenario en el que el espacio virtual, en retroalimentación con el espacio físico, se configura como un ámbito de expresión para los estudiantes, quienes desarrollan su potencial creativo y tienen la oportunidad de experimentar con el entorno a través de las artes, potenciando al mismo tiempo su capacidad para generar ideas.
Con todo ello, disciplinas artísticas como la danza, la performance, la pintura interactiva, el arte generativo y digital o la propia música (incluyendo el paisaje sonoro), encuentran un espacio de confluencia gracias a las tecnologías táctiles y la realidad aumentada y virtual, en un proceso de retroalimentación donde intervienen numerosos agentes: docentes, estudiantes, artistas, ingenieros, etcétera.
Sonido, espacio, inmersión e interacción tiene como objetivo principal redefinir el espacio educativo, gracias a tecnologías como la realidad virtual, aumentada o sensores de movimiento basados en infrarrojos. La implantación de este tipo de tecnologías proyecta nuevas dinámicas de relación con el espacio y la información, potenciando líneas de investigación en metodologías experimentales e innovadoras.
El proyecto integra las siguientes tecnologías:
- HMD o gafas de realidad virtual. Se utilizan las Oculus Rift DK2 a nivel experimental para experiencias inmersivas. Una serie de entornos virtuales desarrollados ad hocpara investigar en torno a su uso como contenidos educativos.
- Aplicaciones de realidad aumentada. Consiste en usar los elementos del espacio físico como experiencias interconectadas con el espacio virtual.
- Dispositivos de entrada basados en la detección por luz e infrarrojos, como Kinect o Leap Motion. A través del movimiento corporal o de las manos, se investigan en torno a las posibilidades de estos dispositivos para llevar a cabo actividades experimentales en el contexto educativo, como la composición sonora generativa o la acción de esculpir.
- En líneas de investigación futuras, se plantea el uso de dispositivos y wearables que registran la actividad cerebral, de tipo biométrico, para su uso experimental con fines educativos y su implementación en espacios de aprendizaje.
Sonido, espacio, inmersión e interacción se enmarca dentro del programa Mecenazgo Expandido, dirigido por Alicia Ventura, y en el que también colaboran Colección ACB, Julián Castilla, Tanalot 98 y Mariano Yera. Se trata de un modelo de colaboración que involucra a un grupo de coleccionistas privados y que se presenta como un nuevo paradigma en el ámbito del fomento de la creación artística y de la financiación cultural en espacios públicos.
Más información aquí.
“Espacio, inmersión, interacción’ es un proyecto de investigación para el desarrollo de una herramienta educativa en colaboración con LABoral, Centro de Arte y Creación Industrial (Gijón).
Unas de las partes que componen la investigación es el instrumento «Sonido-Kinetico», un instrumento sonoro interactivo controlado por los movimientos de las manos.
La experimentación sonora es una de las partes fundamentales del proyecto, ya que consideramos que muchos modelos de interacción con la tecnología pasan por lo sonoro. Asociar una composición a ciertos patrones de movimiento facilita los procesos de interacción y relación con el entorno, utilizando al mismo tiempo la dinámica del juego para descubrir diferentes formas y dimensiones de llevar a cabo esta relación con el entorno.
Sonido-Kinetico está compuesto por dos componentes de software y un sensor microsoft kinect.
En primer lugar, un programa de seguimiento rastrea el movimiento de los brazos de la jugadora y envía la información de posición por medio de un protocolo de comunicación estándar denominado OpenSoundControl. Actualmente hay varios programas que realizan esta tarea, dependiendo del sistema operativo, y todos ellos están basados en la librería openNI.
En windows puedes usar delicode NI mate, en mac synapse y en linux OSCeleton. Los datos de posición en el espacio de las manos se envía y usan como parámetros de control para dos sintetizadores escritos en el lenguaje de programación visual Pure Data. A través de este lenguaje, especialmente diseñado para la composición sonora en tiempo real, el movimiento de cada mano se convierte en un sonido «ruidista» que a partir de un efecto de «feedback» hecho por el micrfono logra construir una dinámica sonora casi musical.
Consideramos el desarrollo de este instrumento como un primer acercamiento a prácticas de carácter educativo donde convergen la tecnología y la creación musical. En breve publicaremos el proceso de desarrollo del segundo instrumento, en la misma línea de investigación de «sonido kinetico«, y que pretende abrir líneas de trabajo en colaboración con centros educativos basadas en esta relación.
Durante estas semanas, personas de diferentes colectivos que colaboran con LABoral en el ámbito educativo, han tenido la oportunidad de probar Sonido-Kinetico, resultando en una experiencia enriquecedora, que nos impulsan a seguir trabajando en esta línea.