Chen y Nizan Sagiv tuvieron esta idea cuando se encontraban en un
concierto de Depeche Mode en Tel Aviv hace cinco años. «Yo no quitaba
ojo del espectáculo y, mientras tanto, Nizan contemplaba a la multitud»,
relató Chen, coordinadora del proyecto SCENENET. «Llamó su atención la
innumerable cantidad de luces tenues proyectadas por las pantallas de
los teléfonos móviles. El público estaba grabando vídeos de la
actuación. A Nizan se le ocurrió la interesante posibilidad de fusionar
todos los vídeos captados por toda esa gente y elaborar un vídeo
mejorado, fruto de la sinergia y posiblemente en 3D. Sopesamos la idea
durante muchos meses, pero nos parecía demasiado futurista, arriesgada y
complicada».
Colaboración entre Israel y Europa
Solicitaron asesoramiento en ISERD, la
dirección de I+D para Israel y Europa
, y se pusieron en contacto con el profesor Peter Maass, de la
Universidad de Bremen (Alemania), y con el profesor Pierre
Vandergheynst, de la École Polytechnique Fédérale (EPFL) de Lausana
(Suiza), con quien Chen ya había colaborado en un proyecto anterior
amparado en el Séptimo Programa Marco llamado
UNLOCX .
Fruto de todo ello es SCENENET, al que la Comisión Europea otorgó
fondos por valor de 1,33 millones de euros y que está coordinado por la
empresa de Chen y Nizan, con sede en Ra’anana, llamada SagivTech,
especializada en visión artificial y computación paralela.
SCENENET, financiado a través del programa de
tecnologías futuras y emergentes (TFE)
al igual que UNLOCX, estará en marcha hasta enero de 2016 y cuenta con
el concurso de cuatro socios europeos: la Universidad de Bremen,
Steinbeis Innovation y European Research Services (los tres con sede en
Alemania) y la EPFL (Suiza).
Durante el primer año del proyecto, su equipo ha desarrollado la
infraestructura móvil necesaria para los canales de transmisión de
vídeo, un mecanismo para etiquetarlos y su transmisión a un servidor en
la nube. También se han desarrollado herramientas básicas para crear una
interfaz humano-ordenador que permitirá a los usuarios visualizar el
espectáculo en 3D desde cualquier punto del estadio y modificar por sí
mismos la grabación resultante. En opinión de sus responsables, de este
modo surgirán comunidades en línea que compartirán los contenidos para
poder revivir todos juntos la experiencia del concierto. Con este
objetivo en mente, los socios se disponen a estudiar temas de privacidad
y de derechos de propiedad intelectual durante los próximos dos años
del proyecto.
«Al final del primer año, adelantándonos a las previsiones, habíamos
articulado el procedimiento completo de SCENENET partiendo de
componentes tecnológicos punteros», aseguró Chen. Ciertamente, la
creación de los algoritmos de visión artificial acelerados para móviles
representa una labor pionera a nivel mundial, y por ello algunos de los
más importantes fabricantes de chips siguen muy de cerca la evolución de
esta iniciativa.
SCENENET plantea varios retos tecnológicos: un preprocesado en el
propio dispositivo que requiere una potencia de computación inmensa; la
transmisión eficaz de las grabaciones en vídeo; el desarrollo de métodos
precisos y rápidos de registro entre las distintas grabaciones; y la
reconstrucción tridimensional. Todas estas tareas deben ejecutarse casi
en tiempo real.
«Opinamos que los distintos componentes que forman SCENENET, por
ejemplo el registro de imágenes y la reconstrucción tridimensional,
poseen grandes posibilidades para la computación móvil y en la nube.
Así, SCENENET ofrece una innovación tecnológica drástica, tanto en
conjunto como en cada uno de sus componentes», añadió.
No solo conciertos
A medida que avanza el proyecto se plantea una infinidad de usos
posibles de SCENENET. Siempre que se solventen los aspectos relacionados
con la privacidad y otros derechos, esta tecnología podría utilizarse
también para recrear otros acontecimientos en tres dimensiones, como
noticias de última hora o deportivas, o también en los sectores del
turismo y la vigilancia. Los socios estudian la posibilidad de grabar
objetos estáticos y también activos desde distintos ángulos a fin de
crear instrucciones que puedan enviarse a impresoras en 3D. Su modelo de
servidor en la nube para móviles podría emplearse asimismo para un
sinfín de otras aplicaciones, afirman los investigadores. Pero por el
momento se centran en los aficionados a la música.
«SCENENET trata sobre cámaras de móvil y visión en 3D. Gracias a la
"invasión" de las cámaras de móvil y la mejora constante de su calidad,
estamos rebosantes de imágenes que queremos mejorar y enseñar con gran
orgullo a los demás. Se están desarrollando muchos dispositivos que
"comprenden" la información visual recibida (como Google Glass), y la
mayor parte de sus trabajos se fundamentan en el tratamiento de la
imagen y en la visión artificial. La visión en 3D no hace sino cobrar
importancia para mejorar la visualización del mundo y también para
facilitar el análisis de ese mundo», explicó la coordinadora.
SCENENET supone un buen ejemplo de colaboración investigadora entre
la Unión Europea e Israel. Cerca de 1 600 científicos israelíes se han
beneficiado del Séptimo Programa Marco por medio de más de 800 proyectos
financiados por la Comisión Europea con fondos por valor de 634
millones de euros dedicados a muy diversos campos, desde la
investigación puntera y las TIC hasta la nanotecnología, pasando por la
energía y la salud.
«Esta es una oportunidad de formar parte de las prósperas
comunidades científica e industrial europeas y de colaborar con
destacados socios académicos y empresas de Europa», reconoció Chen a
modo de conclusión.
La investigación de SCENENET fue subvencionada por el Séptimo Programa Marco (7PM) de la Unión Europea.
Enlace al proyecto en CORDIS:
-
el 7PM en CORDIS-
ficha informativa del proyecto SCENENET en CORDIS
Enlace a la página web del proyecto:
-
página web de SCENENET
Otros enlaces:
-
web de la Comisión Europea dedicada a la Agenda Digital
-
«Uncertainty principles versus localization properties»
-
HORIZON 2020 - Future and Emerging Technologies