CÁMARA REFLEX EN VÍDEO

(Alba Corcobado, Jorge González, Sara Félix, Irene Carmona y Lara Sánchez)

A pesar de que las cámaras están diseñadas para realizar fotografías y las videocámaras para hacer vídeos, estas primeras poseen características similares a las segundas que permiten grabar vídeos de buena calidad. Para ello, es importante prestar atención a las siguientes cualidades que debería de cumplir dicha cámara:

  • Tamaño del sensor: En el mercado, existen bastantes modelos que combinan las características de las cámaras de fotos (sensor Super 35similar a APSC y objetivos intercambiables compatibles con los sistemas réflex o mirrorless) con la ergonomía y funciones extra de las cámaras de vídeo tradicionales. Cuanto mayor sea el sensor, tendremos un mayor control sobre la profundidad de campo (enfoques y desenfoques), un mejor comportamiento con escasa luz (menor ruido a ISO alto), y más calidad de color.
  • Variedad de objetivos: las cámaras réflex tienen la posibilidad de cambiar de objetivo, mientras que las videocámaras no, lo que proporciona una mayor variedad, luego al usar el más adecuado acorde con la situación es fundamental para conseguir producciones de calidad.
  • Peso y tamaño: debido a que las cámaras réflex están pensadas para unas determinadas posturas, es necesario incorporar una serie de complementos extra: soporte para sujeción al hombro, sistema de ayuda al enfoque manual (follow focus), visor externo para acoplar a la pantalla o visor electrónico, sistema de grabación de audio, micrófono externo, entre otros.
  • Relación calidadprecio: cabe destacar que, aunque con las videocámaras podemos obtener una mejor calidad de vídeo, sus preciosos son elevados. En comparación, las cámaras réflex pueden producir calidades profesionales de vídeo a un precio mucho más económico – una cámara réflex/mirrorless de gama media puede conseguir producciones de vídeo más que decentes, e incluso similares a las realizadas con videocámaras de gamas altas[1].

Principalmente, las cámaras réflex son empleadas para grabar vídeos de Youtube, videoblogs en general o para pequeñas producciones profesionales, destacando en este ámbito también las Go Pro[2]. No obstante, conocidas series como House han grabado capítulos con este tipo de cámaras (Canon EOS 5D Mark II), aunque no es posible grabar durante más de 30 minutos de seguido[3].

Además, la televisión se ha apropiado de esta tecnología, aparentemente de nivel usuario. Un ejemplo de ello es el programa Escépticos, una serie de divulgación científica ideada por José A. Pérez y presentada por Luis Alfonso Gámez. Además de tener un contenido muy atractivo, el programa se presenta con una imagen con mucha clase y muy personal grabada con cámaras Canon DSLR, equipos cuyo uso en programas de televisión no es tan frecuente como en otros campos.

grabando

Ilustración: Grabación de ‘Escépticos’[4]

Su realizador es Aitor Gutiérrez, quien en una entrevista afirmó que eligieron las DSLR porque buscaban

“Una estética muy moderna y rompedora, y las DSLR nos lo podían ofrecer. Son cámaras muy manejables, dan una calidad de 1920 x 1080, se les pueden adaptar diferentes ópticas, puedes jugar con la obturación y lo mejor de todo es que se pueden colocar en sitios insospechados […]. Con las DSLR conseguiríamos que los edificios quedaran representados de una forma muy original ya que podríamos adaptar una Lensbaby y desenfocar las partes del encuadre que más nos interesara”.

La única desventaja de estas cámaras es que tienen un tiempo limitado de duración de batería, luego es necesario llevar repuesto o estar dispuesto a cortar una grabación. En ocasiones, hubo problemas con la temperatura de las cámaras, peor en comparación con el tiempo de grabación, fue inapreciable. El realizador añade que “el sonido se recogía aparte, en un grabador externo y la sincronización se realizaba con el Pluraleyes”[5].

Pluraleyes es una herramienta indispensable para sincronizar el audio en doble sistema. Este software permite ahorrar mucho tiempo al agregar una pista de vídeo con audio de referencia y el audio grabado en nuestra grabadora, con un par de clics sincronizarlo y reemplazar el audio de referencia con el audio de calidad[6].

A modo de conclusión, se busca una fusión entre el mundo de la imagen y del vídeo, para lo cual se han diseñado numerosos dispositivos. No obstante, aparatos como la cámara réflex permiten una confluencia entre ambos, obteniendo siempre una buena calidad.

REFERENCIAS

[1] Reflex (2016). Cámaras para vídeo: Por qué usar una réflex para vídeo.  Qué cámara réflex. Disponible en: http://quecamarareflex.com/por-que-usar-una-reflex-para-video/

[2] Reflex (2017). Cámaras para vídeo: Cámaras recomendadas para vídeo (videoblog, youtube, etc.). Qué cámara réflex. Disponible en: http://quecamarareflex.com/camaras-recomendadas-video-videoblog-youtube-etc-2016/

[3] Pérez, M (2011). Cámaras: Toda La Verdad Sobre La Grabación De Vídeo Con Cámaras Réflex. Blog del fotógrafo. Disponible en: http://www.blogdelfotografo.com/grabacion-video-camara-reflex/

[4] Imagen de grabación de ‘Escépticos’. Disponible en: http://www.finalcutpro.es/2011/10/entrevista-aitor-gutierrez-realizador-de-escepticos/

[5] Ugarriza, J (2011). ENTREVISTA: Aitor Gutiérrez, realizador de Escépticos. Final Cut Pro. Disponible en: http://www.finalcutpro.es/2011/10/entrevista-aitor-gutierrez-realizador-de-escepticos/

[6] Cine digital (2013). Pluraleyes 3 de RedGiant Software ahora también para PC. Disponible en: http://www.cinedigital.tv/pluraleyes-3-de-redgiant-software-ahora-tambien-para-pc/

BIBLIOGRAFÍA

Cine digital (2013). Pluraleyes 3 de RedGiant Software ahora también para PC. Disponible en: http://www.cinedigital.tv/pluraleyes-3-de-redgiant-software-ahora-tambien-para-pc/

Imagen de grabación de ‘Escépticos’. Disponible en: http://www.finalcutpro.es/2011/10/entrevista-aitor-gutierrez-realizador-de-escepticos/

Pérez, M (2011). Cámaras: Toda La Verdad Sobre La Grabación De Vídeo Con Cámaras Réflex. Blog del fotógrafo. Disponible en: http://www.blogdelfotografo.com/grabacion-video-camara-reflex/

Reflex (2016). Cámaras para vídeo: Por qué usar una réflex para vídeo.  Qué cámara réflex. Disponible en: http://quecamarareflex.com/por-que-usar-una-reflex-para-video/

Reflex (2017). Cámaras para vídeo: Cámaras recomendadas para vídeo (videoblog, youtube, etc.). Qué cámara réflex. Disponible en: http://quecamarareflex.com/camaras-recomendadas-video-videoblog-youtube-etc-2016/

Ugarriza, J (2011). ENTREVISTA: Aitor Gutiérrez, realizador de Escépticos. Final Cut Pro. Disponible en: http://www.finalcutpro.es/2011/10/entrevista-aitor-gutierrez-realizador-de-escepticos/

 

Anuncios

INFRAESTRUCTURA TÉCNICA PARA LA GRABACIÓN DE “EL HOBBIT”

(Alba Corcobado, Jorge González, Sara Félix, Irene Carmona y Lara Sánchez)

La cámara utilizada en las producciones 3D (por ejemplo en El Hobbit) es la RED Epic, una cámara de la empresa RED que cuesta un mínimo de 9.500 dólares pero que puede alcanzar los 29.500 en función de las especificaciones que se escojan. Esta cámara graba en digital en tarjetas fácilmente intercambiables de un mínimo de 128 GB de almacenamiento. Es necesario tanto almacenamiento pues esta cámara graba en una resolución mínima de 4K siendo la grabación en 5K (5120 × 2880 píxeles normalmente) la empleada en producciones como El Hobbit. Además de esto, es clave que graba a 48 fotogramas por segundo, pues el ojo humano detecta cerca de 60 fotogramas por segundo y se obtiene una mayor aproximación a la visión tradicional humana de lo que lo haría un ratio de fotogramas por segundo de 24, que es el empleado normalmente en cine.

Ilustración: ‘El Hobbit’ [1]

Por otro lado, si, como dice Dan Hennah (diseñador de producción de la trilogía el Hobbit), se observa el tratamiento del color de la cámara RED Epic, se puede comprobar cómo se come parte del color. Por ello, lo más habitual es aportar más color al objeto, persona o vestimenta que se captura con la cámara y reducir el color en postproducción, en caso de que sea necesario. Se añade color antes y no después de grabar porque en postproducción no se puede crear color si no se dispone de información digital suficiente en las imágenes. El principal punto que sorprende al verse es el cómo se aumenta la intensidad del color en la piel de los actores con el objetivo de que se disponga de la información suficiente al capturarlo con la cámara de RED. Esta necesidad de aumentar la intensidad de color obliga a los especialistas en maquillaje en dar un color más oscuro y rojizo a la piel para mostrar un tono similar al que se vería si recorriera mucha sangre por el cuerpo del actor, de modo que al grabar el color de la piel sea el normal que se vería al grabar con cualquier otra cámara[2].

Otro punto afectado por la grabación con estas cámaras, sobre todo por la alta resolución y los 48 fotogramas por segundo, es el realismo del movimiento del pelo, como dice Peter King (otro miembro del equipo de diseño del Hobbit). Esta calidad de imagen obliga a que el pelo sea real, pues el pelo artificial empleado en casi todas las producciones cinematográficas sería percibido como falso.

Para grabar en 3D existe la necesidad de rodar con 2 cámaras. Esto supone un problema pues las cámaras de cine poseen unas lentes tan grandes que no les permiten obtener una visión interocular (equivalente a la visión que tenemos los humanos por la separación entre los ojos). Para solventarlo, se utiliza un sistema con un espejo con el objetivo de lograr aproximar al máximo las dos lentes y capturar la imagen de modo que se cree esa visión interocular. Este sistema utiliza un espejo a través del cual una de las cámaras captura la imagen mientras que la otra captura la imagen reflejada en un espejo.

Esto permite establecer un punto de convergencia que es, básicamente, la unión del espacio positivo, que es lo que se queda en el fotograma, y del negativo, que es lo que el espectador percibe que se acerca a él.

Este sistema les permite, además, observar los puntos de convergencia en una pantalla y cambiarlos al mismo tiempo que se rueda un escena, de ese modo, se posee la certeza de que la imagen tridimensional capturada es exactamente la deseada. Esto, en palabras de Sean Kelly, un miembro del equipo de rodaje del Hobbit, les permite “ver la película en 3D mientras la ruedan”.

Además de todos estos avances en el sistema de grabación, es clave considerar que la grabación 3D permite montar diferentes mecanismos de cámaras para emplearlos en diferentes situaciones. De este modo, se dispone de un mecanismo para grabar con la cámara en la mano, un mecanismo que permite moverla por raíles, un mecanismo para grúas… El único problema de este sistema es la cantidad de cámaras necesarias para realizar el rodaje de una película en 3D pues se necesitan dos para cada mecanismo y cada mecanismo debe disponer de un modelo principal y uno de repuesto.

Finalmente, sabiendo todo esto sobre la tecnología del 3D, es necesario conocer cómo se realiza el arte conceptual (tradicionalmente diseñado por un artista con un grafito y a mano). En el caso de la trilogía de El Hobbit, lo que se hizo fue aprovechar que las gafas 3D tienen un cristal azul y otro rojo y se dibujó la misma imagen en azul y en rojo para posteriormente tratar de verlas juntas con las gafas 3D[3].

 

REFERENCIAS

[1] Imagen de ‘El Hobbit’. Disponible en: https://imagessl6.casadellibro.com/a/l/t0/56/9788445000656.jpg

[2] RED. Products: Red Epic-W 8K S35. Disponible en: http://www.red.com/products/epicw-8k

[3] Andrei, S (2011). The Hobbit – Behind The Scenes Production Video Blog. [Vídeo de Youtube]. Disponible en: https://www.youtube.com/watch?v=gHF536TJ0iE

BIBLIOGRAFÍA

Andrei, S (2011). The Hobbit – Behind The Scenes Production Video Blog. [Vídeo de Youtube]. Disponible en: https://www.youtube.com/watch?v=gHF536TJ0iE

Imagen de ‘El Hobbit’. Disponible en: https://imagessl6.casadellibro.com/a/l/t0/56/9788445000656.jpg

RED. Products: Red Epic-W 8K S35. Disponible en: http://www.red.com/products/epicw-8k

GRABACIÓN MEDIANTE UAV

(Alba Corcobado, Jorge González, Sara Félix, Irene Carmona y Lara Sánchez)

UAV son las siglas que describen a Unmanned Aerial Vehicle, es decir, a un vehículo aéreo no tripulado, siendo esta la definición más correcta.[1]

Estos instrumentos han ido abriéndose paso en la industria tecnológica y con ello en la propia sociedad, por lo que la Organización de Aviación Civil Internacional (ICAO, siglas en inglés) ha nombrado a estos utensilios como UA (Unmaned Aircraft), conocidos comúnmente como drones o UAV.

Estos aparatos están evolucionando cada vez más rápido, adecuándose a las nuevas necesidades de las grandes organizaciones tecnológicas y proporcionándoles un crecimiento económico en sus ingresos. Este desarrollo está siendo impulsado por el gran consumo, ya que los consumidores demandan dispositivos que cubran sus necesidades.

Cabe destacar que los drones o UAV presentan una serie de características que los distingue. Una de ellas es que son alimentados a través de la energía solar. Además son capaces de enviar señales de Internet a los usuarios de la tierra mediante láseres a más de cincuenta metros de altura en cualquier dirección.

A su vez esta clase de maquinaria duplica su relación precio-rendimiento cada nueve meses, aumentando su exponencialidad, siendo el doble de la que han dispuesto los ordenadores determinada por la ley de Moore.

Están diseñados para favorecer la situación económica de muchas empresas, permitiendo una mayor movilidad en un campo más amplio y con una velocidad de respuesta más alta.

Un caso práctico que permite ver como las oportunidades que ofrecen estos nuevos mecanismos han sido aprovechadas por multitud de organizaciones, es el caso de Amazon. Junto con el gobierno británico han llegado a un acuerdo para probarlos en su territorio, desempeñando las funciones de reparto. Esta ha sido una iniciativa llevada a cabo por Amazon Prime Air. Con ella Amazon quiere conseguir ser “pionero” en esta nueva sección del mercado y convertirse en líder en la implantación de este tipo de sistemas.

De este mismo modo, Amazon ha optado por lucrarse aún más de esta circunstancia trabajando con Matternet, una de las startups presentes en esta demanda. Su objetivo es crear de forma conjunta, una red de vehículos aéreos no tripulados que se encarguen de ofrecer los suministros básicos a regiones que lo requieren, como es el caso de África, proporcionándoles víveres médicos o alimenticios.

Por otra parte, se están realizando numerosas investigaciones para conseguir que estos vehículos sean capaces de realizar otras funciones.

Estas investigaciones estudian, por ejemplo:

  • La capacidad de crear nuevos drones que puedan ofrecer realidad aumentada.
  • Que los humanos podamos controlarlos a través de nuestra mente.
  • Que estos UAV sean dirigidos por Inteligencia Artificial.
  • El desarrollo de drones híbridos.
  • Fabricación de artilugios con la habilidad de generar electricidad.[2]

Por ello, el ámbito audiovisual también ha decidido ser partícipe en la utilización de estos instrumentos. Esto es debido a que la industria cinematográfica y fotográfica muestra unas prestaciones que se adecuan perfectamente a sus requisitos para alcanzar el grado de innovación necesario para poder lograr el éxito.

Por ejemplo, UMILES es una empresa especializada en el sector audiovisual con muchísima experiencia en cuanto a la toma de imágenes o grabaciones aéreas. Esto ha provocado que se haya visto claramente beneficiada con el desarrollo de estos artilugios ya que les permite realizar sus diseños más fácilmente.[3]

Asimismo, hay empresas especializadas en este terreno, que han decidido impartir cursos que permitan la formación profesional de otras personas en el uso de estos drones.[4]

Consecuentemente, cada vez son más los profesionales de este campo, favoreciendo la inclusión de los UAV en más sectores laborales.

No debemos olvidar de que el uso de estos instrumentos requiere encontrarse dentro de la legalidad. Para ello se ha elaborado un nuevo Borrador del Real Decreto de Regulación de RPA (drones) de 2016[5], en el cual hay cuatro puntos muy interesantes para el sector audiovisual.

Dichos puntos son los siguientes:

  • A día de hoy, ya se permiten los vuelos dentro de un núcleo urbano.
  • Se ha aceptado la realización de vuelos con drones de más de 5 kg, admitiendo de esta manera que se pueda disponer de un mejor equipo y así aumentar el número de sensores del UAV.
  • Se va a poder volar en espacio aéreo controlado, avisando previamente a la Agencia Estatal de Seguridad Aérea, quien analizara nuestro dispositivo y el fin al que queremos llegar con esa actividad.
  • Y, por último, se consienten los vuelos en horario nocturno, favoreciendo enormemente a la industria cinematográfica y fotográfica ya que en muchas ocasiones requieren la toma de sus trabajos en este horario.[5]

Como conclusión, los medios audiovisuales que utilicen estas técnicas, son más atractivos para el consumidor, provocando un aumento en su popularidad y consumo. Por otra parte, permiten llevar a cabo proyectos que anteriormente solo tenían cabida en la imaginación de los autores. En cambio, hoy en día se puede grabar cualquier secuencia aérea con estos artilugios permitiendo de este modo la capacidad de capturar planos, secuencias o imágenes inalcanzables sin la ayuda de estos vehículos aéreos no tripulados.

REFERENCIAS

[1] Vera, J.M. (2013). Cuál es la diferencia entre un drone, un UAV y un RPA. One Magazine. Disponible en: http://www.onemagazine.es/noticia/14713/industria/cual-es-la-diferencia-entre-un-drone-un-uav-y-un-rpa.html

[2] Redacción de Futurizable (2016). Qué es un UAV y por qué van a ser tan importantes en el futuro. Futurizable. Disponible en: http://futurizable.com/drones

[3] Unmanned Miles Group. Los RPAS en el sector Audiovisual. UMILES Group. Disponible en: http://umilesgroup.com/operaciones-con-drones-audiovisual

[4] Aeromedia UAV. Curso Audiovisual con RPAS avanzado. Formación Drones. Disponible en: http://www.formaciondrones.com/courses/cursoaudiovisualbasico//

[5] Kit Drone (2016). Normativa Drones RPA España 2016: borrador del Real Decreto. [Archivo de vídeo]. Disponible en:  https://www.youtube.com/watch?v=7JXHDpe2I2E

BIBLIOGRAFÍA

Aeromedia UAV. Curso Audiovisual con RPAS avanzado. Formación Drones. Disponible en: http://www.formaciondrones.com/courses/cursoaudiovisualbasico//

Kit Drone (2016). Normativa Drones RPA España 2016: borrador del Real Decreto. [Archivo de vídeo]. Disponible en:  https://www.youtube.com/watch?v=7JXHDpe2I2E

Redacción de Futurizable (2016). Qué es un UAV y por qué van a ser tan importantes en el futuro. Futurizable. Disponible en: http://futurizable.com/drones

Unmanned Miles Group. Los RPAS en el sector Audiovisual. UMILES Group. Disponible en: http://umilesgroup.com/operaciones-con-drones-audiovisual

Vera, J.M. (2013). Cuál es la diferencia entre un drone, un UAV y un RPA. One Magazine. Disponible en: http://www.onemagazine.es/noticia/14713/industria/cual-es-la-diferencia-entre-un-drone-un-uav-y-un-rpa.html

IMAGEN SINTÉTICA Y CAPTURA

(Alba Corcobado, Jorge González, Sara Félix, Irene Carmona y Lara Sánchez)

Actualmente, se han desarrollado nuevas técnicas de tratamiento de imagen y vídeo que tienen una alta proyección de futuro, pues se tratan de elementos fundamentales en el ámbito audiovisual, tanto a la hora de grabar una película como a la hora de llevarla a postproducción. Algunas de ellas son:

Kinect Motion Capture: “Kinect” es un dispositivo desarrollado por Microsoft y compatible con Xbox 360 y PC. Se trata de un controlador de juego libre y entretenimiento que gracias a los componentes que lo forman (sensor de profundidad, cámara RGB, array de micrófonos y sensor de infrarrojos)[1] es capaz de capturar el esqueleto humano, reconociéndolo y posicionándolo en el plano. Además, Kinect captura comandos de voz, reconoce gestos, objetos e imágenes, lo que hace que se pueda utilizar para programar una “serie de aplicativos” para facilitar la interacción con elementos virtuales, gracias a los movimientos que realice el usuario.[2]

kinectp-640x353

Ilustración: Kinect[3]

Centrándonos en el ámbito audiovisual, se trata de un aparato muy útil, ya que permite desarrollar figuras virtuales y es un suplemento a las consolas Xbox , aunque Kinect en la actualidad se ha quedado algo obsoleto y olvidado, pues se le ha dado más importancia a la Realidad Virtual y a Hololens; Kinect es un dispositivo  de gran costo y su gran capacidad de tamaño ha hecho que desarrolladores y otros profesionales lo hayan sustituido por otros dispositivos similares y con mejores características.[4]

Stargate Studios Virtual Backlot Reel 2009: “Blacklot reel” es el vídeo de comparación entre una escena antes y después del chroma, es decir, como se ve la escena con todo el croma verde y como se ve la escena una vez editada.[5]  Un “chroma key” es una técnica audiovisual que sirve para extraer un color de la imagen y a su vez reemplazar el área que ocupaba por otra imagen.[6] Se necesitan unas telas especiales, de color verde o azul. Se utilizan únicamente estos dos colores ya que se tratan de los colores más alejados al color natural de nuestra piel. La distinción entre usar un chroma verde o azul es el precio principalmente, pues el verde es mucho más económico.

Además, existen otros factores, como el color del vestuario de los personajes y los objetos que aparecen en la escena. Por ejemplo, si queremos grabar con chroma en un bosque, será necesario usar el croma azul. Un aspecto a tener en cuenta muy importante a la hora de usar el chroma es la iluminación, pues se debe iluminar tanto al objeto o al personaje que aparezca en pantalla como al chroma (de forma uniforme y difusa). Se trata de una técnica muy utilizada en el sector audiovisual, puesto que gracias al chroma podemos escoger el fondo que queremos poner a nuestra escena, e incluso eliminar cosas.[7] El chroma es un invento que ha facilitado mucho el trabajo tanto de los profesionales audiovisuales como de la postproducción, pues hace posible que no sea necesario desplazarse al sitio concreto en el que se quiere grabar, se pueden crear escenas que no existen, etc.

Ilustración: El chroma en el cine [8]

Stargate Studios Virtual Backlot Reel 2012: El chroma ha evolucionado en los últimos tres años. Hemos observado un gran avance en cuanto a esta técnica, pues ya no sólo se basa en recrear fondos, sino que gracias al chroma key y a la postproducción, se han podido añadir personas en movimiento que en realidad no existen, edificios e incluso objetos en movimiento. También observamos como la calidad ha aumentado de una manera muy considerable, al igual que el uso de esta técnica. El chroma key es una técnica que se utiliza en la mayoría de las películas, series, vídeos musicales, y demás; se trata de una técnica muy costosa en cuanto a postproducción, pues hay que llevarla a cabo con mucho conocimiento para conseguir un resultado excelente – es importante que a la vista del espectador, los fondos y los individuos en movimiento parezcan completamente reales.

Ilustración: Fotograma de la película ‘300’ [9]

Mocap with Luma Pictures: El mocap (motion capture) es una técnica de grabación de movimiento (de personas o animales) que traslada dicho movimiento a un modelo digital.[10] En definitiva, consiste en capturar y almacenar de forma digital el movimiento realizado especialmente por humanos. Se basa en la reproducción estática de diferentes instantes del movimiento que realiza el individuo, reproduciendo así los pasos que se llevan a cabo.[11] Se trata de una técnica muy utilizada en las películas de fantasía, luego es importante que los entendidos en el mundo audiovisual la dominen, debido a que permite editar un personaje irreal o fantástico, así como añadirle los movimientos que anteriormente ha realizado un humano.

ted

Ilustración: Técnica Mocap[12]

La captura en movimiento (motion capture) se puede llevar a cabo de diversas maneras y mediante varias tecnologías, entre las que caben destacar:

  • Captura de movimientos electromagnética: se trata de un proceso que captura movimientos, donde el individuo lleva puesto un traje especial, adaptable al cuerpo. Dicho traje posee unas estructuras rígidas, compuestas de barras metálicas y/o plásticas que van unidas por potenciómetros, los cuales se colocan en las principales articulaciones para captar los movimientos.[13]

Imagen1

Ilustración: captura de movimientos electromagnética.[14]

  • Captura óptica de movimiento: se utilizan sistemas ópticos que recogen los datos necesarios a través de varios sensores de imagen, obteniendo la posición del humano en el espacio. Dichos datos se recogen utilizando indicadores (markers) pegados al actor. Podemos distinguir varios tipos de indicadores: pasivos, activos, activos modulados en el tiempo, semi-pasivos imperceptibles y sin marcadores.[15]
  • Captura mediante fibra óptica: se trata de un conjunto de fibras ópticas que al doblarse atenúan la luz transmitida, lo que permite calcular la posición de una parte del cuerpo. Se aplican diferentes sensores flexibles en las partes más importantes del cuerpo, midiendo así las rotaciones de las articulaciones. Un ejemplo de ello son los guantes de fibra óptica.[16]

Ilustración: Guante de fibra óptica[17]

En resumen, la comunicación audiovisual está cambiando de una manera muy rápida hacia técnicas que se basan prácticamente en el ámbito virtual y se realizan empleando el ordenador. Se tratan de técnicas muy laboriosas pero muy eficaces, ya que permiten realizar tareas que serían imposibles si no se contase con un buen equipo de postproducción o con los medios audiovisuales necesarios. Sin duda, continúan en un constante periodo de evolución, luego estas técnicas aún tienen que mejorar mucho más.

 

REFERENCIAS

[1] Murillo, A. (2016). ¿Qué es el dispositivo Kinect? Kinect for developers. Disponible en:  http://www.kinectfordevelopers.com/es/2012/11/06/que-es-el-dispositivo-kinect/

[2] Wikipedia.  Kinect. Disponible en  https://es.wikipedia.org/wiki/Kinect

[3] Imagen de Kinect. Disponible en: https://www.extremetech.com/gaming/230252-can-we-finally-admit-that-kinect-is-dead

[4] Pastor, J. (2015). E3 2015. Kinect es el gran olvidado: ahora todo el cariño es para Hololens y la Realidad Virtual. Xataka. Disponible en: https://www.xataka.com/videojuegos/kinect-es-el-gran-olvidado-ahora-todo-el-carino-es-para-hololens-y-la-realidad-virtual

[5] Patx (2012). ¿Qué es un Backlot Reel? Sinsentido Obligatorio. Disponible en: http://www.sinsentidoobligatorio.com/2012/05/que-es-un-backlot-reel.html

[6] Santos, L (2014). Cómo se trabaja con un croma y para qué sirve. Adictos al trabajo. Disponible en: https://www.adictosaltrabajo.com/tutoriales/tutorialcroma/

[7] Norén, A (2016). ¿Qué es un Croma Key? La pausa del Render. Disponible en: http://www.lapausadelrender.com/educacion-audiovisual/que-es-un-croma-key/

[8] Imagen del chroma en el cine. Disponible en: http://i2.wp.com/www.lapausadelrender.com/wp-content/uploads/2016/03/blsoar.com_.jpg?w=744

[9] Imagen del fotograma de la película ‘300’. Disponible en: http://i2.wp.com/www.lapausadelrender.com/wp-content/uploads/2016/03/k46.kn3_.net_.png?w=722

[10] Wikipedia. Captura de movimiento. Disponible en:  https://es.wikipedia.org/wiki/Captura_de_movimiento

[11] Sabia TIC. MoCap (captura de movimientos): Introducción. Disponible en: http://sabia.tic.udc.es/gc/Contenidos%20adicionales/trabajos/Peliculas/Mocap/introd.htm

[12] Imagen de técnica mocap. Disponible en: http://www.cinex.com.ve/noticia.php?id=22356

[13] Sabia TIC. MoCap (captura de movimientos): Introducción. Disponible en: http://sabia.tic.udc.es/gc/Contenidos%20adicionales/trabajos/Peliculas/Mocap/introd.htm

[14] Imagen de captura de movimientos electromagnética. Disponible en: http://sabia.tic.udc.es/gc/Contenidos%20adicionales/trabajos/Peliculas/Mocap/introd.htm

[15] Sabia TIC. MoCap (captura de movimientos): Introducción. Disponible en: http://sabia.tic.udc.es/gc/Contenidos%20adicionales/trabajos/Peliculas/Mocap/introd.htm

[16] Sabia TIC. MoCap (captura de movimientos): Introducción. Disponible en: http://sabia.tic.udc.es/gc/Contenidos%20adicionales/trabajos/Peliculas/Mocap/introd.htm

[17] Imagen de guante de fibra óptica. Disponible en: http://sabia.tic.udc.es/gc/Contenidos%20adicionales/trabajos/Peliculas/Mocap/introd.htm

BIBLIOGRAFÍA

Hruska, J (2016). Can we finally admit that Kinect is dead? Extreme Tech. Disponible en: https://www.extremetech.com/gaming/230252-can-we-finally-admit-that-kinect-is-dead

Imagen de captura de movimientos electromagnética. Disponible en: http://sabia.tic.udc.es/gc/Contenidos%20adicionales/trabajos/Peliculas/Mocap/introd.htm

Imagen del fotograma de la película ‘300’. Disponible en: Imagen del fotograma de la película ‘300’. Disponible en: http://i2.wp.com/www.lapausadelrender.com/wp-content/uploads/2016/03/k46.kn3_.net_.png?w=722

Imagen de guante de fibra óptica. Disponible en: http://sabia.tic.udc.es/gc/Contenidos%20adicionales/trabajos/Peliculas/Mocap/introd.htm

Imagen de técnica mocap. Disponible en: http://www.cinex.com.ve/noticia.php?id=22356

Imagen del chroma en el cine. Disponible en: http://www.lapausadelrender.com/educacion-audiovisual/que-es-un-croma-key/

Murillo, A. (2016). ¿Qué es el dispositivo Kinect? Kinect for developers. Disponible en:  http://www.kinectfordevelopers.com/es/2012/11/06/que-es-el-dispositivo-kinect/

Norén, A (2016). ¿Qué es un Croma Key? La pausa del Render. Disponible en: http://www.lapausadelrender.com/educacion-audiovisual/que-es-un-croma-key/

Pastor, J. (2015). E3 2015. Kinect es el gran olvidado: ahora todo el cariño es para Hololens y la Realidad Virtual. Xataka. Disponible en: https://www.xataka.com/videojuegos/kinect-es-el-gran-olvidado-ahora-todo-el-carino-es-para-hololens-y-la-realidad-virtual

Patx (2012). ¿Qué es un Backlot Reel? Sinsentido Obligatorio. Disponible en: http://www.sinsentidoobligatorio.com/2012/05/que-es-un-backlot-reel.html

Sabia TIC. MoCap (captura de movimientos): Introducción. Disponible en: http://sabia.tic.udc.es/gc/Contenidos%20adicionales/trabajos/Peliculas/Mocap/introd.htm

Santos, L (2014). Cómo se trabaja con un croma y para qué sirve. Adictos al trabajo. Disponible en: https://www.adictosaltrabajo.com/tutoriales/tutorialcroma/

Wikipedia.  Kinect. Disponible en  https://es.wikipedia.org/wiki/Kinect

Wikipedia. Captura de movimiento. Disponible en:  https://es.wikipedia.org/wiki/Captura_de_movimiento

 

MODELOS DE ANÁLISIS DE IMAGEN, REALIDAD AUMENTADA Y GENERACIÓN 3D

(Alba Corcobado, Jorge González, Sara Félix, Irene Carmona y Lara Sánchez)

Con el paso de los años, se han desarrollado numerosas técnicas y métodos para el tratamiento de la imagen y demás contenido audiovisual. Algunas de ellas son las siguientes:

ProForma (Probabilistic Feature-based On-line Rapid Model Acquisition) es un sistema online de reconstrucción de modelos 3D desarrollado por el Departamento de Ingeniería de la Universidad de Cambridge (Inglaterra). La reconstrucción de modelos 3D es “el proceso mediante el cual se reproducen objetos reales en la memoria de una computadora, manteniendo sus características físicas (dimensiones, volumen y forma).”[1]

Dicho  sistema está pensado para escanear objetos del mundo real y conseguir un modelo 3D de una forma muy sencilla, económica y rápida, empleando únicamente una cámara web. Normalmente este tipo de escaneos suelen realizarse con sensores especiales y láseres de complicado uso[2].

El fundamento en el que se basa es similar al utilizado por la Realidad Aumentada. Sin embargo, en esta ocasión es el usuario el que pone el objeto delante de la cámara y lo gira, mientras el ordenador recopila la información necesaria para que se represente el modelo en tres dimensiones. El software simplemente escanea en tiempo real el objeto 3D para posteriormente realizar un mapeado de sus estructuras y texturas en 3D. Además, también es capaz de detectar el movimiento y posición en la que se encuentra el objeto.[3]

Este software fue desarrollado en el año 2009. Debido a esto, desde esta fecha han surgido muchas aplicaciones de escáner 3D muy interesantes. Algunas de ellas son las siguientes:

  • Disney Color and Play

Desarrollado por Disney Research, un departamento específico de la compañía para innovación tecnológica. Esta aplicación utiliza la realidad aumentada permitiendo animar en tres dimensiones cualquier dibujo sencillo realizado sobre una hoja de papel.

La aplicación calca las líneas en 2 dimensiones del dibujo y lo reproduce en tiempo real en una versión 3D. También es capaz de soportar el coloreado, gracias a un algoritmo que adapta la escasa información existente y la interpreta. Se trata de una aplicación gratuita y compatible con Android e iOS.

  • Aplicación de escaneo en 3D del cuerpo humano del IBV

Una aplicación para smartphone presentada por el Instituto de Biomecánica de Valencia en el año 2015. Permite realizar un escaneo portátil de las formas humanas y dibujarlas tridimensionalmente. También puede hacerlo introduciendo las medidas de la persona, su edad y otros datos.[4]En principio su aplicación se enfoca hacia la reconstrucción, no obstante, podría tener muchas otras aplicaciones en el sector audiovisual.

En la industria del entretenimiento los escáneres 3D son muy utilizados. Estos escáneres permiten crear los modelos 3D digitales para películas y videojuegos. De hecho, resulta más rápido escanear el objeto físico que crear manualmente el modelado 3D mediante un software. De esta manera, los artistas esculpen los modelos físicos que se desean para posteriormente escanearlos a forma digital con el fin de pasarlos a un ordenador. Otra ventaja es que estos escáneres ayudan a crear modelos sorprendentemente realistas de los personajes dotándoles de mejores expresiones faciales.[5] La gran eficacia y potencia de esta tecnología se puede observar en películas como Avatar o el videojuego Beyond Two Souls.

Con respecto a la Realidad Disminuida, se trata de un software desarrollado en 2010 por Investigadores de la Universidad Técnica de Limenau (Alemania), el cual es capaz de eliminar un objeto de un video en tiempo real.[6]

Para llevar a cabo eso, el software realiza una reducción de la calidad del objeto, lo elimina de la imagen y luego gradualmente incrementa la resolución hasta alcanzar la resolución original. Este proceso se repite en cada uno de los cuadros del video en tiempo real. Es decir, elimina objetos sustituyéndolos por una porción de superficie calculada en base la información contenida en los píxeles que lo rodean[7] .Se trata de un software que elimina objetos de forma similar a Photoshop, con la diferencia de que lo hace en vídeos y a tiempo real.

Podría decirse que esta aplicación es la inversa de la Realidad Aumentada pues hace justo lo contrario. Mientras que la Realidad Aumentada genera una visión de un objeto en el mundo real, la Realidad Disminuida elimina objetos en tiempo real.[8]

Su demostración en YouTube tuvo un enorme éxito. Así, la idea de eliminar los objetos que no nos interesan en tiempo real ha sido considerada por varias empresas que han desarrollado varias aplicaciones con este principio. Algunas de estas Aplicaciones son:

  • Scalado Remove

Esta aplicación identifica automáticamente tanto elementos como personas en una escena. Posteriormente, mediante una tecnología basada en una serie de tomas, compone una imagen a nuestro gusto. El software es capaz de eliminar elementos que no son buenos para la toma, sin necesitar nuestras indicaciones. Sin embargo, también podemos hacerlo nosotros mismos de forma táctil.[9]

  • Touch retouch

Es una aplicación de Android que funciona de forma similar a Scalado Remove. La diferencia es que no funciona de forma automática, sino que con una herramienta seleccionamos la parte de la fotografía que queremos eliminar y en cuestión de segundos, desaparece de nuestra fotografía. Así, lo que antes se tardaba mucho tiempo en realizar mediante equipos y programas especiales, ahora se realiza de forma rápida y sencilla.[10]

En definitiva, se han diseñado y patentado diversos programas y aplicaciones para mejorar poco a poco el concepto que tenemos de la imagen. Esto permitirá que las películas, videojuegos y demás experiencias tecnológico-interactivas parezcan más y más reales.

REFERENCIAS

[1] Real Academia de Ingeniería (2017). Reconstrucción 3D. Disponible en: http://diccionario.raing.es/es/lema/reconstrucci%C3%B3n-3d

[2] Tecayehualt, E (2009). ProFORMA: Software que convierte una ordinaria webcam en un increíble escáner 3D. Fayer Wayer. Disponible en: https://www.fayerwayer.com/2009/11/proforma-software-que-convierte-una-ordinaria-webcam-en-un-increible-escaner-3d/

[3] Emerson (2009). ProFORMA, convierte una Webcam en un escáner 3D. Bloggy Software. Disponible en: http://www.blogysoftware.com/software/18148/proforma/escaner/3d

[4]Llorca, A (2015). Estas son las últimas aplicaciones que usan la tecnología 3D y que no puedes perderte.  Genbeta. Disponible en: https://www.genbeta.com/herramientas/estas-son-las-ultimas-aplicaciones-que-usan-la-tecnologia-3d-y-que-no-puedes-perderte

[5] Wright, A (2013). Interview with Artec: 3D Scanners evolving facial expressions, animation in games like beyond: Two Souls. Gaming Enthusiast. Disponible en: http://www.gamingenthusiast.net/interview-artic-3d-scanners-beyond-two-soul/

[6] Sarmiento, D (2010). Diminished Reality: Eliminación de objetos en tiempo real. CHW. Disponible en: http://www.chw.net/2010/10/diminished-reality-eliminacion-de-objetos-en-tiempo-real/

[7] Sarmiento, D (2010). Diminished Reality: Eliminación de objetos en tiempo real. CHW. Disponible en: http://www.chw.net/2010/10/diminished-reality-eliminacion-de-objetos-en-tiempo-real/

[8] Batista Feliz, H (2010). Diminished Reality, en las antípodas de la Realidad Aumentada. Tecnología para humanos. Disponible en: https://tecnologiaparahumanos.wordpress.com/2010/10/21/diminished-reality-en-las-antipodas-de-la-realidad-aumentada/

[9] Puerto, K (2014). La Realidad Disminuida y sus primeros pasos en nuestros dispositivos móviles. Xataka móvil. Disponible en: https://www.xatakamovil.com/aplicaciones/la-realidad-disminuida-y-sus-primeros-pasos-en-nuestros-dispositivos-moviles

[10] López, M (2014). TOUCHRETOUCH, app para borrar de las fotos todo lo que desees. APPerlas. Disponible en: https://apperlas.com/borrar-de-las-fotos-cosas-touchretouch/

BIBLIOGRAFÍA

Batista Feliz, H (2010). Diminished Reality, en las antípodas de la Realidad Aumentada. Tecnología para humanos. Disponible en: https://tecnologiaparahumanos.wordpress.com/2010/10/21/diminished-reality-en-las-antipodas-de-la-realidad-aumentada/

Emerson (2009). ProFORMA, convierte una Webcam en un escáner 3D. Bloggy Software. Disponible en: http://www.blogysoftware.com/software/18148/proforma/escaner/3d

https://apperlas.com/borrar-de-las-fotos-cosas-touchretouch/

Llorca, A (2015). Estas son las últimas aplicaciones que usan la tecnología 3D y que no puedes perderte.  Genbeta. Disponible en: https://www.genbeta.com/herramientas/estas-son-las-ultimas-aplicaciones-que-usan-la-tecnologia-3d-y-que-no-puedes-perderte

López, M (2014). TOUCHRETOUCH, app para borrar de las fotos todo lo que desees

Puerto, K (2014). La Realidad Disminuida y sus primeros pasos en nuestros dispositivos móviles. Xataka móvil. Disponible en: https://www.xatakamovil.com/aplicaciones/la-realidad-disminuida-y-sus-primeros-pasos-en-nuestros-dispositivos-moviles

Real Academia de Ingeniería (2017). Reconstrucción 3D. Disponible en: http://diccionario.raing.es/es/lema/reconstrucci%C3%B3n-3d

Sarmiento, D (2010). Diminished Reality: Eliminación de objetos en tiempo real. CHW. Disponible en: http://www.chw.net/2010/10/diminished-reality-eliminacion-de-objetos-en-tiempo-real/

Tecayehualt, E (2009). ProFORMA: Software que convierte una ordinaria webcam en un increíble escáner 3D. Fayer Wayer. Disponible en: https://www.fayerwayer.com/2009/11/proforma-software-que-convierte-una-ordinaria-webcam-en-un-increible-escaner-3d/

Wright, A (2013). Interview with Artec: 3D Scanners evolving facial expressions, animation in games like beyond: Two Souls. Gaming Enthusiast. Disponible en: http://www.gamingenthusiast.net/interview-artic-3d-scanners-beyond-two-soul/

LA ANIMACIÓN 2D Y 3D: EL CGI

(Alba Corcobado, Jorge González, Sara Félix, Irene Carmona y Lara Sánchez)

La composición 2D + 3D se realiza mediante diferentes programas. El más conocido es Blender, un programa informático multiplataforma, dedicado especialmente al modelado, animación y creación de gráficos tridimensionales. El programa fue inicialmente distribuido de forma gratuita pero sin el código fuente, con un manual disponible para la venta, aunque posteriormente pasó a ser software libre. Actualmente es compatible con todas las versiones de Windows, Mac OS X, GNU/Linux, Solaris, FreeBSD e IRIX. Principalmente se emplea en composición digital utilizando la técnica procesal de nodos, en edición de vídeo, en escultura (incluye topología dinámica) y en pintura digital.

Tiene una muy peculiar interfaz gráfica de usuario, que se critica por ser poco intuitiva, pues no se basa en el sistema clásico de ventanas. A pesar de ello, tiene a su vez ventajas importantes, como la configuración personalizada de la distribución de los menús y de las vistas de cámara[1].

Originalmente, el programa fue desarrollado como una aplicación propia por el estudio de animación holandés NeoGeo; el principal autor, Ton Roosendaal, fundó la empresa «Not a Number Technologies» (NaN) en junio de 1998 para desarrollar y distribuir el programa.

La compañía llegó a la bancarrota en 2002 y los acreedores acordaron ofrecer Blender como un producto de código abierto y gratuito bajo los términos de la GNU GPL a cambio de 100.000 €. El 18 de julio de 2003, Roosendaal creó sin ánimo de lucro la Fundación Blender para recoger donaciones; el 7 de septiembre de ese año, se anunció la recaudación como exitosa (participaron también ex empleados de NaN) y el código fuente se hizo público el siguiente 13 de octubre[2].

Dentro de sus aplicaciones a la tecnología audiovisual podemos encontrar:

  • La posibilidad de crear animaciones de los modelados; desde mecánicas restringidas de artilugios robóticos hasta emisiones de partículas para explosiones, pasando por todo tipo de cinemáticas para mover personajes. No puede dejarse de mencionar que incorpora la tecnología necesaria para animar fluidos, gases, telas, cuerpos blandos, pelo…
  • Incluye su propio motor de juegos para desarrollar paseos virtuales por recorridos arquitectónicos, aunque en realidad es posible afrontar cualquier videojuego que un equipo humano cualificado se proponga. Además, brinda muchas posibilidades en la simulación de físicas.
  • Para el montaje final de una película cuenta con su propio editor de vídeo.
  • Incorpora la potente tecnología de edición de nodos que permite disponer de cada uno de los efectos por separado y no en un orden secuencial (tipo historial) donde al anular uno de ellos desaparecerían todos los posteriores[3].

Usando a Blender como principal herramienta, se han llegado a realizar largometrajes animados como Plumíferos. Plumíferos fue un proyecto que impulsó el desarrollo de Blender, sobre todo a nivel de animación y manejo de librerías a gran escala. Este largometraje se estrenó en el año 2010.

Para finalizar, si buscamos información sobre Blender en la industria cinematográfica, pocas películas lo han utilizado para montar sus secuencias CGI.

El CGI es, en pocas palabras, la abreviatura de Computer Generated Imagery, o lo que es lo mismo, Imágenes Generadas por Ordenador. En resumen, lo que permite esta tecnología es que la ficción parezca lo más real posible, gracias a algunos trucos informáticos.

Esta tecnología se aplica casi en cualquier producción de alto presupuesto en el cine actual pues, con su ayuda, los directores pueden registrar movimientos de actores reales y transferirlos a un modelo generado por ordenador. Para ello, los actores deben llevar un traje con numerosos puntos de referencia. Estos reflejan luz infrarroja, que es emitida y recibida por un sistema de cámaras especial. Los actores deben moverse en una rejilla de coordenadas que acaba en el ordenador para que un software transfiera los movimientos al modelo digital[4].

Esta tecnología es cara, pero en muchos casos merece la pena. Por ejemplo, en la grabación de la película de Iron Man (2008), Robert Downey Jr. sufría continuamente golpes de calor por rodar con el traje del superhéroe puesto. En un momento de la grabación, se sustituyó el traje real por una animación CGI, que resultó mucho más cómoda para el actor.

El primer ejemplo claro del alcance del CGI se vio en 1993, en Jurassic Park, que demostró que también es posible crear seres vivos completos por CGI. A día de hoy son pocas las películas que no recurren al CGI. Y es que las posibilidades son demasiado tentadoras, y las imágenes generadas por ordenador son más baratas que los efectos especiales materiales.

Aparte de Blender, otros softwares capaces de crear estas animaciones e imágenes 3D son los programas de Autodesk, Maya, 3D Max o Flame, los cuales están muy extendidos para cine y televisión. Maya es el programa más utilizado para efectos visuales cinematográficos y 3D Max está dirigido a un grupo más amplio de usuarios. Otro ejemplo es Cinema 4D, de Maxon, que se ha posicionado en los últimos años para motion graphics y televisión[5].

En conclusión, la animación 2D y 3D se realiza mediante diferentes técnicas, las cuales han ido evolucionando, mejorando y puliendo sus defectos. Llegará un momento en el que la ficción supere la realidad, gracias a la tecnología CGI.

REFERENCIAS

[1] Muñoz de Frutos, A (2017). ¿Qué es CGI? Computer Hoy. Disponible en: http://computerhoy.com/noticias/software/que-es-cgi-56804

[2] Ochoa, L., Utray, F (2016). Programas de CGI (3D). 709 Mediaroom. Disponible en: http://guia4k.709mediaroom.com/postproduccion/software-la-postproduccion-4k/programas-3d-cgi/

[3] Wikipedia. Plumíferos. Disponible en: https://es.wikipedia.org/wiki/Plum%C3%ADferos

[4] Ministerio de Educación, Cultura y Deporte. Introducción a Blender: Qué hace Blender? Instituto Nacional de Tecnologías Educativas y de Formación del Profesorado. Disponible en: http://www.ite.educacion.es/formacion/materiales/181/cd/m1/qu_hace_blender.html

[5]  Blender 3D. Sobre Blender. Disponible en: http://blender3d.es/about/

BIBLIOGRAFÍA

Blender 3D. Sobre Blender. Disponible en: http://blender3d.es/about/

Ministerio de Educación, Cultura y Deporte. Introducción a Blender: Qué hace Blender? Instituto Nacional de Tecnologías Educativas y de Formación del Profesorado. Disponible en: http://www.ite.educacion.es/formacion/materiales/181/cd/m1/qu_hace_blender.html

Muñoz de Frutos, A (2017). ¿Qué es CGI? Computer Hoy. Disponible en: http://computerhoy.com/noticias/software/que-es-cgi-56804

Ochoa, L., Utray, F (2016). Programas de CGI (3D). 709 Mediaroom. Disponible en: http://guia4k.709mediaroom.com/postproduccion/software-la-postproduccion-4k/programas-3d-cgi/

Wikipedia. Plumíferos. Disponible en: https://es.wikipedia.org/wiki/Plum%C3%ADferos

HTML

(Alba Corcobado, Jorge González, Sara Félix, Irene Carmona y Lara Sánchez)

HTML, cuyo significado es Hyper Text Markup Language (Lenguaje de Marcado para Hipertextos), es el lenguaje más utilizado en la Web para desarrollar páginas web. Se trata del elemento de construcción más básico de una página y se usa para crear y representar visualmente un sitio web. Determina el contenido de la web, pero no su funcionalidad. Otras tecnologías distintas de HTML son usadas generalmente para describir la apariencia/presentación de una página web (CSS) o su funcionalidad (JavaScript).

HTML le da “valor añadido” a un texto estándar en español. Hiper Texto se refiere a enlaces que conectan una página Web con otra, ya sea dentro de una página web o entre diferentes sitios web. Los vínculos son un aspecto fundamental de la Web. Al subir contenido a Internet y vincularlo a páginas de otras personas, te haces participante activo de esta Red Mundial[1].

HTML fue creado por Berners-Lee a finales de 1991, pero “HTML 2.0” fue la primera especificación HTML estándar que fue publicada en 1995. HTML 4.01 fue una versión principal de HTML, la cual fue publicada a finales de 1999. Aunque la versión HTML 4.01 es ampliamente utilizada, actualmente cobra importancia la versión HTML-5, que es una extensión de HTML 4.01, y esta fue publicada en 2012[2].

Normalmente, la gente cree que es difícil crear un sitio web o bien que se requiere un determinado tipo de software caro y sofisticado[3]. Sin embargo, lo que realmente necesitamos es lo siguiente: un “navegador” (programa que te permite navegar y abrir sitios web) y un sencillo editor de texto (Bloc de notas de Windows, Pico de Linux o TextEdit de Mac) para escribir código fuente[4].

Una página web puede resultar realmente útil a la hora de promocionar productos o publicar nuestro trabajo, en este caso, en el ámbito audiovisual. Además, para dar una mejor impresión, se recomienda contar con un buen diseño, el cual haga accesible el sitio web al usuario. Con este objetivo, se crearon los tags (etiquetas)[5].

Algunos de los tags más importantes son los siguientes:

  • <HTML>: indica que el fichero es una página web.
  • Tags de apertura (<HTML>) y tags de cierre (</HTML>): indican que entre ambos tags todo lo incluido estará escrito en código web.
  • <body>: indica el cuerpo del sitio web.
  • <head>: indica la cabecera de la web.
  • <title>: indica el título de la web, el cual aparecerá en la pestaña superior del navegador cuando buscas la página en Internet.
  • <h1>: indica el título principal, que muestra de qué vamos a hablar en el sitio.
  • <p>: indica la existencia de un nuevo párrafo; funcionan igual que los párrafos de Microsoft Word.
  • <br>: indica un salto de línea dentro de un mismo párrafo, es decir, que no se guarda un espacio de interlineado.

Cabe destacar que la estructura de la página web viene determinada por los tags utilizados, no por la posición que ocupan dichos tags en el fichero (es por ello que es indiferente escribir justo después de un tag que en la línea inferior, aparecerán tras “refrescar” la página web en la misma posición).

Si abrimos la consola especial, nos permite editar determinadas partes de la web sin recurrir directamente al blog de notas, luego puede resultar bastante útil. La visualización de los elementos de una página web se realiza mediante una serie de estilos (styles) o ficheros CSS, los cuales permiten modificar las características de lo escrito en el fichero, como por ejemplo, el tipo de letra, el posicionamiento de las palabras, si una tabla tiene bordes o no, e incluso el color mismo. Es curioso el hecho de que sea posible crear nuestros propios “estilos”[6].

A la hora de diseñar nuestra página web, es importante que comprendamos bien lo que escribimos (es decir, que esté perfectamente ordenado todo lo escrito), luego un editor de textos como Sublime Text facilitará el manejo gracias a sus diversos colores y posicionamiento de las palabras[7].

Ilustración: Sublime Text[8]

Dentro de una página web, da una mejor impresión incluir contenido audiovisual en lugar de tan solo texto. Por ello, con tan solo poner el nombre del fichero de una imagen concreta en el blog de notas o editor de texto y su respectivo tag (img), aparece, siendo posible su edición en cuanto a altura y anchura (así como la opción carrusel, que van variando unas y otras, entre otras). En referencia a los vídeos, se copia y pega el código HTML del vídeo (en este caso de Youtube) en el editor.

Cabe mencionar Bootstrap, una librería cuyo objetivo es maquetar la página web donde se presenta un vídeo. Se trata de un conjunto de herramientas de código abierto para diseño de sitios y aplicaciones web. Contiene plantillas de diseño con tipografía, formularios, botones, cuadros, menús de navegación y otros elementos de diseño basado en HTML y CSS, así como, extensiones de JavaScript opcionales adicionales[9].

La implementación de la accesibilidad en los contenidos audiovisuales es mucho más compleja que en otros contenidos: no radica simplemente en HTML sino en otras tecnologías (como SMIL o DFXP) y en la creación de otros contenidos específicos. Esto significa que requiere un cierto tipo de especialización que va mucho más allá de poner un contenido textual en un determinado lugar (como el texto alternativo en las imágenes)[10].

En conclusión, realizar una página web es muy sencillo, puesto que solo se necesita un navegador y un bloc de notas. El contenido audiovisual que podemos incluir es muy sencillo de implementar, ya que mediante el uso de tags y otras técnicas podemos ofrecer a nuestro público un contenido propio o proveniente de otras plataformas.

 

REFERENCIAS

[1] Mozilla Developer Network. Tecnología Web para desarrolladores: HTML. Disponible en: https://developer.mozilla.org/es/docs/Web/html

[2] Tutorials point. HTML Tutorial. Disponible en: https://www.tutorialspoint.com/html/

[3] HTML.net. Introducción- Tutorial HTML gratuito. Disponible en: http://es.html.net/tutorials/html/introduction.php

[4] HTML.net. Lesson 1. Disponible en: http://es.html.net/tutorials/html/lesson1.php

[5] Voces Merayo, R (2008). El contenido audiovisual: otro reto para la accesibilidad web. Bid: Textos Universitarios de Biblioteconomía y Documentación, nº21. Disponible en: http://bid.ub.edu/21/voces2.htm

[6] Diseño Web (2011). Cómo Preparar una Guía de Estilo para tu Página Web. WixBlog. Disponible en: https://es.wix.com/blog/2011/01/como-crear-una-guia-de-estilo/

[7] Sublime Text. Home. Disponible en: https://www.sublimetext.com/

[8] Imagen de Sublime Text. Disponible en: http://cache.filehippo.com/img/ex/2794__Sublime_text_2_1.png

[9] Wikipedia. Bootstrap. Disponible en: https://es.wikipedia.org/wiki/Bootstrap_(framework)

[10] Voces Merayo, R (2008). El contenido audiovisual: otro reto para la accesibilidad web. Bid: Textos Universitarios de Biblioteconomía y Documentación, nº21. Disponible en: http://bid.ub.edu/21/voces2.htm

BIBLIOGRAFÍA

Diseño Web (2011). Cómo Preparar una Guía de Estilo para tu Página Web. WixBlog. Disponible en: https://es.wix.com/blog/2011/01/como-crear-una-guia-de-estilo/

HTML.net. Introducción- Tutorial HTML gratuito. Disponible en: http://es.html.net/tutorials/html/introduction.php

HTML.net. Lesson 1. Disponible en: http://es.html.net/tutorials/html/lesson1.php

Mozilla Developer Network. Tecnología Web para desarrolladores: HTML. Disponible en: https://developer.mozilla.org/es/docs/Web/html

Imagen de Sublime Text. Disponible en: http://cache.filehippo.com/img/ex/2794__Sublime_text_2_1.png

Sublime Text. Home. Disponible en: https://www.sublimetext.com/

Tutorials point. HTML Tutorial. Disponible en: https://www.tutorialspoint.com/html/

Voces Merayo, R (2008). El contenido audiovisual: otro reto para la accesibilidad web. Bid: Textos Universitarios de Biblioteconomía y Documentación, nº21. Disponible en: http://bid.ub.edu/21/voces2.htm

Wikipedia. Bootstrap. Disponible en: https://es.wikipedia.org/wiki/Bootstrap_(framework)