Cámaras en sitios raros: en un cohete de fuegos artificiales

Antes, las micro cámaras estaban al alcance de solo unos pocos, su coste era carísimo y su calidad de imagen no era precisamente espectacular. Desde hace algún tiempo eso está cambiando y podemos adquirir cámaras muy pequeñas, sofisticadas y con una gran calidad de imagen por precios bastante asequibles.

Y claro, como no podía ser de otra forma, la gente está intentando obtener imágenes desde los lugares más inverosímiles y desde puntos de vista que hace poco eran impensables. Gracias a Internet, podemos disfrutar de cada vez más vídeos de este tipo. De hecho es tal el auge de esta clase de vídeos que he decidido hacer una sección exclusiva para ellos, titulada “cámaras en sitios raros”.

Quiero inaugurar la sección con este espectacular vídeo de uno de los sitios más raros de los que me he encontrado hasta ahora. Se trata ni más ni menos de cámaras en cohetes de fuegos artificiales. Si, si, como lo leéis.
En el vídeo podemos ver una recopilación de lanzamientos grabados desde diversos ángulos, con tomas mirando hacia atrás, hacía arriba, etc…

Lo que más me ha sorprendido, es que pesar del lugar y la rapidez de las tomas, es posible apreciar detalle en las mismas. Desconozco el modelo de cámara usado. Disfrutadlo.

Demostración tecnológica de CryENGINE

Impresionante demostración de de RealTime Immersive, Inc y lo que se puede conseguir con el motor de videojuegos CryENGINE, desarrollado por Crytek. Recordamos que este motor ha sido utilizado en videojuegos tan espectaculares como Crysis.

La nueva versión de CryENGINE tiene nuevas y espectaculares capacidades, que son exploradas en el vídeo como transiciones del día a la noche en tiempo real con cambios de iluminación dinámicos, visión nocturna realista, integración del terreno en distintos tipos de superficies así como efectos de partículas basados en el mismo, efectos climatológicos dinámicos e interactivos con el entorno, simulación de efectos físicos avanzados, simulación realista de entornos acuáticos y sub acuáticos capaces de interactuar con objetos y partículas, creación de cuevas en tiempo real basadas en el terreno e importación de modelos 3D de SketchUp, entre otros.

La simulación y el nivel de realismo conseguido es tan alto, que incluso el ejercito americano se ha interesado en esta tecnología para el entrenamiento de sus soldados.

“Best of the best”. Lo mejor de los lanzamientos del transbordador espacial

Cuarenta y cinco minutos de impresionantes imágenes en alta definición de varios lanzamientos de los transbordadores espaciales de la NASA. En febrero del año que viene se realizará la última misión en la que se utilicen este tipo de naves para poner a seres humanos en el espacio. El transborador espacial es, probablemente la máquina más compleja jamás construida por el hombre, con más de un millón de partes móviles.

Las imágenes corresponden a varios lanzamientos de la flota de transbordadores, incluyendo los accidentados Challenger y Columbia, están filmadas en alta resolución y a cámara superlenta, por lo que podemos apreciar detalles nunca vistos antes por el público.

Cada lanzamiento es filmado, para su posterior análisis, por 125 cámaras situadas en puntos estratégicos que permiten ver el transbordador desde prácticamente cualquier ángulo.

Os recomiendo poneros cómodos, poner el vídeo a pantalla completa, elegir 720p como resolución, relajarse y disfrutar del espectáculo.

Hatsune Mikum, ¿serán así los conciertos del futuro?

De momento estas cosas sólo pasan en Japón, pero puede que en poco tiempo lo que vaís a ver a continuación podría ser de lo más normal.

Se trata de un concierto de Hatsune Miku. Y diréis, ¿quien es Hatsune Miku?, pues una artista un tanto especial, ya que se trata de un personaje holográfico en 3D. La idea surgió hace tres años por parte de la empresa Crypton Media y como podemos ver en el vídeo parece que ha tenido éxito.


Podéis verlo en 1080 FullHD pinchando sobre el vídeo.

Para lograr el efecto son necesarias varias tecnologías, como por ejemplo Vocaloid, un software encargado de sintetizar las letras y melodía en canciones. Por cierto, a voz pertenece a la actriz japonesa Saki Fujita.
Para la creación y movimiento del personaje sobre el escenario se utilizan técnicas de animación por ordenador y tecnologías que se aplican en cine y videojuegos, entre otras.

A continuación os pongo un vídeo donde se muestran algunas de estas tecnologías.

Vídeo mapping sobre el Reloj Astronómico de Praga en su 600 aniversario

En el blog ya hemos hablado otras veces sobre el vídeo mapping, una técnica que consiste en realizar proyecciones sobre edificios junto a música o sonidos. La técnica no es nueva, músicos pioneros como Jean Michel Jarre lo utilizaban frecuentemente conciertos multitudinarios ya durante la década de los ’70 y ’80.

Pero, como en todo, está técnica se ha ido perfeccionando, como podemos ver en el siguiente vídeo, correspondiente al espectáculo celebrado en Praga con motivo del 600 aniversario del Reloj Astronómico de Praga. El resultado son 10 minutos de un bello espectáculo visual y sonoro.

Es espectáculo es obra de Macula. En su página web encontrareis más información, imágenes y vídeos acerca de su realización.

El futuro de la fotografía. Imágenes siempre enfocadas

¿Os imaginais que hacéis una foto y no tenéis que preocuparos del enfoque?. Ya lo haréis luego en casa, pensáis. Esto, que parece ciencia ficción, podría estar mas cerca de lo que pensamos.

Ejempo de  imagen Plenoptica captada por el sensorHace ya tiempo había leído que se estaba trabajando en este tema, pero no ha sido hasta ahora cuando lo había visto llevado a la práctica. Ha sido en la Nvidia’s GPU Technology Conference, donde Adobe ha realizado una demostración de lo que se podrá hacer dentro de poco, gracias a una nueva generación de sensores digitales y software de la compañía, que permite ajustar el área enfocada durante el post procesado de la imagen.

Para ello sería necesario que la imagen sea tomada con lo que se conoce como “cámaras plenópticas“, que gracias a un conjunto de miles de microlentes situadas entre el objetivo y el sensor de la cámara, son capaces captar miles de pequeñas tomas de la misma escena. La imagen final contendría todas las posibilidades de enfoque, que podríamos manipular posteriormente como una opción más durante la fase de postprocesado.

En el vídeo que os pongo a continuación podéis ver la demostración que ha realizado Adobe durante la conferencia. Podemos ver la imagen capturada por la cámara, compuesta por miles de imágenes y que recuerda mucho a una imagen fractal, y como mediante unos controles vamos cambiando el punto de enfoque. Todo ello en “tiempo real”.

El vídeo me recuerda mucho a otro de hace ya tiempo, cuando se presentó la tecnología que más tarde Adobe incorporó en Photoshop y que se conoce como “escalado líquido“.

Tras el avance que supuso poder disparar en RAW y poder manipular la exposición o el balance de blancos, entre otras cosas, mediante software, esto junto con la posibilidad de conseguir imégenes HDR directamente desde la cámara, me parece el siguiente paso lógico en la evolución de la tecnología fotográfica.

Como siempre, saldrán detractores que dirán que este tipo de avances restan arte a la fotografía. Personalmente opino que el avance de la tecnología es algo natural en la historia del ser humano en todos los campos del conocimiento. Además el que existe un determinado avance no significa que tengas que utilizarlo obligatoriamente. Aunque hoy día todas las cámaras reflex digitales cuentan con diversos sistemas de autofoco, sigue pudiendo utilizarse el modo manual, muy práctico en determinadas situaciones. Lo que la teconología nos permite es poder disponer de un mayor número de posibilidades entre las que elegir.

Podéis encontrar información más técnica sobre esta tecnología en este artículo publicado por la Universidad de Stanford.

Campus Party 2010. AISoy, un robot con sentimientos

AISoy1Una de las charlas del día de ayer en la Campus Party de Valencia corrió a cargo de la empresa AISoy Robotics, creadora del robot AISoy1.

En la charla se presento el primero de esta nueva generación de robot para uso domestica, al que se ha llamado AISoy1. Lamentablemente y debido a algunos problemillas de miedo escénico por parte del robot, no pudimos verlo en funcionamiento, así que nos tuvimos que contentar con un prototipo no funcional.

Presentación de AISoy1 en la Campus PartyLa diferencia entre AISoy1 respecto a otros robots es que además de interactuar con el usuario y dialogar con el, sus creadores han desarrollado un sistema denominado Emotions, que le hace ser sensible a lo que tiene en su entorno y mostrar lo que podríamos denominar emociones. De hecho es capaz de mostrar hasta 14 estados de ánimo diferentes, desde la completa felicidad a la sorpresa, desde la esperanza o el miedo a el enfado.

AISoy1 cuenta con un procesador ARM a 600MHz, 512MB de memoria FLASH mas otros 256MB de memoria SDRAM, lleva incorporados sensores de temperatura, luz, 3D, tacto y fuerza. Además, lleva una cámara de 1 Megapixel que le permite reconocer sus entorno y un micrófono y un altavoz integrado. Cuenta también con una conexión miniUSB y un slot microSD. Se alimenta mediante una batería interna recargable que le proporciona una autonomía de hasta 4 horas y también puede conectarse directamente a la red eléctrica mediante un adaptador.

Gran cantidad de participantes asistieron a la presentación de AISoy1

Pensado para el usuario doméstico, AISoy1 estará disponible a partir del 10 de agosto aunque en la charla no se desveló su precio final.

BlindType, el teclado virtual inteligente

Uno de los grandes problemas de los teclados virtuales de los dispositivos móviles es que no son muy grandes, debido a las limitaciones de la dimensión de las pantallas de estos dispositivos, especialmente en los smartphones. Esto conlleva en que sea más fácil cometer errores de escritura, principalmente porqué los dedos no aprietan justo en el centro de la tecla que queremos escribir.

Aunque hay teclados muy buenos, como el del iPhone, todos ellos son propensos a este tipo de errores, especialmente si el usuario tiene los dedos un poco más grandes.

Para solucionar estos problemas se ha creado BlindType, un sistema predictivo que corrige los errores de escritura según vamos escribiendo. Además, aprende según nuestra forma de escribir, acoplándose perfectamente a cada usuario.

Aunque aún no está disponible, sus desarrolladores han anunciado que está trabajando en versiones para iPhone, iPad y dispositivos con Android.

Lo mejor es que veáis este vídeo demostrativo para que veáis con vuestros ojos la efectividad que consigue.

Más información en la página web oficial.

Kno, una alternativa al iPad

Todavía no está a la venta, pero si hacemos caso a sus fabricantes, prometen tenerlo listo en las tiendas para finales de 2010. El mercado de los tablets está que arde. Apple ha demostrado que existe un mercado inmenso para este tipo de productos después del enorme éxito de su iPad, y es lógico que las compañías de la competencia estén esperando el momento para plantear sus alternativas, que deberán, como mínimo, ofrecer algo igual o mejor.

Con esa filosofía aparece Kno en escena. Esta vez el tablet vendrá con dos pantallas de 14 pulgadas, unidas por una bisagra, con un claro enfoque a ser tratado como un libro o libreta. Su pantalla táctil y su interacción pueden apreciarse en un vídeo que han publicado en su web oficial. ¿Estaremos ante el “Ipad Killer“? ¿o más bien ante una nueva oferta dentro del mismo sector de mercado?

De momento, el precio parece que está en consonancia con lo que se pide por el producto de Apple, ya que se rumorea el Kno esté sobre los 800 euros.

Enlace a la página oficial de Kno