Install Natron on Ubuntu 14.04 64 bits

Press Ctrl+Alt+T on keyboard to open the terminal. When it opens, execute this commands:

sudo apt-get install libegl1-mesa

cd ~/Downloads

wget http://sourceforge.net/projects/natron/files/Natron_Linux_install_x86-64bit_v1.0.0-RC3.tar.gz

./Natron_Linux_install_x86-64bit_v1.0.0-RC3

and follow instructions…

;)

If you don’t know wtf natron is, look at http://natron.inria.fr/

Talleres de montaje y etalonaje con Blender

A finales de marzo Carlos Padial estará en Madrid impartiendo nuevos talleres de montaje y etalonaje con Blender.
Taller de Montaje Cinematográfico con Blender____+info 24-28 Marzo 2014, Sapiens (916 22 90 75), Madrid (lunes a viernes, de 19:00 a 22:00) 29-30 Marzo 2014, Sapiens (916 22 90 75), Madrid (intensivo sábado y domingo, de 10:00 a 14:00 y de 16:00 a 20:00) precio: 75€ Taller de etalonaje: Fundamentos del color digital____+info 31 Marzo - 4 Abril 2014, Sapiens (916 22 90 75), Madrid (lunes a viernes, de 19:00 a 22:00) 5 - 6 Abril, Sapiens (916 22 90 75), Madrid (intensivo sábado y domingo, de 10:00 a 14:00 y de 16:00 a 20:00) precio: 75€
para inscripciones llamar al telefono 916 22 90 75

8º Encuentro Kinoraw

Jueves, 13 de febrero a las 18h. En Telenoika, carrer Sant Pau, 58 -rAVal- BCN. Entrada lliure Grupo de experimentación con cámaras de cinema digital de hardware y software libre. Encuentro en el que haremos un repaso a la nueva Axiom d'Apertus ( http://apertus.org ) y de las cámaras ELPHEL, tanto la NC353, como la nueva NC393 ( http://elphel.com ). Dispondremos de nuevas ópticas y accessorios para la cámara y hablaremos del diseño de un cuerpo de cámara para hacerlo con impresora 3d. Probaremos nuevas maneras de estrimear el flujo de vídeo de la cámara Analizaremos la nueva protoboard Parallela con FPGA programable. ( http://adapteva.com/announcements/the-parallella-board-uncovered ) Os esperamos el jueves, no os lo perdais !

Estado de la cuestión

Actualmente esta web está un poco desestructurada y en reparación. Nadie sabe exactamente cuanto durará esto ;P De todos modos, aquí intentamos mantener actualizada la lista de addons para blender e información sobre como usarlos: Además, hemos organizado estas páginas con la info mas relevante de lo realizado por el momento en el proyecto. Los posts con fecha anterior a esta entrada, son artículos recuperados del antiguo blog, y puede que alguna imagen o enlace este roto.

Kinoraw en la OSHWcon 2012

La OSHWCon es un encuentro anual de 3 días que organiza el colectivo Synusia en un esfuerzo de difundir el uso del Hardware Libre y de promocionar la electrónica y la filosofía del «Hazlo tú mismo». La última edición tuvo lugar en el Centro de Formación Padre Piquer, Madrid los días 21, 22 y 23 de septiembre de 2012.

Allí tuvimos la oportunidad de dar una ponencia sobre Apertus y Kinoraw. Pudimos ver funcionando diversas impresoras 3d y debatir con mucha gente sobre construcción, programación de FPGAs e incluso sobre cámaras plenópticas aquí una explicación visual

read more

Resumen de compras

Comienza a llegarnos las ayudas de la campaña de Goteo… lo primero que vamos a hacer es comprar unas cuantas piezas de equipo necesario para convertir nuestra cámara en un equipo realmente portable.

Un miniordenador

Ya que el ordenador que va dentro de la cámara ya esta bastante ocupado con las tareas de gestión del sensor, grabación y emisión del streaming, la mejor opción es disponer de un miniordenador de abordo, con linux o android, que se encargue de lanzar programas y gestionar el control de cámara. Después de mucho investigar sobre la rapsberri (quizá demasiado ligera), pandaboard (quiza demasiado pesada); y siguiendo el consejo de Victor de Citilab, nos hemos decidido por la Mele A2000. Un ordenador de potencia similar a la rapsberri, pero con una GPU un poco mas potente la llamada Mali 400, la misma GPU que lleva el samsung Galaxy. Y con una buena noticia añadida: Existe un proyecto de driver de código abierto para esta gpu, el proyecto Lima.

read more

Como realizar un timelapse 2/3: con gstreamer y elphel (o una webcam cualquiera)

Este segundo tutorial lo podéis aprovechar, tengáis o no, una cámara de hardware libre. Incluyo los comandos de gstreamer para hacerlo con la elphel, pero también para poder seguirlo con cualquier webcam que tengaís a mano.

En el siguiente enlace podéis bajaros el vídeo en alta resolución, en este caso 1088×1920 pixeles (sí, directamente en vertical)

LINK VÍDEO ALTA RESOLUCIÓN (botón derecho > guardar enlace como…)

La premisa

Nuestra intención es programar un script muy sencillo que recree un intervalometro. Mientras se ejecuta, captura una foto cada x segundos —los que le pidamos— y guarda los frames en una carpeta.

Configuración

La cámara está configurada en modo JP4 (raw) aunque la imagen la guardaremos en formato png de 8 bits. En este caso, sirve como ejemplo para ver como se hace el demosaico y la interpolación del patrón bayer a rgb, en tiempo real con gstreamer, algo que será útil más adelante para tener feedback de lo que grabemos en raw. En cierto modo, el comando de gstreamer que veremos, hace algo parecido a lo que el ordenador que lleva dentro cualquier cámara que grabe en raw y tenga que mostrar una imagen en 8 bits de lo que graba, decodificando el raw al vuelo.Que nadie se asuste, muchos de los conceptos del párrafo anterior serán explicados en detalle en otras entradas, nos vamos a limitar a hacer un timelapse…

La velocidad de obturación, la ganancia y el balance de blancos en automático. Esto hace que haya bastantes saltos de intensidad en la imagen, sobre todo cuando cambian bruscamente las condiciones de luz.

La resolución se configura en 1920×1088 pixeles.

A pesar de que el formato HD es 1920×1080, la cámara trabaja con el valor 1088 por ser este número múltiplo de 16. En realidad, seguramente todas las demás cámaras HD también capturan la imagen con esta resolución, porque a los microprocesadores les cuesta menos operar con múltiplos de 16. Aunque las 8 últimas filas de pixeles se descartan en algún momento posterior, invisible al usuario, para adaptarse al estándar 16:9 (ó 1.77). A veces, simplemente se indica en el metadata, y los visores no reproducen esas líneas, aunque estén ahí.

La captura. Creando un script con un bucle while

Para realizar la captura utilizaremos un script que prepara una carpeta y ejecuta un comando de gstreamer con el que guardar fotogramas en formato png o jpg. Para evitar que la captura se detenga, en caso de que se cierre el gstreamer —cosa que a veces sucede, por ejemplo si falla la red wifi— colocaremos el comando gstreamer dentro de un bucle while.

Un bucle while es una estructura de control muy importante en programación, ya que nos permite definir una tarea que se repetirá mientras se cumpla una determinada condición. La estructura es:

while (condición); do (aquí va el comando o comandos que se repetirán mientras la condición sea cierta) done

En nuestro caso, si usamos true como condición, el bucle se convierte en un bucle infinito, ya que true siempre es cierto, así como false siempre sera falso (por fortuna, en programación no existen los valores subjetivos.)

Este es el script que he escrito para hacer la captura con la elphel:

# !/bin/bash

reel=$1 mkdir $reel

speed=1/$2 while true; do gst-launch-0.10 rtspsrc location=rtsp://192.168.0.9:554 latency=100 ! rtpjpegdepay ! jpegdec ! queue ! jp462bayer ! "video/x-raw-bayer, width=(int)1920, height=(int)1088, format=(string)grbg" ! queue ! bayer2rgb2 method=1 ! ffmpegcolorspace ! videorate ! video/x-raw-rgb,framerate=$speed ! ffmpegcolorspace ! pngenc snapshot=false ! multifilesink location=$reel"/frame%05d.png" done

read more

FFMPEG 2: Convertir una secuencia de fotogramas a video

Para convertir una secuencia de imagenes a video, podemos usar un comando de ffmpeg

Es un método muy rápido a través del terminal.

ffmpeg -i %06d.jpg -vcodec mjpeg -qscale:v 1 -r 25 ../output2.avi

ffmpeg -i %06d.jpg -vcodec mjpeg -qscale:v 1 -r 25 ../output2.avi
argumento descripción
-i %06d.jpg el fichero de salida que se generará, en este caso, el directorio en el que queremos que se guarde (el que hemos creado) / nombre del fichero de salida y extensión (jpg). Los caracteres raros en medio del nombre (%06d) seran sustituidos por el número de fotograma correspondiente (en un formato de 6 digitos (000001, 000002, etc…)
vcodec mjpeg el codec de video que se utilizará para generar el nuevo fichero, en este caso, un motion jpeg.
-qscale:v 1 nivel de compresión del fichero (de 1 a 32, cuanto mas bajo mayor calidad)
-r 25 el framerate al que se generará el nuevo video, esta opcion nos permite tambien corregir la tasa de fotogramas por segundo al convertir videos (no es un comando exclusivo de las secuencias de imagenes) En este caso, crearemos un fichero a 25 fps.
../output.avi el fichero de salida que se creará. Los dos puntos (../) que aparecen delante del nombre del fichero quieren decir que el video se creara en la carpeta exterior a la que nos encontramos (la carpeta con la secuencia de imagenes). De este modo no tendremos que buscar nuestro fichero dentro de una carpeta con 5000 frames, y trabajaremos mas rapido.