Archivo de la categoría: Sin categoría

FS RAW upgrade for FS5 announced at NAB

Hi all again! Very exciting news these days…

Maybe you’ve just heard/read it in the typical NAB announcements or via social media ( https://youtu.be/WnitX19JZeo?t=2m50s ); the expected (and announced since the beginning) “FS RAW” upgrade for PXW-FS5 (“CBKZ-FS5RIF”) will be available soon. Very soon. So, let’s see what it means.

pxwfs5_3q_150728_09-Mid

FS RAW? AND 4K? BUT… THAT’S A LOT OF BPS!

I’m sure some of you have heard, or, even better, have worked on NEX-FS700 and/or PXW-FS7. For you, this announcement will probably something “natural”, and nothing that I’ll explain here will be really new.

As you may know, through a 3G-SDI interface (the main output, together with HDMI, in FS5) the maximum picture format that can be transmitted is 1080/50p (or 60p). However, it a 4K resoution needs to be sent, we would need a minimum of 6G-SDI connector.

However, this announcement (as years/months ago with FS700 and FS7), means that a 4K RAW signal can be delivered through that BNC connector. So… how????

In NEX-FS700, a little piece of hardware upgraded needed to be installed. In PXW-FS7, a camera adaptor needs to be attached to the camera body, XDCA-FS7. This time, for PXW-FS5, we simply need a firmware upgrade that can be done by end-user (but not as “simple” as a regular FW upgrade).

But those three models share the same kind of communication: through that BNC connector. Instead of sending the video in baseband, such video signal is converted into data and then encoded (under Sony proprietary protocol) and sent in data stream into the receiver.

OK, IT’S DATA, BUT HOW TO DECODE?

The first solution that existed for recording RAW from a FS700 was AXS-R5. However, R5 was a recorder that was mainly designed to be fitted in the rear part of PMW-F5 or PMW-F55. It receives signal from a multipin connector.

So, an intermediate hardware is needed: HXR-IFR5. This interface has a triple function:

  • physical connection (it “emulates”) the rear part of a F5/F55
  • operation over R5: in F5/F55 operation is done via camera body. Here we’re missing such interface, so a set of buttons is needed.
  • decoding FS RAW signal: as said, that data stream encoded under Sony protocol needs to be converted into “video signal”, so that R5 receives it through its multipin interface.

This was the first way to record RAW from FS700, and it can be also used for FS7 and FS5. The only problem for some customers in this case could be the price: HXR-IFR5 + AXS-R5 + olivine battery + AXS memory + AXS memory reader can cost the same price (more or less) as the whole FS7.

FS5 RAW

So, some third-parties appeared; they held conversations with us, so that they could get access to the FS RAW protocol. Their typical workflow is to capture the FS RAW data stream and then convert it into a more “light” codec (despite it can also be RAW). They usually work over HDD or SSD drives, and use to provide also a monitoring solution. Obviously, the price is also smaller: about 1/4-1/3 of Sony’s solution. As you may have guessed, I was talking about Convergent Design with their Odyssey7Q/7Q+ recorder and also Atomos Shogun.

WHAT ELSE CAN BE ACHIEVED WITH FS5’s RAW UPGRADE?

Well, as you may expect from a camcorder that can reach up to 240 fps in Full HD, the FS RAW upgrade also improves the super slow-motion capabilities.

As you know, default super slomo feature in FS5 (and in FS7) works over a buffer. That’s why it is “cached”: about 8 seconds if shooting at 240 fps. Now, this “caché way” is only applied if we shoot 4K at 120 fps, in which we’ll have 4 seconds burst. That means that, if at 24p recording, we are shooting 120/24=5 times faster, which means that those 4 seconds are “time stretched” to 20 seconds. In 4K in RAW quality, not bad 😉

And regarding 240 fps, now there wouldn’t be time limitation if shooting in RAW; this means we can reach a “continuous” mode without caché.

 

According to my information, this upgrade will NOT be free of charge. Also, the procedure will be very similar to the one you should follow to convert your X70 into a 4K camcorder. Oh, and don’t forget you will need to update your FS5 into V2.00 (not available at the moment of publishing this entry) in order to be able to upgrade with CBKZ-FS5RIF.

 

Thanks for reading, and I really expect this little explanation is useful.

Regards!

Anuncios

HXR-NX100: announced at Broadcast Asia

Hi all!

Maybe some of you have been active this morning on social media, and have realized that we have just announced a new camcorder at Broadcast Asia event.

NX100_3q_02-1200

This new camcorder is named “HXR-NX100”. And it is undoubtfully a nice camcorder, but probably the main question out there is: “Another camcorder by Sony???”. And, yes, you are right if you are wondering that. But there are a few reasons to embrace this new announcement.

Firstly, let me remind you I am just “the technical guy”. Yes, I belong to marketing, and that could be seen as a handicap, but you can be sure I try to position myself much closer to the user than to the brand in most of the cases.

So, many of you may know about PXW-X70. A nice little camera, with a great (literally) sensor, and a top level codec (XAVC). It works really fine, and, due to its sensor resolution (20 Mp), I expected its low lights to be a bit “weak”, but when playing with it in dark environments, it is really, really solid when managing that kind of information. You can remotely operate it, so it turns it into the perfect camera for documentaries: with a couple of them in your backpack (no heavy weight), you can shoot a nice multi-camera production held by just one operator.

But, what about those cases in which such operator prefers to do an ENG job? Obviously, X70 is a light but powerful tool, but some users prefer, when operating a camera in a handheld way, to be capable to play with the classic 3 lens rings. Yes, you can do something similar on X70 (zoom on the hand grip, iris on the little knob on the front of the camera, and focus on the lens ring – when shooting with a 1″ sensor, bokeh effect is significant), but some users were telling us that using that sensor on a 3-rings lens would be a perfect combination not only for live events (ENG, interviews, sports, concerts) but also for fictional purposes in which DoF is a critical aesthetic tool. Even, we could drop some functions from X70, if we could work on such new model. If, for instance, you are a YouTuber, a student, a freelance, a wedding videographer… you will surely be interested on NX100, and you will miss nothing.

NX100_lens_05-1200

And there it is: HXR-NX100. Probably that was the gap we were missing during months: a high-level but basic price tool that suits almost every situation, in an entry and mid level.

[From now on, please consider that I haven’t had the model in my own hands, so I can just judge it according to the information I have, as well as my prior experiences with other models]

It will look very familiar for those of you that have already worked with any Sony model, but if you haven’t, you should know that operation in our camcorders uses to be very intuitive, and optimized for the operator (we bear in mind such a big quantity of feedback that sometimes it’s almost unmanageable 😛 ).

ABOUT THE TECHNICAL SPECS

Let’s talk a bit about the specs. Yes, the boring thing. But we cannot skip them.

¿Sensor? What has been labeled like “the grand one” or “the big one” (with no… let’s say… hidden implications 😉 ), referring to its size in inches. From my POV, it’s the perfect balance between those people for which a Super35 or an APS-C sensor (like on a FS100 or an EA50, respectively) is “too big”, since it demands a constant focus operation, and those ones that claim that a 1/3″ sensor doesn’t allow them to play enought with the DoF. So, what am I referring to? That either if you are needing a “reality” look (let’s say news or sports) or a more “aesthetic” or “fictional” look, you can reach both with this camcorder, via the way you prefer: closing iris, moving the camera a bit further, playing with the ND filters…

NX100_leftside_03-1200

… because, yes, it does have ND filters. So, good-bye to those situations in which you are shooting in a dark environment and, when going outside, you need to fastly close iris, increasing your DoF. Now, simply apply an ND filter, and keep your iris open. Nothing new, of course, but strange to be found in a camera ranged at this price.

But, Alvaro, if you have always recommended to use the same resolution in the sensor as we have in the outputs, why are you defending a 20 Mpx camera? Oh, nice to hear that question! Well, in fact, I keep saying the same: due to pixel size, I prefer the sensor resolution to be as maximum the same resolution as the highest output. Sorry? Yes, let me explain: if you are using a 4K-capable camera, I prefer sensor to be 4K/8.3Mpx, but no larger; that way, each pixel has its maximum area, so it can collect the maximum quantity of light possible. So, how could it be interesting to have a bigger resolution in the sensor? Obviously, we sacrifice pixel density (thus, dynamic range), but with the high sensor quality existing nowadays, that is affordable (unless we are thinking of latitude for cinema applications). On the other hand, we can use that bigger pixel density to analyze signal. And that analysis helps us to have other features available; in this case, the well-known Clear Image Zoom.

Yes, I have heard that before, but… how does it work? Actually, it’s really easy. In a classic Digital Zoom, the usual way to do it is through interpolation: if a value of “1” is found in a pixel, a value of “3” is in an adyacent pixel, and we want to “zoom in”, we simply use an average, so the result should be “2”. That could be called a “spatial interpolation” (similar concept to an intra-frame codec). But, according to not only the previous frames, but also a classifying algorhythm, that signal can be compared to hundreds of patters (let’s say not only “radial movement” or “panning”, but even some recognizable patters, like, let’s say, “face”, “sky”, “flowers”, “pavement”…), and then that prediction is processed together with the interpolating mechanism, so that the final result provides a significantly bigger quality when zooming in. Is it clearClear… Image Zoom. This algorhythm can convert the optical 12x zoom into a 24x, and, added to that, we can use a digital extender to reach a 48x zoom. You can take a look on a [low quality; sorry] video that I uploaded some months ago in my YouTube channel.

NX100_front_08-1200

Another feature that some users will appreciate is the codecs available in NX100. I will skip DV recording for obvious reasons. But, added to that AVCHD 2.0 that allowed up to 50p in Full HD (it is “only” 28 Mbps), this time we can use the same last generation codec we have, for instance, on Alpha A7s, which is an implementation of XAVC codec. Bear in mind that, for recording on that XAVC-S codec, you’ll need to use at least a “Class 10” or higher SDXC card. For AVCHD, Memory Stick (Pro Duo, Pro-HG Duo, XC-HG Duo) or SD/SDHC (classes 4, 6 or 10) can also be used. Oh, and, of course, stereo audio is recorded in LPCM (in AVCHD, it can be also AC3).

About the way to record, apart from the typical “relay” or “continuous” recording (one of the cards runs out of capacity, so the clip continues on the other card, since the camcorder has double media slot), or the “simultaneous” or “backup” mode (same clips on both cards; for example, for security, or for using one of them to start editing, and the other one for colour grading), there is a third way to record, that we saw for the first time in NX3 ( in this video ), which allows us to shoot DIFFERENT contents in both cards, with each card commanded by a different REC trigger. Imagine you are recording a live concert; in one of the cards, the whole concert can be stored, while in the other one, you can shoot just the highliths or each song independently. Very useful for editing, or for avoiding loosing some interesting take.

NX100_rightside_04-1200

I know this is getting boring (sorry for that, and for my poor English, btw), so I will just remind some other nice features, like the MI shoe (no external cables for UWP-D receiver or HVL-LBPC torch), the LowLux mode (highest sensitivity mode with an assignable button), picture profiles and up to 99 camera profiles (copy from 1 NX100 to another, or use the cam profile according to the actual situation), Intelligent Auto (optimal setting for a certain scene after evaluation), LanC remote control…

NX100_rear_06-1200

Mmmmmh… yes, but, what about SDI, WiFi…? Well, those are the features that, according to the price range, needed to be dropped from other models (for instance, X70). However, and this is also a personal opinion, in most of the situations in which this camcorder will be probably used, I woldn’t miss them (but, obviously, this is subjective).

NX100_top_07-1200

So, after that revision of the technical specs, let’s wait to have this nice little camcorder in our hands (I’ll probably have a pre-sales version in a couple of weeks) in order to see which sensations are provided. Unfortunately, I am not a skilled user, so let’s wait especially for the reputed guys to do some review…

Thanks for reading!

Alvaro Ortiz

Product Specialist for Monitors and Entry-Level Camcorders

Sony Professional Solutions Europe

Twitter: @AlvaroOrtizSanz

Noise or aliasing problems on a 4K sensor?

Hi all again.

I have just been called a few minutes ago about a very well-know usage problem on 4K sensors, and especially in our FS700’s: customers use to claim that some artifacts or “moiré/aliasing” effects appear on their camcorders, especially after upgrading into v3.0 (that one that allowed to output 4K, amongst other new features).

Fortunately, those effects only appear when shooting in Full HD or 2K mode. Why do I say “fortunately”? Because it’s not a malfunction in the sensor, but it has a physical explanation.

If you have ever used a PMW-F55, you may have seen that there is an option called “CBK-55F2K”, which is actually an OLPF (optical low pass filter) of which cut-off “frequency” (actually, wavelength) is 2K.

F55body

As you know, cameras like FS700, FS7, F5 or F55 incorporate a native 4K sensor. In audio environment, if we want to record certain bandwidth (let’s say the typical 20 kHz), we need to filter it at its maximum frequency before sampling (and sampling frequency should be, at least, double that rate, according to Mr. Nyquist). That filtering process will avoid undesired frequencies to appear and cause artifacts on the final signal. Well, the same happens for optical signal: if we are shooting at 2K resolution, but our sensor is 4K (or, in a DSLR, much bigger), it is recommended to use a low-pass filter to avoid undesired artifacts/noise on that band that goes from 2K to 4K wavelength.

CBK-55F2K Filter - 3Q

So, for those models in which CBK-55F2K cannot be installed, it is recommended to use an EXTERNAL optical filter; CBK-55F2K is mounted between sensor and lens, and is easily detached or installed via screws. In FS700’s case, a 2K-cutoff wavelenght low pass filter should be installed before the lens, as if it was a regular filter.

NEX-FS700 3Q5

Finally, let me explain how I understand that the upgrade into 4K works on FS700. You may remember it was relased on its birth as a “4K-ready” camcorder. About 1 year later, we announced how it could be converted into a “real 4K” camcorder, allowing it to output 4K via its 3G-SDI output (you can see another article I wrote last week about how it works). That upgrade needs to be done via both software and hardware; that’s why it was usually charged (except in sporadic events in which we did it for free). In models NEX-FS700R and NEX-FS700RH, that upgrade was installed by default.

HXR-IFR5 with AXS-R5

[Image extracted from the V3.00 presentation when it was released]

Bear in mind this explanation is just “conceptual”, and is far away from being accurate and technical; just my understanding. This V3.00 firmware allowed to output RAW signal (2K or 4K) via a compressed dataflow (not actual baseband video) through FS700’s SDI output. Remember I’ve just said RAW. So, as the sensor outputs the signal, it is driven through 2 ways: first one, in RAW, into the encoder for outputting that dataflow through the BNC connector, and the second one, the regular one, to which we can apply signal modifications (picture profiles, including S-Log2, which is another improvement via V3.00 version, codec, HDMI output… all those typically “FullHD”). So, as you can see, sensor is “serving” signal to those two paths, but don’t forget it is a native 4K sensor, so, unless we work in 4K resolution (over AXS-R5 or Odyssey7Q), we are likely to find those artifacts due to the fact that, between 2K and 4K wavelengths, there is a gap in which such effects can be shown.

I just wanted to explain that those effects are actually not due to a malfunction on the camera, but a purely physical light behaviour. Also, sorry for being very “soft” about the explanation of how RAW path works in FS700; just wanted it to be comprehensible enough.

Thanks-a-lot for reading!

Alvaro Ortiz

Product Specialists Entry Level Camcorders and Monitors – Sony Professional Solutions Europe

How to record 4K from a NEX-FS700

Hi all.

First of all, this is my first article in English in this little corner, so I do apologize for the likely spelling and grammar mistakes I will surely commit. I hope that “the importance lays on the content” is really applied here. Also, bear in mind that I only work for Sony, but there is no revising from the company, so this is just and only my PERSONAL blog, related to product.

As you may know through other channels (YouTube, Twitter, presential presentations, fairs…), I work as Product Specialist for Sony Professional Solutions Europe. My colleagues and I try to provide pre-sales technical knowledge about the products in our division; in my case, camcorders.

So, one of our star products is NEX-FS700. As you may know, it’s a Super35 mm CMOS camcorder that can output 4K RAW signal, can record super slow-motion bursts (up to 240 fps in FullHD sensor scanning, and up to 960 scanning about 20% of the horizontal lines), and is compatible almost with any lens system thanks to its E-mount system.

One of the most asked questions is about 4K: when announced and released, it was told to be a 4K-ready camcorder. About 1 year later, we unveiled how we could do that: via a hardware upgrade, that would allow us to output RAW signal through its 3G-SDI interface.

Wait a moment… 4K, RAW, and SDI? What??? Yes; as you know, for a 4K signal, a HDMI 2.0 connection can be used or, on a professional environment, 4 3G-SDI cables are typically needed. So, where’s the trick? Actually, what we are doing there is compressing the signal, with a very low loss (or even lossless; I would need to review) algorithm. So, no standard communication, no baseband output (for instance, on Alpha 7s, the QFHD signal is outputted in baseband format, so any device that can “talk” that language will be able to display or record the signal).

As I was telling, we are using and algorithm, and it was originally designed for working on an AXS-R5-based recording solution. AXS-R5 is a recorder that was originally designed to be attached directly on the rear part of F5 and F55, and records signal over AXS memory cards. Such a high-level system needed a high-level algorithm to work with, in the case of FS700. So, we apply that algorithm to its output, we transmit that “bitstream data” (not “video stream”, actually), and on the other side it needs to be decoded. That is the first function for HXR-IFR5, the interface that we need to insert between the SDI cable and AXS-R5.

The second function that IFR5 does is to adapt physically R5: as told before, AXS-R5 was designed to be attached to F5/F55, so we need to provide that physical interface and, obviously, its multipin connection. And its third mission is to have a control panel over the recorder, in case we need to operate R5 directly (for instance, playback function over R5 cannot be commanded from FS700 – and bear in mind that R5’s output in that case is downconverted FullHD, not 4K).

HXR-IFR5 NEX-FS700 monitoring

[These slides are extracted from the presentation we used either when that option (v3.0) was announced), or at the FS700’s announcement time]

HXR-IFR5 with AXS-R5

Finally, as the only connection between FS700 and IFR5 is a single SDI cable (it can be really long, about 70 m, so nice for underwater shooting, cranes, etc, in which we don’t want to have a bulky and heavy camera head, and the rec system can be put in another location), there is no power, so a battery or a DC power feed needs to be used on the recording “kit”.

Ok, now it’s clear how it works, but… price? Well, we can say that, more or less, the price for the recording part (IFR5, R5, BP-FL75 olivine battery, AXS memory and card reader) can be comparable to the one of the camcorder itself. Nice if you already work with F5/F55, or your rental house have those camcorder models, but for a freelance user that only uses FS700, it can be really costy.

So, there is -at least, so far- an alternative solution to AXS-R5. I told that the algorithm we were using for outputting RAW signal is Sony property. The only company (as of October 2014, at least) that has got access to it is Convergent Design, and their Odyssey7Q recorder can be used not only as a decoder and recorder, but also as a monitor due to its OLED screen.

RAW output can be recorded in 12-bit depth DNG files. Also, for 4K, it can de-Bayer the 4K RAW signal flow from the SDI interface, downconverted into HD, and then recorded in Apple ProRes 422 (HQ) format. It has been announced that in a near future, 4K ProRes will be also available.

Seems nice, but… what about the price in this case? That is one of the strong points: as of October 2014, Odyssey7Q is announced for about 1421 € (on their website it is expressed in US dollars, and not with or without VAT), and the FS700 upgrade is priced about 630 €. So, a solution that costs about 2000 €.

You can find detailed information about Odyssey7Q here:

https://odyssey7q.com/products/odyssey7q.html

and about its FS700 upgrade here:

https://odyssey7q.com/products/odyssey7q/sony-fs700.html

So, from my PERSONAL point of view, please bear in mind what you need, the format you are likely to work with, and then make your choice. Also, as a note, and because there were also some comments about it, Convergent Design is NOT Sony-owned company. It’s just a third party high quality recorder manufacturer, as Atomos, Focus, Cinedeck… can be. Or as the multiple E-mount adaptors (to EF, to PL, to… almost every lens system) manufacturers: Metabones, MTF, Novoflex, Birger… they are not owned by Sony, also.

E-mount adaptors

Finally, let me thank you for reading this -probably boring- article, but I think that sometimes it is useful that a Sony guy can tell you this kind of information as it is, without any official marketing tool involved between you and us.

Thank you very much indeed, and, again, sorry for my English. 🙂

PS: I will try to review this article and, in case there is anything to correct (probably), I will do, but preferred to provide it to you all asap.

¿Cómo funciona un monitor OLED profesional de Sony?

Hola a todos de nuevo.

Siento no haber encontrado un título más atractivo para esta entrada; de hecho, en principio iba a llamarse “Cómo funciona un monitor OLED”, pero se ha escrito tanto, y tan bien, que no tenía sentido incidir en el mismo.

Sin embargo, no he visto tanto acerca de cómo funciona un monitor OLED profesional de Sony. O los motivos físicos de que la tecnología OLED proporcione tan buenos resultados, y se puedan aplicar de forma fiable al entorno profesional.

En primer lugar, para saber, de forma general, cómo funciona un OLED en comparación con las dos tecnologías que teníamos hasta ahora: LCD y TRC.

LCD Y TRC: CÓMO FUNCIONA CADA TECNOLOGÍA

En primer lugar, hemos de pensar que uno de los factores más importantes para delimitar el entorno profesional en que se pueda utilizar un monitor es el espacio de color (“cantidad de colores distintos que se pueden representar en la pantalla”, para entendernos).

En un TRC (tubo de rayos catódicos), la imagen se escanea “punto por punto”, ya que hay un triple (R,G,B) haz de electrones que salen de un cátodo (de ahí el nombre) e impactan sobre unos fósforos/fosfitos que se encuentran en la parte posterior de la pantalla, tras atravesar una rejilla. Esos tres rayos tienen que incidir exactamente en cada uno de los subpíxeles de la parte posterior de la pantalla, y es muy habitual que haya que efectuar ajustes con cierta asiduidad para alinear esos tres haces. Por otra parte, son unos monitores muy sensibles a los campos electromagnéticos, y no sólo a la situación típica de tener un altavoz cerca de “la tele de tubo”, sino incluso al campo magnético terrestre, que puede llegar a condicionar la posición del monitor en nuestra sala de edición o de ajuste de color.

Obviamente, el factor más influyente para determinar el espacio de color es la pureza de cada una de las componentes (RGB), y, por lo tanto, de los fosfitos de la pantalla. Además, como los rayos se emiten desde “un punto”, proyectando a su vez esos rayos sobre otro punto (el píxel), si utilizásemos una pantalla plana los rayos no recorrerían la misma distancia en el centro o en las esquinas de la imagen, y podría darse el caso de que apareciese cierta aberración geométrica. Por eso (y por consistencia/robustez de la pantalla – recordemos que dentro tienen, idealmente, vacío) las pantallas de tubo han tenido tradicionalmente el interior cóncavo, “redondeado”, excepto en el que quizá ha sido el máximo exponente en lo que a calidad en TRC se refiere: la tecnología Trinitron de Sony, que aunque tenía cierta curvatura horizontal, no la tenía vertical (además de no utilizar rejilla de sombra, sino rejilla de apertura). Hay mucha literatura al respecto.

Aunque la tecnología Trinitron abría las puertas de una mayor resolución y una reproducción de bajas luces realmente profunda, todos recordamos la sensación de desasosiego que entraba cuando teníamos que mover un monitor de tubo. Peso y volumen, sus mayores problemas, aparte de eficiencia energética, seguridad, etc. Pues ahora imaginaos un panel de monitorado en una unidad móvil. Pobres amortiguadores. Y el reflejo en la pantalla, o la vista lateral: la luz se refractaba en el propio cristal, y se dispersaba hacia los lados de modo que limitaba muchísimo el ángulo de visión.

Así que, por suerte o por desgracia (hablo de las primeras generaciones), llegó la tecnología LCD al mercado de forma masiva, y, lógicamente, también al entorno profesional. Y, sí, todos recordamos los dos principales problemas de la tecnología LCD: los negros y el arrastre. Pero quizá sea mejor entender cómo funciona una pantalla LCD para dar una explicación a esos efectos.

En primer lugar, al fondo de la pantalla, tenemos un emisor de luz blanca. Tradicionalmente ha sido algo tan sencillo como unos cuantos tubos fluorescentes (CCFL) distribuidos regular y horizontalmente. Más adelante se utilizó la tecnología LED, bien mediante LEDs blancos, o bien alcanzando el color blanco mediante suma aditiva (de LEDs rojos, azules y verdes); en ambos casos distribuidos uniformemente a lo largo y ancho de la parte posterior de la pantalla.

La luz así generada es “caótica”: es blanca, sí, pero no tiene ningún “orden”, ninguna polarización. Sí, sí, el mismo concepto que se utiliza en las gafas de sol para eliminar la luz que procede del suelo (y que, por tanto, conocemos su ángulo de incidencia, más o menos).

Pues bien, esta luz tiene que ser polarizada para entregársela “ordenada” a la capa de cristal líquido: se hace mediante un polarizador, que, para entendernos, es “un peine”, que hace que todo el campo eléctrico de la luz que lo atraviesa sea paralelo entre sí, y lo mismo con el campo magnético (recordemos que la luz es un campo electromagnético). Así, por ejemplo, pensemos en un peine puesto en horizontal, y sus cerdas, por lo tanto estarán en vertical; sólo la luz que tenga polarización vertical lo podrá atravesar.

Lo siguiente que atraviesa la luz es un electrodo (cátodo o ánodo) transparente, al cual están “ancladas” las moléculas de cristal líquido. Obviamente, la siguiente capa es el propio cristal líquido; es una sustancia a medio camino entre un sólido y un líquido, puesto que sus moléculas (bastante grandes, por cierto) tienen cierta ordenación por ser típicamente longitudinales, pero también disponen de una cierta libertad de movimiento – por eso tenemos que anclarlas a uno de los dos electrodos-. Y, para terminar de confinar la capa de cristal líquido, al otro lado tenemos el otro electrodo (ánodo o cátodo), pero que no tiene “anclaje” con las moléculas de cristal líquido más cercanas, para permitirles moverse.

Tras ese electrodo, otro polarizador (por ejemplo, en horizontal) que entrega la luz a los filtros del panel, que son verdes, azules y rojos, y que finalmente por delante llevan una capa que da consistencia (algun material sintético parecido al cristal o al policarbonato).

Vale, esas son las capas, pero, ¿cómo funciona? Nos habíamos quedado en que “peinábamos” la luz. Tras pasar por ese polarizador y por el primer electrodo, la luz, ya polarizada, se entrega a la capa de cristal líquido, que, recordemos, está “anclada” a ese electrodo. Así, maximizamos la transferencia de luz. Es como decir que la luz “vertical” se encuentra unas “puertas verticales” al entrar al CL. Y en el CL, dependiendo de la tecnología (voy a referirme a TN – Twisted Nematic, para hacer el ejemplo más digerible), se produce mayor o menor giro de la luz, puesto que en un TN, dependiendo del voltaje que tenga en los electrodos que lo rodean, las moléculas giran más o menos grados. Y se entrega al otro polarizador, al otro lado del CL.

Es decir, si un píxel está con una luminancia al 100%, se aplica máximo voltaje entre los electros que confinan al CL, provocándole un giro de 90º, y la luz que entra con polarización vertical gira en el interior del CL esos 90% (como si fuese un tramo de montaña rusa, o un tornillo de 1/4 de vuelta), y sale hacia el otro polarizador con polarización horizontal, y como ese polarizador está dispuesto en polarización horizontal, lo atraviesa. El caso opuesto: si un píxel tiene que estar al 0% (negro), no se aplica tensión entre ambos electrodos, el CL no se orienta de forma que pueda girar la luz, y por lo tanto la luz queda bloqueada porque no puede atravesar el segundo polarizador, ya que lo ataca con polarización vertical, y ese polarizador es horizontal.

Posteriormente, como ya he mencionado, tenemos los filtros R, G y B que dotan de color a esa luz: tratamos, por tanto, por separado la luminancia y la crominancia.

Parece buen plan, pero, entonces, ¿por qué no ha funcionado como debía, excepto en los monitores de más alta gama?

En primer lugar, el “leaking” o “fugas”: aunque, en teoría, el CL oriente la luz como queramos, se pueden producir reflexiones y refracciones dentro del panel, y es por eso que incluso a bajas luces, era muy difícil alcanzar un nivel de negros “decente”. De hecho, recordaréis que era muy, muy distinta la sensación del monitor LCD con señal en negro y con el monitor apagado: sabíamos perfectamente que el monitor estaba encendido debido a este ligero brillo azulado que emitía, pese a no tener señal. Por eso la reproducción de niveles bajos de señal era bastante deficiente, sobre todo en equipos de bajo coste.

Y otro de los artefactos típicos era el “motion blur” o “arrastre”. Se debe principalmente a dos factores: el comportamiento del cristal líquido es “con memoria”, debido a que obedece a unos ciclos de histéresis en su respuesta de paso de luz frente a voltaje. Sorry por ponerme en plan técnico. Esto hace que si damos un impulso eléctrico a un píxel, esa posición del CL se mantiene hasta que un nuevo pulso aparece. Claro motivo de arrastre, ¿no? El segundo factor es que, como he comentado, las moléculas de cristal líquido son relativamente grandes, y, por lo tanto, tienen inercia, y esa limitación física hace que no puedan responder “a velocidades eléctricas” o “electrónicas”. Por eso los fabricantes de monitores, especiamente del entorno profesional, son extremadamente selectivos con la capa de CL: si la hacen tan estrecha que las moléculas puedan conmutar con cierta velocidad (para reducir el arrastre), la capa no será tan gruesa como para filtrar totalmente la luz en caso de reproducir bajas luces, y por lo tanto el comportamiento de los negros no será el esperado.  También se pueden aplicar algunos algoritmos para reducir el motion blur; por ejemplo, si el CL es suficientemente rápido, podemos aplicar el impulso de señal, y a continuación aplicar un “impulso a 0 voltios” para que las moléculas retornen a su posición de negro antes del siguiente campo.

Incluso en algunos monitores profesionales finalmente se ha podido implementar un escaneo entrelazado nativo: las pantallas LCD son, por naturaleza, de escaneo progresivo (tenemos que dar señal a TODOS los píxeles en cada campo), pero si conseguimos mantener las líneas pares e impares (alternativamente) “iluminadas con negro” (vamos, “apagadas”), podremos reproducir la señal en entrelazado nativo.

Otro “pequeño” inconveniente es que, como habéis podido comprobar, la luz originalmente blanca atraviesa muchas capas (dos polarizadores, dos electrodos, una capa de cristal líquido, los filtros RGB…), y eso hace que, si la transparencia de cada capa no es elevada, la luz acabe “tiñéndose”. Estaban muy de moda las televisiones “LED”, haciendo referencia a su retroiluminación (y con la intención, claro, de acercar la mentalidad de algunos usuarios a que estaba “cercano al OLED”), pero no por ser retroiluminación LED tiene por qué dar unos blancos más puros que con CCFL (eso sí, el panel será más plano).

VALE, Y AHORA, ¿CÓMO FUNCIONA UNA PANTALLA OLED?

En primer lugar, dejemos claro que la evolución de las pantallas OLED ha sido análoga a la de los monitores LCD: se comenzó con pantallas de pequeño formato, y cuando se han alcanzado unos niveles de calidad y unos costes razonables, se ha ido incrementando el tamaño de los paneles. Tengo en casa mi amado MiniDisc MZ-RH1, que ya traía una pantalla matricial monocroma OLED. Ahí queda eso.

A grandes rasgos, el problema de la fabricación de los OLED es que se tiene que hacer crecer el sustrato de silicio en un área cada vez más grande, y la eficiencia que se tenía al principio era relativamente pobre (no se respetaba el porcentaje mínimo de píxeles muertos, o hacerlo era extremadamente caro). A medida que se han ido mejorando los procesos de fabricación, se ha optimizado ese crecimiento del silicio, y hoy en día tenemos este tipo de pantallas incluso en televisores de consumo.

Con respecto al funcionamiento, más simple no podría ser: ¿recordáis la estructura de los LCDs? ¿Retroiluminación, polarizador, electrodo, cristal líquido, electrodo, polarizador, filtros? Pues bien, quedémonos sólo con lo último, pero en lugar de ser filtros, hagamos que sean directamente los emisores de luz. Así, en lugar de compartir el blanco entre ellos y filtrarlo (mezcla sustractiva), haremos mezcla aditiva.

Así, tendremos el control DE CADA SUBPÍXEL EN CADA MOMENTO. Adiós al motion blur. Adiós al leaking. Así que adiós al arrastre y al pedestal de negros. E, insisto, “en cada momento”: nada de ciclos de histéresis o retención de señal hasta el siguiente frame (a menos que queramos emularlo mediante algún algoritmo; de hecho, hay gente que en determinados casos aprecia cierto flicker debido a la rapidez del propio panel).

Si quiero rojo, sólo ilumino los subpíxeles rojos, y el verde y el azul se quedan callados. ¿Blanco? Pues todos a trabajar al 100%.

Como podéis imaginar, tener un control tan preciso y absoluto sobre el panel hace que, lo primero, podamos trabajar incluso con más profundidad de bit, puesto que ya únicamente vamos a depender de la electrónica, no de la capa de CL. Además, el contraste es insultantemente alto, puesto que ¿cómo se genera el negro? Apagando todos los subpíxeles, es decir, ¡NO HAY LUZ! Por lo tanto, el margen dinámico del monitor es mucho mayor (ya veremos en un medio plazo cómo trabajar con HDR en monitores profesionales).

Pero con esta tecnología Sony ha ido un paso más allá. Tienen una marquita, un logotipo con una tipografía rara, de color verde, que se hace llamar “STE”. “Super Top Emission”. Suena a la lista de los más oídos de la semana, pero ¿a qué hace referencia?

En lugar de disponer de los electrodos de cada uno de los subpíxeles en lados opuestos del mismo (lo que haría que la luz tuviese que atravesar el electrodo que está entre el LED y el observador), han situado los dos electrodos en el mismo plano, y el LED está edificado “sobre ellos”. Buena idea, pero lo realmente revolucionario es la segunda parte: dentro de cada uno de los LEDS, usar una “microcavidad”.

Muchos recordaréis, o tendréis una ligera idea, de lo que es una cavidad resonante en audio, o simplemente un filtro: algo que, debido a ciertos “rebotes” (eléctricos, acústicos…) actúa como un filtro de ciertas frecuencias o longitudes de onda. Pues la microcavidad de la tecnología STE obedece al mismo concepto, pero dentro del entorno óptico: cada LED tiene un pequeño “recinto” que hace de filtro de longitudes de onda.

¿Y para qué sirve eso? Cada LED, pese a ser ya de por sí de gran pureza, emite centrado en una longitud de onda correspondiente al rojo, al verde o al azul. Pero alrededor de esa longitud de onda puede abarcar más o menos espectro (como una campana de Gauss). Si logramos reducir ese espectro “adyacente” a la longitud de onda que realmente deseamos extraer, ese color será más puro, y tendremos mucho más control sobre esa componente a la hora de hacer una mezcla aditiva de color. Es decir, el blanco será más puro, y podremos abarcar un mayor número de colores a reproducir, lo que quiere decir que tendremos un mayor espacio de color.

 

¿Y CÓMO ESTAMOS A DÍA DE HOY?

Pues la verdad es que las noticias son muy, muy buenas.

Sony ya disponía de la familia TRIMASTER en tecnología LCD, y ahora la heredera es la TRIMASTER EL (ElectroLuminiscent, en referencia al OLED). Los monitores actuales (hablo a día 23 de Septiembre de 2014) de la familia PVM-A (PVM-A170, PVM-A250) están orientado a un entorno broadcast, pero sin las exigencias (por ejemplo, de espacio de color) del mundo de la cinematografía.

En monitores de referencia para ese mismo entorno broadcast están los modelos BVM-F (BVM-F170, BVM-F250), pero los monitores de grado 1 para cine, con la menor tolerancia del mercado, son los de la familia BVM-E (BVM-E170, BVM-E250).

Todos tienen resolución FullHD (1920×1080) ó 1920×1200, pero hoy en día se habla mucho, y ya es una realidad, el 4K.

Ya teníamos desde hace meses el PVM-X300, de resolución 4K real (4x 2K) en tecnología LCD, pero este IBC se presentó, por fin, el esperado monitor OLED de grado 1 en resolución 4K, el BVM-X300. Como su hermano, tiene 30 pulgadas de tamaño, lo cual para salas de ajustes de color/etalonaje parece ser a lo que los coloristas están acostumbrados (recordemos que muchos no han pasado por la etapa LCD, y harán la migración directamente de TRC a OLED).

Pero, vamos, tenéis bastante información al respecto en la parte profesional de la página web de Sony (os recomiendo echarle un ojo; tiene algunos documentos interesantes), y, si habéis leído hasta aquí, estaréis deseando que llegue el final para recuperar un poco de vuestra vida, porque posiblemente ya se hayan olvidado hasta de vosotros. Disculpad por la extensión del artículo…

Un atento saludo, y MUCHAS GRACIAS 🙂

 

Me debería presentar… a ver qué digo

Hola a tod@s.

En primer lugar, quiero agradecerte personalmente que ya hayas llegado a leerme hasta aquí, aunque sean sólo 20 palabras.

No sé cómo presentarme, porque, por un lado, mi intención es hacer de este un blog relativamente serio. Y eso, trabajando para la marca para la que trabajo, es importante. Pero, por otra parte, mi empresa no tiene absolutamente ningún control sobre lo que publico aquí, de modo que no querría que se convirtiese en un bombardeo de mensajes. Obviamente, estará orientado a nuestros productos, pero si no confiase en sus capacidades, directamente no me habría planteado la posibilidad de escribir libremente.

Respecto a mí, poco que decir… bueno, que mis ámbitos personal y profesional cada vez están más unidos: empecé en esto de la tecnología en mi adolescencia, porque quería entender cómo funcionaba algo que me gustaba tanto, tanto: la música electrónica. Y no me refiero a nivel de producción musical, sino a preguntas como “¿cómo funciona un plato giradiscos?”, “¿cómo se transmite la señal a través de un cable?”, “¿cuál es la magia dentro de una mesa de mezclas?”… y eso me llevo a intentar estudiar, y, sorpresivamente, acabar, la carrera de Ingeniería de Telecomunicaciones. En la carrera conocí a mi novia; mi mayor artífice para todo, y, en aquellos momentos, también para seguir insistiendo para terminar todos los cursos. Me pongo romántico, sorry…

Luego, un tiempo trabajando en la parte de telecomunicaciones de una empresa energética, y, de repente, la llamada: una gran marca de referencia, del mundo audiovisual, japonesa… ¡estaba interesada en mí! Obviamente, dije que sí; parecía que se cerraba el círculo.

Y así es: entré a trabajar en Sony. Primero como Product Manager, y actualmente como Especialista de Producto. ¿Sony? ¿Los de la PS3, la PS4, las superteles, los auriculares, los Blu-Rays…? Sí, bueno… en realidad, aunque ambos somos la división de Electrónica, yo pertenezco a la parte Profesional. ¿Que qué es? Bueno, digamos que la experiencia que tiene Sony en el mundo audiovisual de consumo (lo que mencionaba antes) no es por casualidad: su auténtico banco de pruebas, su “Formula 1”, es el mercado profesional. En concreto, para lo relacionado con imagen, tenemos cámaras de vídeo, de cine, robotizadas, mezcladores de vídeo, monitores profesionales… por ejemplo, esas cámaras que les ves a los reporteros en las ruedas de prensa, o las que parecen cañones en los partidos de fútbol, o, cuando aparece la sala de edición con esos paneles de monitores y un panel lleno de botones de colores (el mezclador de vídeo)… pues ese es el mercado profesional audiovisual de Sony, aparte de otros. Otros como el archivado, el Ojo de Halcón (¿Mande? Sí; el famosísimo Hawk-Eye pertenece a Sony)… Obviamente, también “andamos” metidos en desarrollos de estándares (posiblemente recordaréis la dichosa lucha Blu-Ray vs HD-DVD), para cine, TV, etc. Vamos, que es entretenido.

¿Qué hago yo allí? Pues, como decía, estuve dos años como Product Manager para Iberia, y ahora estoy como Especialista de Producto (la parte “técnica” de preventa, por así decirlo) para el sur y el este de Europa, y el Reino Unido. Todo esto para cámaras de lo que denominamos “Entry Level” (cámaras profesionales de hasta 10-150000 euros) y monitores profesionales.

¿Y me gusta? Suena raro, pero SÍ, MUCHO. Bueno, más bien: hay una gran parte de mi trabajo que me gusta mucho. Suena bien, así escrito. Contacto a nivel técnico con Japón, otros grupos de producto, mis amiguetes de ventas, los distribuidores, prensa, “broadcasters”, productoras, colaboradores externos… pero, lo más importante, y el colectivo que más admiro: los usuarios. Vosotros.

No he tenido la suerte de trabajar como videógrafo, cámara, productor, director de fotografía, colorista… O la desgracia. Porque, la verdad, tenéis un mérito enorme. Es, posiblemente, uno de los campos donde hay que tener más equilibrio entre una base técnica sólida, y unas capacidades artísticas más que notables. Hoy en día el mundo se mueve por imágenes, y los profesionales que las generan son más vitales que nunca. Que sí, que podemos entrar en la eterna discusión de que si es más importante un neurocirujano o un oncólogo, o lo pasa peor un albañil. Pero no quiero discutir de eso ahora; la mayoría de los que estáis leyendo esto posiblemente trabajéis en la sombra, y no salgáis delante de la cámara, sino detrás, de una forma u otra. Y, por mi poca experiencia, siempre, siempre tenéis en mente que la calidad sea la mayor posible con los medios de que disponéis. Y es ahí donde os ponemos nerviosos los fabricantes.

Hace años, el mundo de las cámaras era parecido al mensaje de Ford de hace más de 100 años: “elige el color del coche, mientras sea negro”. Pues bien, hace poco más de una década, el mensaje era: “elige tu formato de cámara, mientras sea Betacam”.

Mucho ha llovido desde entonces (y, no, yo no estaba aquí en esos tiempos): digitalización, codecs, sensores, lentes, tarjetas, informática, redes…

Así que, desde este pequeño rinconcete intentaré simplemente expresar lo que pienso, sin más tapujo que dando mi opinión desde el punto de vista de alguien del lado de los fabricantes, pero sin olvidar que TODO LO EXPRESADO EN ESTE BLOG OBEDECE ÚNICAMENTE A MI OPINIÓN PERSONAL, y nadie más es responsable de ello.

Lo mismo ocurre con mi cuenta de Twitter ( Alvaro Ortiz, @AlvaroOrtizSanz) o mi canal de Youtube.

De modo que BIENVENIDOS, y espero estar a la altura.

Un atento saludo.

Alvaro.

PD: he elegido hoy, primer día del IBC2014, como punto de partida de este blog. Así nos acordamos. Y ha sido intenso (3 modelos nuevos de “mis” cámaras).