Revenir au site

Compte-rendu du NABSHOW 2017

Avril 2017 - Alain Puissochet

Le NABShow est l’occasion de faire le point sur les technologies et les acteurs de la télévision, de la video et de la radio, mais aussi et plus largement sur les évolutions des technologies et des usages dans le monde. Cette année le rapport se concentre sur la situation de la télévision terrestre aux USA, la situation et l’impact du nouveau standard américain de la télévision numérique, ATSC 3.0, le développement de la réalité virtuelle, la transition vers l’usage de l’IP notamment en production, le passage à la « ultra HD » et notamment le HDR (High Dynamic Range). Il évoque également la situation de l’industrie des équipements audiovisuels, ainsi que les développements liés à l’usage du cloud et aux enjeux de cybersécurité qu’il entraine.
Tout ceci se développe sur un mouvement continu, qui dépasse largement l’audiovisuel, de transition du hardware spécialisé vers le logiciel, et de la montée de la virtualisation.
Ce document s’efforce de n’évoquer les aspects techniques que quand ils sont nécessaires à la compréhension des enjeux. Son auteur est prêt à expliciter certains points sur demande.

  1. NAB2017
  2. La situation américaine
    1. Présentation générale
    2. L’ATSC 3.0
      1. Une méthode originale
      2. Principales caractéristiques
      3. La transition vers l’ATSC 3.0
  3. 4K, Ultra HD et HDR
    1. Présentation 4K
    2. 4K : le déploiement
    3. HDR High Dynamic Range
    4. Le 8K et au delà…
  4. La réalité virtuelle (VR Virtual Reality)
    1. Définitions
    2. La réalité virtuelle au NAB
    3. Le futur possible
    4. Les standards VR en préparation
  5. La transition vers IP (et le cloud)
  6. Le marché mondial des équipements audiovisuels
  7. OTT
    1. Débit et bande passante
    2. La guerre des Codecs

1. NAB2017

Le NABShow a connu son succès habituel avec plus de 100 000 participants de plus de 160 pays et 1800 exposants. Il constitue toujours le lieu de rencontre majeur de tous les producteurs d’équipements audiovisuel. Plus de dix cycles de conférence en parallèle s’y sont déroulés. En plus des sujets déjà « traditionnels » comme les drones et les médias connectés se sont ajoutés des sujets sur les blogs et autres newsletter, ainsi que sur la cybersécurité.
Les sessions purement techniques des deux premiers jours permettent de faire un point de l’état de l’art technologique réel.
Le slogan du NAB de cette année est « the M.E.T. effect », pour « Media, Entertainment and Technology », censé représenté une convergence « cimentée autour des systèmes intégrés, de la connectivité internet et des connexions croisées ». Les mobiles, les médias sociaux, les technologies informatiques font désormais partie de la famille. Intel, Google et Facebook étaient présents au NAB. Symbole de cette évolution, la conférence technique du NAB qui s’était toujours appelée BET (Broadcast Engineering Technology) est devenu BEIT (Broadcast Engineering and Information Technology).

2. La situation américaine

2.1. Présentation générale

Gordon Smith, président et CEO du NAB a présenté une télévision américaine marquée par les changements : passage très proche à la NextGen associé à l’adoption du standard ATSC 3.0 et a insisté sur le fait que ces évolutions, et l’utilisation des nouveaux modes de distribution des vidéos doivent aider la télévision à accroitre son audience. ATSC 3.0 doit permettre, en plus d’une qualité d’image supérieure, la diffusion vers les téléphones mobiles et tablettes, et l’utilisation combinée d’internet, dans un monde où le marché de l’OTT (OTT : Over The Top, c’est à dire via l’internet public) croit rapidement.
Les enchères (volontaires) de vente de fréquences télévision sont désormais terminées, avec un montant de ventes inférieur aux estimations. L’enjeu à court terme est le repack, c’est à dire le regroupement des fréquences en fonction de celles qui se sont libérées. Les chaines disposent de 39 mois et de 1,7 milliards de dollars pour le faire.
Lors des enchères, T-Mobile, Comcast et AT&T ont été les plus grands acheteurs avec des montants estimés estimé entre 1 et 10 milliards de dollars. NBCUniversal, Fox et Sinclair sont parmi les principaux vendeurs.
La nomination d’un nouveau président de la FCC (Federal Communications Commission), Ajit Pai par le président Trump a été bien accueilli par les chaînes (leur président est un ancien sénateur républicain). Il a annoncé une forte baisse des niveaux de réglementation (le principe de neutralité d’internet instauré précédemment par la FCC va être remis en cause), et en particulier les règlements limitant la concentration des médias au niveau local. Il devrait par contre soutenir le passage à la NextGen. En ce qui concerne la neutralité d’internet, un projet prévoit de ne plus soumettre les FAI aux mêmes contraintes que les opérateurs de télécommunication.
La levée probable des contraintes sur la concentration des médias a entrainé l’annonce de projets de rachats de chaines.

2.2. L’ATSC 3.0

2.2.1. Une méthode originale

ATSC 3.0 a connu ses premières démonstrations en 2015, et ses différents aspects sont testés et évalués depuis. La plupart des standards qui le constituent devraient être stabilisés pour la fin de l’année. ATSC 3.0 et NextGen TV désigne le même objet.
En 2017, l’ATSC 3.0 était largement présent sur les stands du NAB.
C’est un objet non identifié, de type nouveau : l’ATSC 3.0 est par principe non rétro compatible, ce qui met hors jeu les téléviseurs, les émetteurs et une grande partie des équipements existants. Or la transition vers le NextGen n’est pas obligatoire, et dépendra la décision de chaque chaine de télévision. Il est annoncé comme « market driven ». Il n’est prévu aucune action des pouvoirs publics, sauf l’autorisation du changement et la validation du standard. Une telle transition représente un bouleversement majeur. Le précédent exemple, le passage au numérique de 1997, était imposé par la loi et avait fait l’objet de nombreuses mesures d’accompagnement. La FCC devrait valider le principe et les standards de cette nouvelle transition, vers la fin de l’année, mais son accord est acquis.
Un tel changement suppose que les chaines trouvent elles mêmes les nouvelles fréquences nécessaires (en puisant dans leurs réserves ou en partageant des canaux), que de nouveaux téléviseurs soient achetés (ou équipés d’un convertisseur), et que les chaines financent tous les
nouveaux équipements nécessaires, ce qui représente un coût dont le montant est disputé, mais qui pourrait être élevé.

2.2.2. Principales caractéristiques

L’ATSC 3.0 implique au niveau de base le changement de technique de modulation pour adopter celle utilisée par le DVB T/T2, nettement plus efficace : le choix malheureux de la modulation fait pour l’ATSC 1.0 explique largement le fait que dans le monde entier, et malgré la pression américaine, ATSC1.0 ait connu un développement très limité en terme de nombre de pays. Sa mise en oeuvre implique donc le changement de téléviseur (ou un adaptateur) et d’antenne.
Du point de vue fonctionnel, il permet notamment de combiner accès Broadcast et Broadband, permet la diffusion vers les mobiles et l’utilisation d’antennes intérieures. La diffusion utilise la SFN (Single Frequency Network), qui permet aux émetteurs d’utiliser la même fréquence pour une chaine donnée. Le transport s’effectue uniquement au format IP (Internet Protocol) pour le Broadband et le Broadcast. Il permet aussi de diffuser la « Ultra HD », qui possède en particulier les caractéristiques suivantes :

  • Diffusion d’images 4K (3 840 pixels par ligne pour 2 160 lignes), soit avec quatre fois plus de pixel que la haute définition
  • Des améliorations majeures de la qualité de l’image transmise, notamment en terme de gamme des couleurs WCG (Wide Color Gammut ), de fréquence de trames HFR (High Frame Rate ) et de gamme dynamique HDR (High Dynamic Range). Le HDR permet notamment d’afficher les nuances à la fois dans les parties claires et les parties sombres de l’image, offre des niveaux de blanc et de noir jusqu’ici impossibles et permet un gain de qualité visuelle unanimement reconnu.
  • Un système audio « immersif ».

2.2.3. La transition vers l’ATSC 3.0

La Corée du Sud sera le premier pays à proposer une chaine utilisant ce standard, avec un lancement d’une chaîne terrestre le 31 mai par KBS, le principal opérateur de télévision. 5 chaînes seront diffusées dans un canal de 30MHz. Les autres opérateurs ont déjà déployé leurs réseaux à Séoul. D’ici le fin de l’année toutes les villes importantes doivent être couvertes, et l’ensemble du pays en 2020.

Aux USA, de nombreux sites expérimentaux existent, notamment à Raleigh, Baltimore, Cleveland et Madison. Les essais étaient documentés lors des sessions techniques et ont montré des résultats positifs, mais aussi quelques points techniques à finaliser.
Un sondage réalisé par WideOrbit montrait des résultats variés, un quart des broadcasters pensait le déployer en 2018, le reste se partageant à égalité entre « plus tard » et « je ne sais pas ». En particulier le coût de la transition, et l’incertitude sur son montant, est mentionné comme un facteur important. Enfin le modèle économique de ce passage est encore à définir. Les broadcasters qui se sont exprimés insistaient souvent sur l’absence de modèle économique clair pour gérer la transition.
Il faut noter que tous les standards nécessaires ne sont pas encore finalisés, même si c’est le cas de la majorité d’entre eux, et que la validation par la FCC de ceux ci est prévue pour la fin de cette année.
Aucune fréquence n’est attribuée pour le changement, ce qui va probablement nécessiter quelques acrobaties pour faire coexister 1.0 et 3.0 (le 3.0 permet de faire coexister plusieurs chaines sur une même bande de fréquence au prix d’une perte de qualité). Aucune date de fin de transition n’est également prévue, contrairement à la Corée du Sud, où l’extinction du 1.0 est programmée dans 10 ans, en 2027.
Enfin un facteur clé sera la décision éventuelle par les téléspectateurs de s’équiper de téléviseurs 3.0, alors qu’ils viennent d’acheter des téléviseurs 4K 1.0. La transition du HD vers le 4K est en cours, paraît bien engagée, mais est loin d’être achevée, et la plupart des téléviseurs 4K vendus jusqu’ici n’offrent pas le HDR (High Dynamic Range), qui est un facteur important de qualité visuelle. De plus le manque de contenus diffusés en 4K limite son intérêt. Enfin aucun téléviseur ATSC 3.0 n’est disponible sur le marché sauf en Corée. AU NAB, Samsung et LG présentaient effectivement des téléviseurs capables de recevoir ATSC 1.0 et ATSC 3/0. Les émetteurs numériques proposés au NAB offraient tous une préparation vers le passage à la NextGen.
Pour les broadcasters, une action simultanée Repack (voir plus haut) et passage à l’ATSC 3.0 a été évoquée.
Le modèle économique de NextGen est toujours indéfini : un responsable de la Fox en a parlé comme « ouvrant de futurs choix qui restent à déterminer ».

3. 4K, Ultra HD et HDR

3.1. Présentation 4K

Le vocabulaire est multiple: on parle de UltraHD, UHD, SuperHivison, UHDTV1 et UHDTV2 et ce ne sont pas les seules dénominations.
Le format vidéo doit être capable d’afficher au moins 8 millions de pixels, soit quatre fois plus que la haute définition en 1080p. La UHD ou UHDTV1 utilise une image de 3840 x 2160 pixels. La Super-Hivision japonaise couvre 4K et 8K.
Selon la définition de l’EBU (European Broadcasting Union), UHDTV couvre:

  • Une résolution de :
    • 3840x2160p (quatre fois la HDTV appelé 4K)1, ou
    • 7680x4320p (16 fois la HDTV appelé 8k).
  • Une gamme de couleur proche de celle de l’œil humain, défini par la norme BT2020
  • Un nombre d’images par seconde allant jusqu’à 100, voire 120
  • Une gamme dynamique d’éclairage (HDR), qui reste à définir.

Deux phases avaient été définies :

  1. UHD-Phase 1 couvre tous les écrans ayant seulement la résolution 4K sans les autres propriétés (c’est le cas des téléviseurs 4K apparue initialement)
  2. UHD-Phase 2 doit inclure également les autres propriétés2.

Un facteur favorable au 4K est l’existence de contenus grâce à l’usage d’un format très proche par le cinéma, ce qui permet de disposer immédiatement de contenu à diffuser. Un autre facteur est le développement de la compression HEVC, dont les premiers essais remontent à 2013, et qui permet de diminuer le nombre de bits nécessaire à la transmission d’une image d’un facteur significatif. Le passage au 4K, même avec la mise en œuvre indispensable de HEVC, implique cependant des coûts importants, en terme de bande passante, de volume de stockage et de puissance de calcul, mais aussi en termes de coût de production.
De plus la capacité par le téléspectateur de voir la différence avec une vidéo diffusée en HD est toujours objet de discussion, en fonction de la taille de l’écran et de la distance du téléspectateur à celui-ci. Enfin les nouveaux développements sur la couleur et la luminance laissent penser que ces deux facteurs peuvent avoir un effet plus important sur le ressenti du téléspectateur que le nombre de pixels. Toutes les démonstrations auxquelles j’ai assisté faisait apparaître une meilleur qualité ressentie d’image pour une vidéo HD avec large gamme de couleur et de luminance par rapport à une vidéo 4K utilisant couleur et luminance traditionnelle.

3.2. 4K : le déploiement

Les ventes de téléviseur 4K se sont très rapidement développée : la Consumer Technology Association (CTA, auparavant appelée Consumer Electronics Association, CEA), estime que 15 millions de téléviseurs UHD seront vendus avant fin 2017 aux USA, et 24,5 millions fin 2020.

  • La première version commerciale des téléviseurs UHD a été marqué par une volonté forte des producteurs chinois pour rentrer sur le marché, en jouant sur des prix très bas. Ceci a eu pour conséquence une baisse très rapide des coûts des téléviseurs UHD, et une croissance forte des ventes, ceci malgré la jusqu’ici faible présence de chaines de télévision en UHD. De plus les « up converters » du HD au 4K permettent des résultats visibles sur l’écran, qui peuvent convaincre des téléspectateurs (surtout si le surcout est limité).
  • Si les chaines ne se précipitent pas sur le 4K, ce dernier représente un atout compétitif majeur pour les diffuseurs en ligne, qui sont les premiers utilisateurs. Netflix et Amazon Prime sont parmi les plus actifs. Les opérateurs de satellite sont également intéressés, souvent en liaison avec leurs plates-formes IP.

C’est cependant le marché chinois qui domaine avec une prévision de 33 millions de téléviseurs livrés en 2017 (source IHS Markit).
Cependant les contenus ne suivent qu’au compte goutte : en avril 2017, on ne comptait que 139 films disponibles en UHD selon le CTO de 20th Century Fox Film Corporation, qui soulignait que tous les nouveaux films auraient une version UHD. La disponibilité de contenu utilisant HDR (voir ci dessous) est encore en émergence.

3.3. HDR High Dynamic Range

Le HDR (High Dynamic Range), peut être traduit par imagerie à grande gamme dynamique. C’est le développement technique qui provoque le plus de controverses. Le choix du standard est un point encore en discussion pour l’ATSC 3.0. Il est spécialement intéressant car il permet d’améliorer significativement la qualité de l’image, même sur des petits écrans. Cependant sa commercialisation est rendue difficile par l’ignorance du grand public de son intérêt.
L’apparition de ces technologies a entrainé celle d’un nouveau nom : SDR (Standard Dynamic Range) désigne désormais la situation actuelle, que personne n’avait pensé à nommer !
HDR est une technologie qui permet d’étendre la gamme d’éclairage qu’une image de télévision peut afficher. La HDR permet d’avoir sur une même image un même haut niveau de détail dans les parties sombres et les parties claires, et d’avoir des intensités lumineuses beaucoup plus élevées. Un écran HDR peut afficher jusqu’à 1000 candelas par mètre carré ou nits, voire plus contre 200 à 300 pour un écran « actuel ». Les informations de luminance transmises vers les téléviseurs cathodiques étaient limitées par la capacité de ces derniers à les afficher. Or les écrans plats actuels offrent des possibilités d’affichage beaucoup plus riches. Les démonstrations tendent à montrer que une transmission HD utilisant un dispositif de type HDR est perçue comme beaucoup plus belle qu’une transmission 4K sans HDR.
Un problème du HDR est qu’il fait l’objet de développements parallèles et que plusieurs propositions techniques sont en concurrence, soutenues par des producteurs de téléviseurs soucieux de les incorporer au plus vite dans leurs équipements. Les principaux systèmes sont ceux de Dolby, Philips, Technicolor et BBC/NHK. Ils divergent notamment sur la rétrocompatibilité HDR et SDR.
La norme HDR 10 est adoptée par la Blu-ray Disk Association et la Consumer Electronics Association.
Le déploiement du HDR pose aussi le problème du format utilisé pour la transmission, différent selon les propositions et la façon dont le téléviseur les utilise.
En janvier 2015, des industriels regroupant producteurs d’équipements, chaines de télévisions et broadcasters s’est créée sous le nom UHD Alliance pour définir de nouveaux standards concernant la future génération, concernant tous ces points et notamment définition (4K et au delà), HDR, gamme de couleurs, techniques audio. La solution annoncée au CES 2016 est celle d’un logo appelé « ULTRA HD PREMIUM ». Début 1017 a été ajouté le label UHDA « Mobile HDR Premium » visant ordinateurs, tablettes et téléphones.
La UHD Alliance regroupe studios, producteurs de CE et acteurs du Net, avec notamment Samsung, Sony, LG, Panasonic, Disney, Warner, Universal, Fox, Amazon, Dolby, Netflix, DirecTV et Microsoft.
Il vise à garantir à l’acheteur de téléviseur 4K la « conformité aux nouvelles technologies », ce qui se traduit par une liste de spécifications minimales dont les principales sont :

  • La résolution - 3840x2160
  • La couleur - 90% de la gamme dite P3
  • Profondeur de couleur - 10 bits et un signal BT20203
  • HDR - La possibilité de la mettre en oeuvre
  • La brillance - Des minimums définis de deux façons adaptés respectivement aux écrans LCD et OLED

Notons que tous les producteurs de téléviseurs n’adhérent pas à ces spécifications, et que chaque société est libre de mettre le logo ou non, même si elle pense y avoir droit.
En attendant, les producteurs de téléviseurs annoncent ou commercialisent des téléviseurs haut de gamme avec HDR incorporé.

3.4. Le 8K et au delà…

Depuis au moins 4 ans, NHK présente au NAB des démonstrations 8K, appelée super Hi-Vision qui utilise le 8K (soit 7 680 par 4320 pixels) avec une fréquence d’image jusqu’à 120 images par seconde. Le calendrier de passage à l’industrialisation annoncé dès le début est scrupuleusement tenu et même accéléré. Les premières démonstrations avaient eu lieu aux Jeux de Londres en 2012. C‘est en décembre 2018 que NHK va commencer une diffusion par satellite en 8K. Dès mars 2017, des tests de transmission des programmes (convertis de 8K en 4K) vers le câble ont commencé. NHK parle désormais de « 4K/8K Super Hi-Vision ». NHK a développé notamment un codec HEVC 8K.
Les démonstrations multiples et magnifiques au NAB présentaient des signaux encodés avec HEVC, présenté sur un écran OLED ultra mince (2 millimètres) de 130 pouces.
En Corée, des projets majeurs vont au delà du 4K, et sont basés sur des débits beaucoup plus élevé. Il s’agit notamment du 360 live broadcasting et du 360 VR Broadband streaming prévus pour 2018, et qui nécessitent 8K voire plus. Des projets concernent notamment la diffusion des hologrammes, et la Ultra-Wide vision (12Kx2K).
L’utilisation au salon de tels niveaux de définition peut surprendre : pour visualiser du 8K, il faut être à courte distance du téléviseur (2 à 4 mètres) pour bénéficier des détails visibles, ce qui permet évidemment un effet d’immersion plus important.

4. La réalité virtuelle ( VR Virtual Reality)

Elle était très présente dans les démonstrations, même si sa mise en œuvre commerciale est encore lointaine, à l’exception bien sûr des casques de réalités virtuelles.

4.1. Définitions

D’abord quelques définitions issues d’un document de travail de l’EBU4, auquel ont participé les principaux acteurs mondiaux :
La réalité virtuelle inclut la vidéo à 360°, ainsi que la génération en temps par ordinateur de celle-ci.
La réalité augmentée comme la réalité enrichie, superpose un contenu à l’image du monde réel. Dans le cas de la réalité enrichie, le contenu superposé est attaché à un objet présent sur la vidéo, et il y a une interaction possible entre le contenu généré et le monde réel, comme pour les projets de Microsoft et Magic Leap. Dans le cas de la réalité augmentée, le contenu est superposé à l’image, mais sans lien avec un objet précis, comme pour feu les lunettes Google.
Les degrés de liberté (DoF Degree of Freedom) caractérisent les possibilités interactives de mouvement. L’offre actuelle regroupe habituellement trois degrés de liberté : gauche-droite, haut-bas, et rotation autour de l’axe de vision. On peut aller jusqu’à 6, mais l’intérêt de le faire est très controversé.
Les casques disponibles peuvent être classés en deux catégories, appelées type A et type B dans un récent rapport du DVB. Les types A impliquent l’usage d’un téléphone mobile installé sur le casque, Google Cardboard en est un exemple. Les types B concernent des casques spécialement conçus pour la VR, comme Oculus Rift. La réalité virtuelle en 360 peut être visualisée par un casque, ou bien sur un écran de téléphone portable, d’ordinateur ou de téléviseur, et sur toutes sortes d’affichage circulaire (voir plus bas).
L’effet d’immersion recherché peut être renforcé par des écouteurs, capables de tenir compte de la position du spectateur et de celles des sources fictives de son.

4.2. La réalité virtuelle au NAB

Un pavillon lui était dédié pour la deuxième année, et de nombreuses démonstrations présentées. Greenlight Insights, une société dédiée au suivi de ce marché prédit un chiffre d’affaires 2017 de 7,2 milliards de dollars, dont la forte majorité est constituée par la vente de casques et des jeux vidéos associés. Microsoft, Sony, Intel, Nokia, Apple ainsi que Facebook et Google, mais aussi de nombreuses start-ups sont présents sur un marché considéré comme prometteur.
Notons que les démonstrations concernaient quasi exclusivement la réalité virtuelle, et non la réalité augmentée ou enrichie, à l’exception d’une démonstration de NHK.
Cependant la réalité virtuelle pour des acteurs de la vidéo pose encore de nombreux problèmes techniques. Le principe de la production consiste à filmer sous tous les angles, c’est à dire à utiliser des caméras multiples placées au même point et dont l’ensemble des prises de vue permet de couvrir l’espace.
Il faut ensuite générer une image continue couvrant tout cet espace et pouvoir le transmettre vers le casque ou le terminal de l’utilisateur final pour finalement afficher la partie de cette image « visible » en fonction de la position de celui-ci.
Parmi les nombreuses difficultés techniques actuelles, le problème du « stitching » c’est à dire de la couture des diverses images en évitant des raccords trop visibles constitue une difficulté majeure. Il faut générer une seule image à partir de ce qui est en fait sphérique, ce qui nécessite de reprendre à neuf les problèmes de la représentation du globe terrestre sur une carte. Au delà, il faut pouvoir transmettre cette image, dont l’utilisateur ne regardera jamais qu’une portion minime. Pour qu’il dispose d’une image de qualité, le nombre de pixels de l’image totale doit être très important. Les problèmes de transport et d’affichage d’une vidéo sont l’objet d’études nombreuses, avec des solutions variées, mais toujours à l’état de recherche. On peut par exemple ne distribuer en HD que ce qui est regardé, le reste étant en SD, et réagir à la demande ou encore utiliser une décomposition de l’image en tuiles… Un accord assez général au NAB était que le 8K était nécessaire pour transmettre de la VR en live.
Une façon originale de projeter les images est de le faire dans une bulle dans laquelle le spectateur est présent. Une société propose des igloos d’un diamètre pouvant atteindre jusqu’à 21 mètres de diamètre (et contenir jusqu’à 900 personnes), sur les murs duquel la vidéo est projetée en 360 degrés. Par ailleurs de nombreuses sociétés présentaient des outils permettant de mettre en œuvre la VR, et/ou d’offrir le service pour la mettre en œuvre.

4.3. Le futur possible

La réalité virtuelle a déjà un développement majeur dans le monde des jeux vidéo. Son usage pour la télévision est l’objet de débat : connaitra-t-elle le sort des téléviseurs 3D stéréoscopique, c’est à dire un échec cuisant ? C’est peu probable, car la réalité virtuelle peut être utilisée dans de nombreux autres secteurs : formation, enseignement, maintenance.
Cependant son développement se fera de façon lente : il n’existe aujourd’hui aucun modèle économique clair pour une application qui sera couteuse en terme d’équipements de production, de transmission et de terminal utilisateur. Le domaine n’a pas de standards de codage et de transmission. La transmission en streaming en utilisant OTT pose des problèmes de volume de bande passante nécessaire pour avoir une vision satisfaisante sur un grand écran de télévision.
Le téléviseur 3D stéréoscopique a échoué dans le salon pour plusieurs raisons, qui sont aussi présentes pour la VR : mal de tête induit, refus de porter des lunettes « exotiques ». On peut y ajouter nausées et vertiges signalés assez fréquemment.
Mes expériences multiples au NAB ont montré le risque lié à un déplacement basé sur la réalité virtuelle : on peut heurter assez brutalement la réalité tout court. Un chercheur a mentionné être troublé par le fait qu’équipé d’un casque, en baissant les yeux, on ne voit pas ses pieds. Bien d’autres enjeux concernant les liens entre le cerveau et le corps sont encore à explorer.
Cependant les premières œuvres crées pour la VR sont fascinantes : il ne s’agit pas de voir en trois dimensions, mais de se déplacer dans un monde fictif, avec une immensité de possibilités et de sujets. Il n’est pas étonnant que des créateurs s’en soient emparés.

La réalité virtuelle n’est pas un nouveau format comme le 4K ou le 8K, c’est un domaine beaucoup plus vaste, ouvrant de nouveaux domaines. C’est à proprement parler un nouveau média.

4.4. Les standards VR en préparation

La VR fait l’objet de travaux multiples de standardisation, issus de demandes du milieu industriel et qui peuvent donc montrer des possibilités d’évolution.
Une étude préliminaire du DVB a conclu à la nécessité de lancer une étude découpée en phase. La phase 1 s’intéresse aux terminaux capables d’effectuer un affichage 360 °, avec pour but premier d’identifier les besoins commerciaux pour les transmettre aux acteurs techniques.

Figure extraite du document « MPEG strategic standardisation roadmap » Ref ISO/IEC JTC 1/SC 29/WG 11 N16316 June 2016

Figure extraite du document « MPEG strategic standardisation roadmap » Ref ISO/IEC JTC 1/SC 29/WG 11 N16316 June 2016

Au delà, les travaux du MPEG permettent d’imaginer les 5 prochaines années. MPEG (Moving Picture Experts Group) est un groupe de travail, dépendant de l’ISO/IEC. Depuis bientôt 30 ans (le MP3 date de 1990), il a permis à des marchés considérables d’émerger en développant des standards pour la technologie des médias. Avec des centaines d’industriels participant à ses efforts, il s’efforce d’anticiper les besoins et lance des « call for proposals ».
Son plan de travail publié en 2016 fournit donc la vision la plus probable des développements futurs, notamment en ce qui concerne la réalité virtuelle.
Le premier standard développé, appelé OMAF pour « Omnidirectional Media Application Format » va définir un format pour les méthodes de projection en 3 dimensions et les données qui y seront associées, c’est à dire pour normaliser les développements actuels.
Mais au delà des codages supplémentaires sont en travaux :

  • Le « Lightfield coding » vise à décrire les informations de lumière pour toutes les directions de vue, permettant ainsi une vision non distinguable de celle du monde réel en navigation. Il faut envisager l’usage de caméras multiples, éventuellement capables de mesurer la profondeur de champ et de minicaméras multiples dans des boîtes. Ce développement (dont le succès est discuté) implique de réduire les coûts de transmission, d’édition et de rendu, tout en prenant en compte l’expérience utilisateur. Le même effort est à faire pour l’audio pour recréer le champ sonore quel que soit la position de l’utilisateur.
  • Le Point Cloud Compression : il s’agit d’un codage d’informations 3D, nécessaires pour permettre de transmettre et reconstruire une scène dans laquelle on se déplace et pour cela d’utiliser un nuage de points. Un nuage de points typique contiendra des milliards de points permettant de représenter une scène qui puisse être reconstruite de façon réaliste.

Tout ceci pourrait donner naissance au nouveau Codec MPEG-I, c’est à dire MPEG Immersif.

5. La transition vers IP (et le cloud)

On parle ici de la transition vers IP pour tout ce qui concerne la production des programmes, qui est le noyau dur des producteurs de télévision. Le mouvement s’accompagne d’une utilisation croissante du cloud, soit privé, soit public.
La distribution multi-terminaux repose déjà largement sur le protocole IP. C’est loin d’être le cas pour la production et les progrès réels sont continus, mais lents.

Un exemple 21st Century Fox
Depuis 10 ans l’IP est introduit dans la chaîne de production ; pour la production en direct l’utilisation de l’IP a commencé en 2017.
Un plan de travail pour Fox a été défini :
2015-2016 : from hardware based to software based (multiplatform)
2016-2018 : full cloud capability
2017-2019 : complete migration to cloud & dynamic content assembly
On peut imaginer qu’en 2020 il n’y aura plus d’équipement broadcast, mais seulement un centre de données !
Une telle évolution vise à permettre d’être plus flexible, c’est à dire de réagir face à des circonstances dégradées ou des conditions nouvelles.
Fox a lancé un projet (live virtualized terrarium) afin de se familiariser avec un écosystème de télévision virtualisé et basé sur le logiciel.

Jusqu’à présent, les développements étaient largement non compatibles. Or les grands acteurs n’acceptent pas de se voir imposer une chaine complète et désire pouvoir choisir chaque meilleur élément. Ceci nécessite la définition d’interfaces standards.
Plusieurs organismes5 travaillent pour arriver à un système avec des niveaux de standard suffisant pour pouvoir avoir plusieurs fournisseurs. Tout paraît converger vers les standards SMPTE et notamment SMPTE 2110, qui est une suite de nombreux standards concernant l’usage d’IP par les media professionnels.
Dès fin 2017, un certain nombre de spécifications et de produits seront disponibles. L’adoption complète des standards et l’existence d’une offre en conformité est attendue pour 2020.
La roadmap du JT-NM (Joint Task Force on Networked Media) prévoit l’adoption d’un standard pour la virtualisation à partir de 2019 (voir figure ci-dessous).
Cependant un sujet potentiellement bloquant reste la sécurité des contenus placés dans les nuages. Le piratage observé ne se limite pas à la copie illégale de contenu. Elle concerne également l’encryptage frauduleux de contenu, associé à une demande de rançon pour décrypter ces contenus. Ces « ransomware » appelés rançongiciel, se sont développés dans les dernières années, et visent d’abord les données personnelles des sociétés. Un espace dédié à la cybersécurité avait été créé au NAB (Cybersecurity and content pavilion).

broken image

6. Le marché mondial des équipements audiovisuels

Selon la société Devoncroft, qui effectue en liaison avec l’IABM un suivi du marché des équipements et services audiovisuels, le marché des équipements audiovisuels se serait élevé en 2016 à 51 milliards de dollars pour environ 3000 sociétés, contre 48 en 2015. C’est donc un marché relativement petit, comparé au marché de l’électronique grand public (5 fois plus grand), à celui des services audiovisuels et bien entendu des technologies de l’information. Cependant il permet et nourrit une part importante de ces marchés. On peut noter les croissances significatives de sociétés françaises : Ateme (31%), Anevia (55%) ou Technicolor (17%), mais aussi Vitec.
De plus, les clients des équipementiers connaissent toujours des marges confortables : Disney 34%, Comcast 33% , Time Warner 29%, Discovery 38%,…et d’ailleurs toujours très supérieures à celles des acteurs de l’OTT comme Netflix (4%), qui a cependant supporté un investissement considérable en termes à la fois de production de contenus et de pays servis.
La consolidation se poursuit dans le domaine des équipementiers. Il est souvent lié aux grands mouvements qui restructurent l’industrie :

  • L’utilisation croissante du cloud : un nouveau produit a peu de chances s’il n’est pas « cloud-compatible », et même
  • Le mouvement général vers les plates–formes informatiques standard et les développements logiciels, qui entraine une baisse des marges, un transfert des revenus vers les sociétés des technologies de l’information et une baisse de la demande d’ingénieurs hardware.
  • La croissance continue de l’utilisation de l’IP pour la distribution, mais aussi pour la production
  • Le changement des usages avec le passage au multi plate-forme et son impact sur toute la chaine de valeur
  • La présence croissante des grands acteurs de l’IT dans les équipements audiovisuels.

Après le rachat de Elemental par Amazon Web Services, plusieurs rachats dont deux sociétés dédiées au traitement de la vidéo:

  • Thomson Video Networks par Harmonic, ce qui crée probablement le leader du marché,
  • Envivio par Ericsson
  • Ustream par IBM, ce qui conforte la position d’IBM dans le « cloud video »
  • Orad par Avid, renforçant sa position dans le domaine du sport et du direct.

Les sujets clés actuels sont très différents de ceux des années 2000-2010 et comprennent la virtualisation, la transition vers l’IP et l’outsourcing des opérations. Le multi plates formes est toujours à l’ordre du jour, mais le problème n’est plus la technologie, mais le modèle économique.
Le marché a aussi évolué dans un mouvement vers des infrastructures « agiles » et l’accent mis sur les services.
Le souci premier des chaines acheteuses, après avoir assumé le coût de la transmission au numérique est toujours la baisse des coûts d’exploitation. Il faut aussi souligner la relative lenteur de la transition. Les amortissements des équipements sont souvent calculés sur 5 à 7 ans, mais la durée de vie utile est de l’ordre de 10 à 15 ans.

7. OTT

Les « networked media » étaient très présents au NAB, avec une conférence dédiée. Il ne s’agit pas ici de faire une présentation des développements OTT6, mais de souligner quelques points importants, sans aborder le développement de l’OTT.
D’abord la NexGen prévue par le standard ATSC 3.0 vise à combiner OTT et broadcast, même si l’usage attendu n’est pas défini.
Il pourrait permettre, face à la tendance croissante des téléspectateurs américains de se désabonner de la télévision payante (le « cord cutting »), d’offrir de façon intégrée une offre de streaming OTT, qui se développe depuis deux ans en particulier. La plupart des opérateurs américains (CBS, HBO, ABC, Nickelodeon, Showtime, ESPN, etc.) ont lancé des offres de streaming OTT.
Netflix a réussi à s’imposer par une offre majeure de contenu, confirmant en quelque sorte la position des chaines traditionnelles : pas de revenus sans contenus originaux. La société va être présente dans plus de 130 pays, et se caractérise par une part importante de ses vidéos produite en interne (estimé à 50% des diffusions). 5 milliards de dollars auraient été investis par la société en 2016 dans les contenus, et 6 milliards sont prévus pour 2017.

7.1. Débit et bande passante

Cependant un problème majeur concerne depuis toujours l’OTT, c’est celui de la bande passante. Le passage au 4K alourdit considérablement le problème. Par exemple Netflix, qui est aujourd’hui l’acteur majeur du 4K recommande pour le recevoir un débit minimal de 16Mbps.
Le problème se complique avec l’utilisation du cloud pour la distribution de vidéos multiformat, notamment face à l’existence de plusieurs standards concurrents de streaming adaptatif. Une unification des standards éviterait d’avoir à diffuser plusieurs flux pour la même vidéo. Cette évolution discrète, mais importante doit être réalisée à travers le standard CMAF (Common Media Application Format) du MPEG. Il permettra notamment d’unifier le streaming adaptatif développé par MPEG, Dash et le format utilisé par Apple, HLS. Un tel développement a été initialisé en 2015 par Microsoft et Apple et un draft de spécification présenté. Il permettrait un gain considérable de place et de débit nécessaire dans le réseau de transport et de distribution de l’OTT multi-plate forme. Il prend en compte AVC et HEVC, mais permet d’autres codecs (AV1).

7.2. La guerre des Codecs

Un problème lié aux codecs standardisés au niveau du MPEG Group est le coût des droits de licence associés, qui a fait continuellement l’objet de conflits et d’ajustement.
Lancé en septembre 2015, une organisation regroupant les acteurs de l’Internet, Alliance for Open Media, regroupe notamment Google, Microsoft, Intel, ARM, Nvidia, Mozilla, Amazon, Netflix et Cisco, s’est donnée comme objectif de co-développer des formats libres de royalties, et en priorité un codec, qui pourrait concurrencer HEVC , ou le successeur éventuel de celui-ci. Cependant le succès d’une telle tâche reste à prouver, alors que HEVC a déjà acquis des positions importantes. HEVC est compatible avec la plupart des standards : BT2020, HFR, HDR, Wide Color Gamut, MPEG DASH. Le prix des licences est désormais fixé, et HEVC est présent sur des millions de téléviseurs et de mobiles. Le nouveau codec en préparation, AV1, devrait être disponible en fin d’année 2017 (en retard sur les prévisions) en version de base et des mises en oeuvre hardware pourraient apparaître un an plus tard. Il succéderait au codec VP9, déjà incorporé dans nombre de browsers. Il sera probablement utilisé par les acteurs du Net, mais paraît n’avoir peu de chances de gagner le marché des acteurs de l’audiovisuel. Son succès suppose évidemment que l’accord sur la gratuité des royalties soit maintenu entre les différents acteurs qui possèdent des droits sur certains aspects de la technologie.