Revenir au site

Compte-rendu du NABSHOW 2018

Mai 2018 - Alain Puissochet

Le NABShow est l’occasion de faire le point sur les technologies et les acteurs de la télévision, de la vidéo et de la radio, mais aussi et plus largement sur les évolutions des technologies et des usages dans le monde. Cette année, la grande nouveauté a été l’apparition très médiatisée de l’intelligence artificielle (IA). Ce rapport analyse la réalité de sa mise en œuvre dans l’audiovisuel, et les incertitudes d’un développement annoncé comme explosif. Le rapport fait le point sur la situation de la télévision terrestre aux USA, et en particulier le nouveau standard américain de la télévision numérique, ATSC 3.0, aussi appelé NextGen TV, le développement (ralenti) de la réalité virtuelle, les progrès de l’usage de l’IP et du cloud (réels, mais toujours plus lents qu’annoncé) notamment en production, le passage à ce qui désormais appelé la UHD (Ultra High Definition) et son impact sur la télévision terrestre. Il évoque également la situation de l’industrie des équipements audiovisuels. Tout ceci se développe sur un mouvement continu, qui dépasse largement l’audiovisuel, de transition du hardware spécialisé vers le logiciel, et de la montée de la virtualisation. Ce document s’efforce de n’évoquer les aspects techniques que quand ils sont nécessaires à la compréhension des enjeux. Son auteur est prêt à expliciter certains points sur demande.

Sommaire

1 NAB 2018

2 L'intelligence artificielle en fanfare

3. La situation américaine ATSC 3.0

4 UHD/HDR/4-8K

5 La réalité virtuelle

6 La transition vers IP (et le cloud).

7. OTT

8 l’arrivée de la 5G

1. NAB2018

Le NABShow a connu son succès habituel avec plus de 100 000 participants de plus de 160 pays et 1700 exposants. Il constitue toujours le lieu de rencontre majeur de tous les producteurs d’équipements audiovisuel. Plus de dix cycles de conférence en parallèle (plus de 200 sessions) s’y sont déroulés. En plus des sujets déjà « traditionnels » comme les drones, la cybersécurité et les médias connectés ont été évoqué tous les sujets technologiques actuels et à venir, ayant potentiellement un impact majeur sur la profession, de la voiture connectée à la 5G. Les sessions purement techniques des deux premiers jours permettent de faire un point de l’état de l’art technologique réel. Les slogans traditionnels étaient présents :« Where content come to life » et « the M.E.T. effect », pour « Media, Entertainment and Technology », censé représenté une convergence "cimentée autour des systèmes intégrés, de la connectivité internet et des connexions croisées" . Les mobiles, les médias sociaux, les technologies informatiques font désormais partie de la famille. Intel, Google et Facebook étaient présents au NAB. Symbole de cette évolution, la conférence technique du NAB qui s’était toujours appelée BET (Broadcast Engineering Technology) est devenue BEIT (Broadcast Engineering and Information Technology). Notons qu’en même temps que le NAB ont eu lieu l’audition de Marc Zuckerberg devant le Sénat américain, largement diffusée, et l’occasion d’entendre parler de façon favorable des réglementations Européennes, et notamment du RGPD (règlement général sur la protection des données).

2. L'intelligence artificielle

L’intelligence artificielle était la principale nouveauté du NAB, avec la multiplication des présentations, notamment par des grands acteurs, comme Amazon, Google, IBM et Microsoft. Ces sociétés combinent une offre dans le cloud avec une large gamme d’outils destinés à la mise en œuvre de projets d’intelligence artificielle.

 

2.1 les grands acteurs

Rappelons que l’intelligence artificielle regroupe un ensemble d’outils informatiques, qui existe depuis des dizaines d’années et qui est régulièrement utilisé dans les développements informatiques. La nouveauté est la constatation de l’efficacité de systèmes d’apprentissage automatique à base de réseaux neuronaux, ainsi que les progrès continus des autres technologies : la reconnaissance des images ou des paroles a connu une progression significative. NHK a démontré un logiciel capable de comprendre la parole dans un milieu bruité avec seulement 6% de mots erronés. Ceci a évidemment un impact sur les films : la bande sonore d’un film est certainement fortement bruitée !

Dans ce domaine, des acteurs comme Google (SIRI), Amazon (Alexa), Samsung (S Voice) et Apple (Google Assistant) disposent évidemment de jeux de données de parole considérables, permettant d’offrir des outils multi-langues, mais aussi multi-accents.

Il convient aussi de rappeler que l’apprentissage par la machine (ou ML pour Machine Learning), est basée sur l’existence d’un jeu de données important et validé. Le vieux principe de l’informatique s’applique toujours ici « garbage in, garbage out », ce qui signifie que la possession et la qualification des données est un élément décisif pour l’efficacité du programme. Les entretiens menés au NAB ont confirmé une estimation grossière : le travail pour développer un outil d’AI dans un domaine donné est consisté à 80% de la collecte et de la qualification des données.

L’avantage des grands acteurs du cloud est qu’il sont à la fois familier avec les problématiques liés à la « big data », qu’ils disposent déjà d’une offre cloud permettant de mettre en œuvre des programmes manipulant des volumes de données importantes, et également qu’ils disposent déjà dans certains domaines de jeux de données. C’est le cas par exemple pour la reconnaissance et la synthèse vocale.

Tous les grands acteurs offrent une gamme d’outils, incluant le traitement de la parole (speech to text et text to speech, traduction, analyse de langage naturel), la reconnaissance d’image, la gestion des dialogues, voire la reconnaissance des émotions. Des outils d’aide à la qualification des données et au choix de l’algorithme d’apprentissage sont aussi proposés.

 

2.2 Développements et offres pour l'audiovisuel

Pour l’instant, l’efficacité de ces logiciels n’est pas connue : la présentation de multiples cas d’usage potentiel, avec développements expérimentaux ne permet pas d’estimer le coût de ces méthodes par rapport à leurs bénéfices.

Le bénéfice le plus souvent mentionné concerne les gains en productivité : une machine dûment instruite pourrait faire plus vite des choix qui seraient automatisés. Mais les systèmes neuronaux sont souvent associés à un indice de confiance du résultat obtenu. Une pratique évoquée consiste dès lors à faire appel à l’expertise « traditionnelle » dès que l’indice de confiance est inférieur à un seuil prédéfini.

IBM

Pour IBM, l’IA représente un enjeu majeur. IBM Watson regroupe 2000 personnes réparties en des divisions par secteur industriel, dont IBM Watson Media.

IBM a une gamme complète d’offre produits et services avec notamment :

  • 25 blocs cognitifs concernant langage, parole, vision et données, capables d’analyser sentiment, émotion, concept , relation, taxonomie.
  • L’accès immédiat à un nuage privé, public ou mixte
  • Des agents virtuels (chatbot) préconfigurés ou non
  • Des outils d’analyse et intégration de données éventuellement non structurées et de sources multiples, avec analyse du contenu
  • Un studio de la connaissance pouvant combiner apprentissage et système à base de règles

IBM possède The Weather Company « powered by Watson ».

Google a une offre assez équivalente.

La société a mis en Opensource le logiciel d’apprentissage développé en interne TensorFlow. La société a également racheté Deepmind, qui avait développé d’autres logiciels d’apprentissages.

La société met en avant sa présence sur le cloud et annonce avoir développé le plus grand cloud mondial, avec plus de 750 personnes dédiées à sa sécurité. Elle met l’accent sur AutoML, un outil qui devrait permettre aux non experts de l’IA de développer des réseaux neuronaux. Elle offre en plus un service (réalisé par des humains) pour annoter et nettoyer des jeux de données.

Amazon également présente une offre du même type.

Amazon Web Services (AWS)annonce intégrer de nombreux moteurs d’apprentissage à son système et permettre également de déployer rapidement tous les algorithmes nouveaux. Début avril 2018, elle a annoncé des dizaines de milliers d’utilisateurs pour ses services d’apprentissage machine, et se positionne en leader sur le marché avec son logiciel SageMaker, qui facilite le développement complet d’un système. Parmi les projets d’AWS, notons un service pour comprendre les commentaires des téléspectateurs concernant une émission.

Microsoft met l’accent sur son offre cloud Azure et en particulier sur Azure Media Analytics, annoncé au NAB 2016, qui se présente comme une plate-forme d’intelligence vidéo dans le cloud, capable au delà des applications « classiques » (reconnaissance de parole, de texte, d’image, de marque) de permettre aux utilisateurs d’entrainer spécifiquement un moteur dédié aux médias. Microsoft s’est notamment associé à AVID, un leader mondial de la production vidéo, pour codévelopper de nouveaux produits.

 

Un exemple présenté par IBM Watson et Universal Picture : définition des scripts

Le but est de valider un script pour que sa mise en œuvre ait le maximum de chances de succès. Il implique l’analyse de très nombreux scripts, et d’explorer les résonnances et les émotions associées à chacune de leur caractéristiques. Il a été mentionné que cela concerne plutôt le « low level content », pour lequel l’automation permettrait de baisser les coûts. La tentative vise d’abord à mieux comprendre les possibilités : définir des règles, aider les créateurs à innover. La possibilité d’automatiser complètement l’écriture d’une histoire a été rejetée avec fermeté.

 

Un senior VP d’HBO a mentionné, ce qui paraît caractériser la position des grands acteurs des médias : « il y a beaucoup d’enthousiasme en interne autour de l’IA». Pour le moment, HBO est seulement en train d’expérimenter (« just dipping our toes ») et d’explorer les possibilités d’usage. Un résultat envisagé est de construire taxonomies et ontologies et de voir leur usage potentiel.

Parmi les principales applications envisagées on peut citer

  • L’analyse du contenu des flux vidéo pour en générer des métadonnées : cette application intéresse beaucoup d’acteurs pour valoriser des archives vidéo considérables, mais inexploitables en raison du coût d’indexation.
  • La génération automatique des sous titres, soit à partir du dialogue, soit en traduction d’une version originale. Le taux d’erreur des logiciels actuels devrait permettre un usage pour les séries de moyen ou bas de gamme, avec un gain en temps et en coût considérable.
  • Les aides potentielles à la production sont nombreuses (montage, écriture de script)
  • La compréhension des vidéos produisant des méta données, comme par exemple la connaissance du rôle de chaque joueur dans un match de football, ce qui ouvre la possibilité de répondre à des demandes du téléspectateur (démonstration sur le stand de Elemental Technologies/AWS)
  • L’enrichissement des données diffusées par des contenus complémentaires identifiés grâce aux métadonnées.
  • Aide à la compression d’images en identifiant les parties de l’image à traiter en priorité (déjà mis en œuvre par la société Harmonic)


Pour résumer, le cas particulier des équipements audiovisuels permet de bien distinguer le rêve : la machine qui prend le dessus, apprend et pense d’elle même et une réalité beaucoup moins dramatique visant d’abord à raccourcir les temps de développement, optimiser les budgets, mieux valoriser l’existant. Il faut y ajouter le développement de nouveaux services au téléspectateur.

Les grands acteurs du cloud y voient une occasion de valoriser à la fois leur domination dans le cloud, et les immenses bases de données qu’ils ont déjà amassés.

3. La situation américaine

3.1 Présentation générale

Gordon Smith, président et CEO du NAB a présenté les « succès considérables » obtenus par les broadcasters, avec notamment l’obtention de un milliard de dollars supplémentaires pour le repack (restructuration des fréquences suite à la vente aux enchères d’un volume important de fréquences des broadcasters aux opérateurs télécom), l’approbation par la FCC du déploiement volontaire du nouveau standard ATSC3.0 ainsi que les promesses par la FCC de moderniser les règles de propriété des médias.

Suite aux enchères (volontaires) de vente de fréquences télévision l’enjeu actuel est le repack, c’est à dire le regroupement des fréquences en fonction de celles qui se sont libérées. Une aide publique de 1,7 milliards de dollars avait été prévue. Elle vient donc d’augmenter considérablement.

Lors des enchères, T-Mobile, Comcast et AT&T avaient été les plus grands acheteurs avec des montants estimés estimé entre 1 et 10 milliards de dollars. NBCUniversal, Fox et Sinclair sont parmi les principaux vendeurs.

Les relations des broadcasters avec le nouveau président de la FCC (Federal Communications Commission), Ajit Pai a été bien accueilli par les chaînes. Il a annoncé une forte baisse des niveaux de réglementation et en particulier les règlements limitant la concentration des médias au niveau local.

Le passage à la NextGen TV par l’adoption du standard ATSC3.0 va marquer un changement profond, avec une mise en service réelle dont la date reste incertaine.

3.2 L'ATSC 3.0

Un objet non identifié

ATSC 3.0 a connu ses premières démonstrations en 2015, et ses différents aspects sont testés et évalués depuis. La vingtaine de standards qui le constituent ont été adoptés fin 2017. ATSC 3.0 et NextGen TV désigne le même objet.

C’est un objet non identifié, de type nouveau : l’ATSC 3.0 est par principe non rétro compatible, ce qui met hors jeu les téléviseurs, les émetteurs et une grande partie des équipements existants. Or la transition vers le NextGen n’est pas obligatoire, et dépendra de la décision de chaque chaine de télévision. Il est annoncé comme « market driven ». Il n’est prévu aucune action des pouvoirs publics, et en particulier pas d’attribution de fréquences à l’exception de l’autorisation du changement et la validation du standard. Une telle transition représente un bouleversement majeur. Le précédent exemple, le passage au numérique de 1997, était imposé par la loi et avait fait l’objet de nombreuses mesures d’accompagnement. En novembre 2017, la FCC a autorisé les broadcasters à utiliser ATSC 3.0 pour des essais, à condition de continuer à diffuser en 1.0 en simulcast pendant 5 ans. Cependant les stations auront besoin d’une autorisation supplémentaire avant d’émettre en 3.0 à destination du public.

Un tel changement suppose que les chaines trouvent elles mêmes les nouvelles fréquences nécessaires (en puisant dans leurs réserves ou en partageant des canaux), que de nouveaux téléviseurs soient achetés (ou équipés d’un convertisseur), et que les chaines financent tous les nouveaux équipements nécessaires, ce qui représente un coût dont le montant est disputé, mais qui pourrait être élevé. Aucune date de mise en service n’est annoncée. Le coût annoncé par le VP Advanced Technology de Sinclair, le plus grand réseau d’émetteurs aux US, pour transformer une station en ATSC3.0 est de l’ordre de quelques centaines de milliers de dollars.

Des essais vont commencer, notamment à Phoenix (8 stations) et à Dallas. Notons qu’il s’agit uniquement de tests techniques, sans aucun téléspectateur impliqué. Des téléviseurs prototypes devaient être disponibles à la date du NAB. La coexistence de services ATSC3.0 et ATSC1.0 implique quelques contraintes. A Dallas, l’utilisation d’émetteurs dédiés à l’internet des objets est envisagé. Aux US existent de nombreux acteurs importants du Narrow-Band IOT, une technologie radio basse consommation et couverture importante, comme Dish Network, T-Mobile et Verizon.

Plus de 40 exposants présentaient des équipements destinés à l’ATSC3.0 et un pavillon spécial était dédié aux récents développements. Une démonstration de mobilité était faite en utilisant un véhicule autonome fourni par la société française Navya, qui travaille notamment en partenariat avec Valeo et Keolis.

Principales caractéristiques

L’ATSC 3.0 implique au niveau de base le changement de technique de modulation pour adopter la technique de base utilisée par le DVB T/T2, nettement plus efficace : le choix malheureux de la modulation fait pour l’ATSC 1.0 explique largement le fait que dans le monde entier, et malgré la pression américaine, ATSC1.0 ait connu un développement très limité en terme de nombre de pays. Sa mise en œuvre implique donc le changement de téléviseur (ou un adaptateur) et d’antenne.

Du point de vue fonctionnel, il permet notamment de combiner accès Broadcast et Broadband, permet la diffusion vers les mobiles et l’utilisation d’antennes intérieures. La diffusion utilise la SFN (Single Frequency Network), qui permet aux émetteurs d’utiliser la même fréquence pour une chaine donnée. Le transport s’effectue uniquement au format IP (Internet Protocol) pour le Broadband et le Broadcast. Il permet aussi de diffuser la « UHD», qui possède en particulier les caractéristiques suivantes :

  • Diffusion d’images 4K (3 840 pixels par ligne pour 2 160 lignes), soit avec quatre fois plus de pixel que la haute définition
  • Des améliorations majeures de la qualité de l’image transmise, notamment en terme de gamme des couleurs WCG (Wide Color Gammut ), de fréquence de trames HFR (High Frame Rate ) et de gamme dynamique HDR (High Dynamic Range). Le HDR permet notamment d’afficher les nuances à la fois dans les parties claires et les parties sombres de l’image, offre des niveaux de blanc et de noir jusqu’ici impossibles et permet un gain de qualité visuelle unanimement reconnu.
  • Un système audio « immersif ».

La combinaison Broadband-Broadcast qui seule permet une interactivité « vraie », et en particulier l’accès au téléspectateur individuel, source potentiel de revenus publicitaires accrus, n’est pas encore implémentée, ni même très précisément définie par le standard : les travaux continuent sur ce point. En attendant, la télévision enrichie est mise en œuvre (envoi vers le téléviseur de données que le téléspectateur peut consulter), ainsi qu’une publicité ciblée liée à la zone géographique.

C’est d’ailleurs un projet français Convergence TV, qui a présenté le premier projet au monde de convergence Broadcast Broadband, en mettant en œuvre la chaîne complète d’enrichissement du broadcast par le Broadband permise par ATSC3.0. Le projet a obtenu le « 2018 NAB Technology Innovation Award » pour son système hybride ATSC3 utilisant SHVC. Le projet a été développé par 5 sociétés et deux centres de recherche français : Teamcast, Ateme, Broadpeak, Motion Spell, TDF et l’INSA Rennes et Telecom Paristech. Il combine une transmission d’un flux UHD en broadcast et d’un flux d’enrichissement en HD sur le Broadband.

La transition vers l'ATSC 3.0

La Corée du Sud a été le premier pays à proposer un service commercial sur une chaine de télévision terrestre utilisant ce standard, avec un lancement d’une chaîne terrestre le 31 mai 2017 par KBS, le principal opérateur de télévision.

En Corée, le passage à l’ATSC3.0 est obligatoire, avec un arrêt de l’ATSC1.0 décidé pour 2027. Dès fin 2017, toutes les grandes villes étaient couvertes, et en 2020, un taux de couverture de 95% est prévu. La mise en œuvre inclut 4K (3840x2160), l’HDR, le MPEG-H et le SFN, avec un codage HEVC.

Une allocation de fréquences dédiée avait eu lieu en septembre 2015.

La réception est pour l’instant seulement possible sur des récepteurs fixes et il n’existe pas encore de dongles sur le marché. Une particularité des opérateurs coréen est d’avoir fait le choix d’un portail broadband commun à toutes les chaines (KBS, SBS, MBC), Tiviva 2.0, qui fournit notamment les services de replay, de VOD et la distribution des émissions sportives qui n’existent pas en UHD.

L’interaction BB-BC (Broadband Broadcast) n’est pas encore définie, et fait l’objet de recherches de l’ETRI.

Les jeux Olympiques d’hiver 2018 à PyeongChang ont permis d’utiliser la nouvelle technologie. On peut noter qu’en parallèle le premier réseau de transmission au monde utilisant la technologie 5G était expérimenté sur le site des jeux et à Seoul par l’opérateur KT.

Aux Etats-Unis, il est difficile de prédire la vitesse de son développement, qui se poursuivra certainement, si l’on considère le volume majeur de développements techniques, et le soutien fort de groupes majeurs de chaine de télévision.

Enfin un facteur clé sera la décision éventuelle par les téléspectateurs de s’équiper de téléviseurs 3.0, alors qu’ils viennent d’acheter des téléviseurs 4K 1.0. La transition du HD vers le 4K est en cours (voir ci-dessous) est bien engagée, mais est loin d’être achevée, et la plupart des téléviseurs 4K vendus jusqu’ici n’offrent pas le HDR (High Dynamic Range), qui est un facteur important de qualité visuelle. De plus le manque de contenus diffusés en 4K limite son intérêt. Enfin aucun téléviseur ATSC 3.0 n’est disponible sur le marché sauf en Corée. AU NAB, Samsung et LG présentaient effectivement des téléviseurs capables de recevoir ATSC 1.0 et ATSC 3/0. Les émetteurs numériques proposés au NAB offraient tous une préparation vers le passage à la NextGen.

Le succès actuels des ventes de téléviseur 4K, documenté plus bas, implique que les consommateurs ne rachèteront pas, deux ans après un premier achat 4K, un téléviseur 3.0, qui d’ailleurs n’existe pas encore sur le marché. La transition se fera donc aussi via des dongles ou des set-top boxes.

Enfin le modèle économique de NextGen est toujours indéfini : un responsable de la Fox en a parlé comme « ouvrant de futurs choix qui restent à déterminer ».

On peut se demander ce qui se passera après 5 ans, quand les stations ne seront plus obligées de continuer à émettre en 1.0 (si cela reste le cas). La question reste entière.

3.3 Comparaison ATSC 3.0 et DVB

Une comparaison ATSC3.0 et DVB peut être résumée ainsi

  • la technique de modulation est maintenant proche de celle du DVB-T2, avec un léger gain pour l’ATSC3.0 qui a utilisé les progrès technologiques les plus récents.
  • ATSC3.0, comme DVB intègrent la résolution 4K, le HDR (High Dynamic Range), le HFR (Higher Frame Rates), la nouvelle génération audio et un espace couleur étendu.
  • Une différence fondamentale est l’utilisation de l’IP pour la couche de transport (à la place du MPEG2TS)

Cette différence est un avantage certain dans les pays où l’accès Internet haut débit est assuré. Elle l’est moins sinon.

Cette décision avait été l’occasion de débats dès 2015. Ils se sont poursuivis au sein de DVB pour aboutir au lancement de l’étude d’un nouvelle activité : DVB-I, où I signifie Internet.

4 UHD/HDR/4-8K

4.1 Quelques définitions

Le vocabulaire est multiple: on parle de UltraHD, UHD, SuperHivison, UHDTV1 et UHDTV2 et ce ne sont pas les seules dénominations.

Le format vidéo doit être capable d’afficher au moins 8 millions de pixels, soit quatre fois plus que la haute définition en 1080p. La UHD ou UHDTV1 utilise une image de 3840 x 2160 pixels. La Super-Hivision japonaise couvre 4K et 8K.

Selon la définition de l’EBU (European Broadcasting Union), UHDTV couvre :

  • Une résolution de :
    •  3840x2160p (quatre fois la HDTV appelé 4K), ou
    • 7680x4320p (16 fois la HDTV appelé 8k).
  • Une gamme de couleur proche de celle de l’œil humain, défini par la norme BT2020
  • Un nombre d’images par seconde allant jusqu’à 100, voire 120
  • Une gamme dynamique d’éclairage (HDR), qui reste à définir.

Deux phases avaient été définies :

UHD-Phase 1 couvre tous les écrans ayant seulement la résolution 4K sans les autres propriétés (c’est le cas des téléviseurs 4K apparue initialement)

UHD-Phase 2 doit inclure également les autres propriétés.

Un facteur favorable au 4K est l’existence de contenus grâce à l’usage d’un format très proche par le cinéma, ce qui permet de disposer immédiatement de contenu à diffuser. Un autre facteur est le développement de la compression HEVC, dont les premiers essais remontent à 2013, et qui permet de diminuer le nombre de bits nécessaire à la transmission d’une image d’un facteur significatif. Le passage au 4K, même avec la mise en œuvre indispensable de HEVC, implique des coûts importants, en terme de bande passante, de volume de stockage et de puissance de calcul, mais aussi en termes de coût de production.

De plus la capacité par le téléspectateur de voir la différence avec une vidéo diffusée en HD est toujours objet de discussion, en fonction de la taille de l’écran et de la distance du téléspectateur à celui-ci. En particulier, les nouveaux développements sur la couleur et la luminance laissent penser que ces deux facteurs peuvent avoir un effet plus important sur le ressenti du téléspectateur que le nombre de pixels. Toutes les démonstrations auxquelles j’ai assisté faisaient apparaître une meilleure qualité ressentie d’image pour une vidéo HD avec large gamme de couleur et de luminance par rapport à une vidéo 4K utilisant couleur et luminance traditionnelle.

Compte tenu du coût pour les broadcasters terrestre de l’accroissement de la bande passante, une solution reposant sur une diffusion terrestre en HD, avec les développements prévus (HDR, HFR et gamme de couleurs) paraît probable. Elle n’accroitrait pas les besoins en bande passante. De plus les téléviseurs 4K sont tout à fait capable d’afficher du HD, en extrapolant les pixels manquant et avec une excellente qualité. Enfin, il n’est pas sur que la qualité ressentie par le téléspectateur change entre du HD et du 4K avec les développements (HDR, HFR). Les avis subjectifs sont pour le moins partagés.

 

Il ne faut pas le confondre avec le format 4K utilisé en cinéma numérique (4096 x 2160 pixels).

 

Pour compliquer les choses : on distingue la Phase 2 A avec 4k and HDR et la phase 2 B qui rajoute le HFR.

4.2 Le déploiement 4K

Les ventes de téléviseur 4K se sont très rapidement développée : la Consumer Technology Association (CTA, auparavant appelée Consumer Electronics Association, CEA), a annoncé au NAB 22 millions de téléviseurs 4K vendus en 2018 (les chiffres correspondant pour 2017 étaient de 15 millions), avec une croissance des ventes très supérieure à celle du HD en son temps. Il annonçait aussi que les 114 millions de foyers américains possédaient 308 millions de téléviseurs (soit en moyenne 2,7 par foyer).

Des chiffres plus globaux fournis par BCC Research font état d’une croissance annuelle entre 19 et 22% dans les différentes parties du monde.

Une croissance des ventes aussi rapide est expliquée notamment par

  • La première version commerciale des téléviseurs UHD a été marqué par une volonté forte des producteurs chinois pour rentrer sur le marché, en jouant sur des prix très bas. Ceci a eu pour conséquence une baisse très rapide des coûts des téléviseurs UHD, et une croissance forte des ventes, ceci malgré la jusqu’ici faible présence de chaines de télévision en UHD. De plus les « up converters » du HD au 4K permettent des résultats visibles sur l’écran, qui peuvent convaincre des téléspectateurs (surtout si le surcout est limité).
  • Si les chaines ne se précipitent pas sur le 4K, ce dernier représente un atout compétitif majeur pour les diffuseurs en ligne, qui sont les premiers utilisateurs. Netflix et Amazon Prime sont parmi les plus actifs. Les opérateurs de satellite sont également intéressés, souvent en liaison avec leurs plates-formes IP.

C’est le marché chinois qui domine avec une prévision de 33 millions de téléviseurs livrés en 2017 (source IHS Markit).

Les contenus ne suivent que lentement, même si les nouveaux tournages se font en UHD : La disponibilité de contenu utilisant HDR (voir ci dessous) est encore en émergence. Les contenus paraissent d’abord venir du Net, avec des offres par iTunes, Amazon, DirectV, Netflix, Youtube et Vudu. Sony aurait de l’ordre de 300 titres pour son lecteur de DVD BluRay. Il semble que la majorité des foyers américains ne disposent pas de la bande passante permettant un streaming à 25Mbps, ce qui est nécessaire pour du 4K UHD.

Les contenus ne suivent que lentement, même si les nouveaux tournages se font en UHD : La disponibilité de contenu utilisant HDR (voir ci dessous) est encore en émergence. Les contenus paraissent d’abord venir du Net, avec des offres par iTunes, Amazon, DirectV, Netflix, Youtube et Vudu. Sony aurait de l’ordre de 300 titres pour son lecteur de DVD BluRay. Il semble que la majorité des foyers américains ne disposent pas de la bande passante permettant un streaming à 25Mbps, ce qui est nécessaire pour du 4K UHD.

4.3 High Dynamic Range (HDR)

Le HDR (High Dynamic Range), peut être traduit par imagerie à grande gamme dynamique. C’est le développement technique qui provoque le plus de controverses avec plusieurs standards en compétition, les uns non compatible avec le passé, les autres assurant une compatibilité. Ce standard est spécialement intéressant car il permet d’améliorer significativement la qualité de l’image, même sur des petits écrans.

Les développements de l’HDR sont plus lents que prévus en terrestre, avec seulement 8 chaînes annoncées, et un nombre de téléviseurs « HDR capable » faible comparé aux ventes de téléviseurs 4K.

L’apparition de ces technologies a entrainé celle d’un nouveau nom : SDR (Standard Dynamic Range) désigne désormais la situation actuelle, que personne n’avait pensé à nommer !

HDR est une technologie qui permet d’étendre la gamme d’éclairage qu’une image de télévision peut afficher. La HDR permet d’avoir sur une même image un même haut niveau de détail dans les parties sombres et les parties claires, et d’avoir des intensités lumineuses beaucoup plus élevées. Un écran HDR peut afficher jusqu’à 1000 candelas par mètre carré ou nits, voire plus contre 200 à 300 pour un écran « actuel ». Les informations de luminance transmises vers les téléviseurs cathodiques étaient limitées par la capacité de ces derniers à les afficher. Or les écrans plats actuels offrent des possibilités d’affichage beaucoup plus riches.

Un problème du HDR est qu’il fait l’objet de développements parallèles et que plusieurs propositions techniques sont en concurrence, soutenues par des producteurs de téléviseurs soucieux de les incorporer au plus vite dans leurs équipements. Les principaux systèmes sont ceux de Dolby, Philips, Technicolor et BBC/NHK. Ils divergent notamment sur la rétrocompatibilité HDR et SDR.

La norme HDR 10 est adoptée par la Blu-ray Disk Association et la Consumer Electronics Association.

Le déploiement du HDR pose aussi le problème du format utilisé pour la transmission, différent selon les propositions et la façon dont le téléviseur les utilise.

Les recommandations pour l’UHD Phase B mentionne deux technologies HDR : Dolby Vision et SL-GDR1.

En janvier 2015, des industriels regroupant producteurs d’équipements, chaines de télévisions et broadcasters s’est créée sous le nom UHD Alliance pour définir de nouveaux standards concernant la future génération, concernant tous ces points et notamment définition (4K et au delà), HDR, gamme de couleurs, techniques audio. La solution annoncée au CES 2016 est celle d’un logo appelé « ULTRA HD PREMIUM ». Début 1017 a été ajouté le label UHDA « Mobile HDR Premium » visant ordinateurs, tablettes et téléphones.

La UHD Alliance regroupe studios, producteurs de CE et acteurs du Net, avec notamment Samsung, Sony, LG, Panasonic, Disney, Warner, Universal, Fox, Amazon, Dolby, Netflix, DirecTV et Microsoft.

Il vise à garantir à l’acheteur de téléviseur 4K la « conformité aux nouvelles technologies », ce qui se traduit par une liste de spécifications minimales dont les principales sont :

  • La résolution                3840x2160
  • La couleur                    90%  de la gamme dite P3
  • Profondeur de couleur 10 bits et un signal BT2020
  • HDR                            La possibilité de la mettre en œuvre
  • La brillance                  Des minimums définis de deux façons adaptées respectivement aux écrans LCD et OLED

Notons que tous les producteurs de téléviseurs n’adhèrent pas à ces spécifications, et que chaque société est libre de mettre le logo ou non, même si elle pense y avoir droit.

En attendant, les producteurs de téléviseurs annoncent ou commercialisent des téléviseurs haut de gamme avec HDR incorporé.

L’UIT a adopté en 2012 le standard connu sous le nom BT.2020, qui définit les différents aspects de la télévision UHDTV, y compris résolution, frame rate, échantillonnage et espace de couleurs. Il constitue une base de référence commune pour les acteurs. Ce standard permet d’atteindre des niveaux de qualité jamais prévus, notamment parce que les tubes cathodiques ne permettaient pas de les afficher.

Rappel : L’UIT a adopté en 2012 le standard connu sous le nom BT.2020, qui définit les différents aspects de la télévision UHDTV, y compris résolution, frame rate, échantillonnage et espace de couleurs. Il constitue une base de référence commune pour les acteurs. Ce standard permet d’atteindre des niveaux de qualité jamais prévus, notamment parce que les tubes cathodiques ne permettaient pas de les afficher.

4.4 Le 8K et au delà...

Depuis au moins 4 ans, NHK présente au NAB des démonstrations 8K, appelée super Hi-Vision qui utilise le 8K (soit 7 680 par 4320 pixels) avec une fréquence d’image jusqu’à 120 images par seconde. Le calendrier de passage à l’industrialisation annoncé dès le début est scrupuleusement tenu et même accéléré. Les premières démonstrations avaient eu lieu aux Jeux de Londres en 2012. C‘est en décembre 2018 que NHK va commencer une diffusion par satellite en 8K. Dès mars 2017, des tests de transmission des programmes (convertis de 8K en 4K) vers le câble ont commencé. NHK parle désormais de « 4K/8K Super Hi-Vision ». NHK a développé notamment un codec HEVC 8K.

L’utilisation au salon de tels niveaux de définition peut surprendre : pour visualiser du 8K, il faut être à courte distance du téléviseur (2 à 4 mètres) pour bénéficier des détails visibles, ce qui permet évidemment un effet d’immersion plus important.

A la réunion annuelle « Future of Broadcast TV », les japonais ont présenté leurs priorités de 2020 à 2040. Deux points mis en avant : la télévision en relief sans lunettes et la production intelligente combinant analyse des « big data », reconnaissance de la parole et analyse d’image.

5 La réalité virtuelle (VR virtual reality)

Elle était très présente dans les démonstrations, même si sa mise en œuvre commerciale est encore lointaine, à l’exception bien sûr des casques de réalités virtuelles.

5.1 Définitions

D’abord quelques définitions issues d’un document de travail de l’EBU, auquel ont participé les principaux acteurs mondiaux :

La réalité virtuelle inclut la vidéo à 360°, ainsi que la génération par ordinateur de celle-ci.

La réalité augmentée comme la réalité enrichie, superpose un contenu à l’image du monde réel. Dans le cas de la réalité enrichie, le contenu superposé est attaché à un objet présent sur la vidéo, et il y a une interaction possible entre le contenu généré et le monde réel, comme pour les projets de Microsoft et Magic Leap. Dans le cas de la réalité augmentée, le contenu est superposé à l’image, mais sans lien avec un objet précis, comme pour feu les lunettes Google.

Les degrés de liberté (DoF Degree of Freedom) caractérisent les possibilités interactives de mouvement. L’offre actuelle regroupe habituellement trois degrés de liberté : gauche-droite, haut-bas, et rotation autour de l’axe de vision. On peut aller jusqu’à 6, mais l’intérêt de le faire est très controversé.

Les casques disponibles peuvent être classés en deux catégories, appelées type A et type B dans un récent rapport du DVB. Les types A impliquent l’usage d’un téléphone mobile installé sur le casque, Google Cardboard en est un exemple. Les types B concernent des casques spécialement conçus pour la VR, comme Oculus Rift. La réalité virtuelle en 360 peut être visualisée par un casque, ou bien sur un écran de téléphone portable, d’ordinateur ou de téléviseur, et sur toutes sortes d’affichage circulaire.

L’effet d’immersion recherché peut être renforcé par des écouteurs, capables de tenir compte de la position du spectateur et de celles des sources fictives de son.

« Opportunities and challenges for public service media in VR, AR and MR » BTF-VR WORKING GROUP Avril 2017

5.2 la réalité virtuelle au NAB

Un pavillon lui était dédié pour la troisième année, et de nombreuses démonstrations présentées. Cependant l’ambiance était morose : la réalité virtuelle via les lunettes ne décolle pas vraiment sauf peut être pour le jeu vidéo (une croissance annuelle de 95% y est annoncée par ABI Research). Selon un intervenant, le nombre des casques VR dans le monde serait de 15 millions. La vidéo à 360° paraît se heurter à différentes difficultés, le premier étant la définition finale. D’ailleurs le pavillon où étaient regroupées les démonstrations ne s’appelait pas réalité virtuelle, mais « Immersive Storytelling Pavillion ». Facebook et Youtube distribuent des vidéo 360 degrés.

Les prévisions restent optimistes, avec un marché qui pourrait atteindre 28 milliards de dollars en 2020, dont 12 pour le matériel, alors qu’en 2017 les estimations étaient de 3,7 milliards dont 2,7 pour le matériel (source The virtual consumer 2017 SuperData Research). Les reportages sportifs et les concerts restent les sujets considérés comme ayant le plus de potentiel.

Cela marque un passage des problèmes techniques présents l’an dernier, comme la soudure entre les images (stitching) à une réflexion sur la façon de raconter une histoire en permettant au spectateur de regarder où il a envie. Une recherche importante est en cours sur l’utilisation du casque comme quatrième écran (après téléviseur, ordinateur, et portable) avec des solutions à venir. De l’avis des acteurs du domaine, on ne sait pas encore ce qui rend l’expérience « plausible ». Les malaises liés à l’usage sont aussi étudiés. La latence entre le mouvement de la tête et celui de la vision correspondante semble un facteur important de malaise. Il semble que 20 minutes soit une durée acceptable. La possibilité de jouer à plusieurs

La pixellisation de l’écran liée au fait qu’on regarde une toute petite partie d’une image qui couvre 360° est traitée notamment par une technique de découpage de l’image en tuiles (tiling) qui permet d’avoir la définition la meilleure là ou le spectateur regarde.

Les sociétés Harmonic et VO (ex Viacess Orca) ont présenté une solution de bout en bout.

Cependant la réalité virtuelle pour des acteurs de la vidéo pose encore de nombreux problèmes techniques. Le principe de la production consiste à filmer sous tous les angles, c’est à dire à utiliser des caméras multiples placées au même point et dont l’ensemble des prises de vue permet de couvrir l’espace.

Il faut ensuite générer une image continue couvrant tout cet espace et pouvoir le transmettre vers le casque ou le terminal de l’utilisateur final pour finalement afficher la partie de cette image « visible » en fonction de la position de celui-ci.

Parmi les nombreuses difficultés techniques actuelles, le problème du « stitching » c’est à dire de la couture des diverses images en évitant des raccords trop visibles constitue une difficulté majeure. Il faut générer une seule image à partir de ce qui est en fait sphérique, ce qui nécessite de reprendre à neuf les problèmes de la représentation du globe terrestre sur une carte. Au delà, il faut pouvoir transmettre cette image, dont l’utilisateur ne regardera jamais qu’une portion minime. Pour qu’il dispose d’une image de qualité, le nombre de pixels de l’image totale doit être très important. Les problèmes de transport et d’affichage d’une vidéo sont l’objet d’études nombreuses, avec des solutions variées, mais toujours à l’état de recherche. On peut par exemple ne distribuer en HD que ce qui est regardé, le reste étant en SD, et réagir à la demande ou encore utiliser une décomposition de l’image en tuiles… NHK présentait au NAB 2018 une démonstration d’un casque recevant du 8K et sur laquelle aucune pixellisation n’était visible.

5.3 Quel futur ?

La réalité virtuelle a déjà un développement majeur dans le monde des jeux vidéo. Son usage pour la télévision est l’objet de débat : connaitra-t-elle le sort des téléviseurs 3D stéréoscopique, c’est à dire un échec cuisant ? C’est peu probable, car la réalité virtuelle peut être utilisée dans de nombreux autres secteurs : formation, enseignement, maintenance.

Son développement se fera de façon lente : il n’existe aujourd’hui aucun modèle économique clair pour une application qui sera couteuse en terme d’équipements de production, de transmission et de terminal utilisateur. Le domaine n’a pas de standards de codage et de transmission. La transmission en streaming en utilisant OTT pose des problèmes de volume de bande passante nécessaire pour avoir une vision satisfaisante sur un grand écran de télévision.

Mes expériences multiples au NAB ont montré le risque lié à un déplacement basé sur la réalité virtuelle : on peut heurter assez brutalement la réalité tout court. Un chercheur a mentionné être troublé par le fait qu’équipé d’un casque, en baissant les yeux, on ne voit pas ses pieds. Bien d’autres enjeux concernant les liens entre le cerveau et le corps sont encore à explorer.

A Las Vegas, à l’entrée des centres commerciaux, on trouve des stands de jeux VR « Buy a few drinks and kill a few zombies » les spectateurs sont assis et payent 25$ pour 30 minutes. Une observation rapide n’a pas montré une forte affluence…

Cependant les premières œuvres crées pour la VR sont fascinantes : il ne s’agit pas de voir en trois dimensions, mais de se déplacer dans un monde fictif, avec une immensité de possibilités et de sujets. Il n’est pas étonnant que des créateurs s’en soient emparés.

La réalité virtuelle n’est pas un nouveau format comme le 4K ou le 8K, c’est un domaine beaucoup plus vaste, ouvrant de nouveaux domaines. C’est à proprement parler un nouveau média.

La VR fait l’objet de travaux multiples de standardisation, issus de demandes du milieu industriel et qui peuvent donc montrer des possibilités d’évolution.

Une étude préliminaire du DVB a conclu à la nécessité de lancer une étude découpée en phase. La phase 1 s’intéresse aux terminaux capables d’effectuer un affichage 360 °, avec pour but premier d’identifier les besoins commerciaux pour les transmettre aux acteurs techniques.

Au delà, les travaux du MPEG permettent d’imaginer les 5 prochaines années. MPEG (Moving Picture Experts Group) est un groupe de travail, dépendant de l’ISO/IEC. Depuis bientôt 30 ans (le MP3 date de 1990), il a permis à des marchés considérables d’émerger en développant des standards pour la technologie des médias. Avec des centaines d’industriels participant à ses efforts, il s’efforce d’anticiper les besoins et lance des « call for proposals ».

Son plan de travail publié en 2016 fournit donc la vision la plus probable des développements futurs, notamment en ce qui concerne la réalité virtuelle.

Le premier standard développé, appelé OMAF pour « Omnidirectional Media Application Format » va définir un format pour les méthodes de projection en 3 dimensions et les données qui y seront associées, c’est à dire pour normaliser les développements actuels.

Mais au delà des codages supplémentaires sont en travaux :

  • le « Lightfield coding » vise à décrire les informations de lumière pour toutes les directions de vue, permettant ainsi une vision non distinguable de celle du monde réel en navigation. Il faut envisager l’usage de caméras multiples, éventuellement capables de mesurer la profondeur de champ et de minicaméras multiples dans des boîtes. Ce développement (dont le succès est discuté) implique de réduire les coûts de transmission, d’édition et de rendu, tout en prenant en compte l’expérience utilisateur. Le même effort est à faire pour l’audio pour recréer le champ sonore quel que soit la position de l’utilisateur.
  • Le Point Cloud Compression : il s’agit d’un codage d’informations 3D, nécessaires pour permettre de transmettre et reconstruire une scène dans laquelle on se déplace et pour cela d’utiliser un nuage de points. Un nuage de points typique contiendra des milliards de points permettant de représenter une scène qui puisse être reconstruite de façon réaliste.

Tout ceci pourrait donner naissance au nouveau Codec MPEG-I, c’est à dire MPEG Immersif. Le travail est en cours et inclus désormais le développement de méthode d’évaluation de la qualité

6 La transition vers IP (et le cloud)

On parle ici de la transition vers IP pour tout ce qui concerne la production des programmes, qui est le noyau dur des producteurs de télévision. Le mouvement s’accompagne d’une utilisation croissante du cloud, soit privé, soit public.

La transition vers l’IP a été marquée par l’adoption de deux standards : ATSC3.0 (voir ci dessus) avec l’utilisation de l’IP pour le flux de transport, et surtout l’adoption des premiers standards SMPTE ST 2110 (Professional Media Over Managed IP Networks) couvrant audio et vidéo (pour être plus précis, les parties 10,20, 21 et 30 du standard). Les opérateurs majeurs de la télévision ont toujours montré un souci permanent de pouvoir utiliser dans chaque domaine les meilleurs outils (ce qui a d’ailleurs entrainé, selon l’IABM, une hausse des développements effectués en interne). Tout progrès fait vers l’interopérabilité va permettre d’accélérer le mouvement vers l’IP avec la souplesse d’utilisation et les baisses de coût qu’il entraine.

Plusieurs organismes travaillent pour arriver à un système avec des niveaux de standard suffisant pour pouvoir avoir plusieurs fournisseurs. Tout paraît converger vers les standards SMPTE et notamment SMPTE 2110, qui est une suite de nombreux standards concernant l’usage d’IP par les media professionnels.

Dès fin 2017, un certain nombre de spécifications et de produits seront disponibles. L’adoption complète des standards et l’existence d’une offre en conformité est attendue pour 2020, couvrant notamment la transition vers l’IP. Voir ci dessous la roadmap du JT-NM (Joint Task Force on Networked Media).

AMWA Advanced Media Workflow Association réunit les fournisseurs et les utilisateurs d’équipements

JT-NM Joint Task Force on Networked Media, est sponsorisé par AMWA, EBU, VSF et SMPTE (Society of Motion Picture and Television Engineers)

broken image

La distribution multi-terminaux repose déjà largement sur le protocole IP, avec notamment la transition du multicast aux flux avec débit adaptatif (Adaptive Bit Rate ou ABR). C’est loin d’être le cas pour la production en direct où les progrès réels sont continus, mais lents. Selon des sondages publié par la société Imagine, 60% des sociétés ont commencé la transition vers l’IP pour le playout ou la production en direct, mais seule 6% ont totalement basculé vers l’IP et 8% sont majoritairement IP.

Les prévisions sont largement partagées : le basculement vers l’IP en production va se poursuivre, mais lentement : dans 5 ans, le nombre de broadcasters utilisant de façon privilégiées l’IP devrait atteindre, toujours selon le même sondage, 32%. Même si la transition est considérée comme inévitable, elle se heurte à une forte résistance ! Le manque d’interopérabilité et le manque de fiabilité des outils IP sont les deux principales sources annoncées de refus. L’environnement culturel des entreprises joue un rôle, avec la présence de spécialistes maitrisant parfaitement le matériel, et ce qui est ressenti comme un manque d’ingénieurs capables de maitriser de façon identique les architectures IP.

Le passage du hardware dédié aux solutions logicielles, destinées à s’exécuter sur des plates-formes informatiques standard est de plus en plus exigé des clients, et se traduit par une baisse du CAPEX et un report des dépenses vers l’OPEX. La virtualisation des logiciels et le mouvement vers le cloud permettent de réaliser des économies d’échelle importantes, avec le passage au modèle SaaS (Software as a service). Selon la société Cisco, 75% de la charge total du cloud est mise en œuvre sous forme de SAAS.

Une architecture basée sur les micro-services (permettant de modifier ou d’ajouter des fonctionnalités sans passer par une reconstruction complète de l’application), et utilisant le cloud permettent désormais une innovation continue et une adaptation dédiée de chaque service.

Un exemple 21st Century Fox

Depuis 10 ans l’IP est introduit dans la chaîne de production ; pour la production en direct l’utilisation de l’IP a commencé en 2017.

Un plan de travail pour Fox a été défini :

2015-2016 : from hardware based to software based (multiplatform)

2016-2018: full cloud capability

2017-2019: complete migration to cloud & dynamic content assembly

On peut imaginer qu’en 2020 il n’y aura plus d’équipement broadcast, mais seulement un centre de données !

Une telle évolution vise à permettre d’être plus flexible, c’est à dire de réagir face à des circonstances dégradées ou des conditions nouvelles.

Fox a lancé un projet (live virtualized terrarium) afin de se familiariser avec un écosystème de télévision virtualisé et basé sur le logiciel.

Jusqu’à présent, les développements étaient largement non compatibles. Or les grands acteurs n’acceptent pas de se voir imposer une chaine complète et désire pouvoir choisir chaque meilleur élément. Ceci nécessite la définition d’interfaces standard.

Un sujet potentiellement bloquant reste la sécurité des contenus placés dans les nuages. Le piratage observé ne se limite pas à la copie illégale de contenu. Elle concerne également l’encryptage frauduleux de contenu, associé à une demande de rançon pour décrypter ces contenus. Ces « ransomware » appelés rançongiciel, se sont développés dans les dernières années, et visent d’abord les données personnelles des sociétés. Un espace dédié à la cybersécurité a été créé au NAB (Cybersecurity and content pavilion).

7 OTT

7.1 Un marché en ébullition

Les « networked media » étaient très présents au NAB, avec deux conférences dédiées : une journée consacrée au streaming et une autre aux équipements, dont la télévision connectée. Ces conférences regroupent les acteurs du Net et ceux de la télévision.

Il ne s’agit pas ici de faire une présentation des développements OTT, mais de souligner quelques points importants, sans aborder le développement de l’OTT.

Rappelons que la NexGen prévue par le standard ATSC 3.0 vise à combiner OTT et broadcast, même si l’usage attendu n’est pas défini.

Il pourrait permettre, face à la tendance croissante des téléspectateurs américains de se désabonner de la télévision payante (le « cord cutting »), d’offrir de façon intégrée une offre de streaming OTT, qui se développe depuis deux ans en particulier. La plupart des opérateurs américains (CBS, HBO, ABC, Nickelodeon, Showtime, ESPN, etc.) ont lancé des offres de streaming OTT.

La montée des acteurs du net sur l’OTT est associée au développement d’une offre majeure de contenu, confirmant en quelque sorte la position des chaines traditionnelles : pas de revenus sans contenus originaux. Netflix, Amazon, Apple, Facebook, Google/Alphabet via Youtube sont des acteurs majeurs, Apple et Facebook voulant investir 1 milliard de dollars dans les contenus.

Netflix va investir 7 milliards de dollars en 2018 dans les contenus contre 6 milliards en 2017. En 2017, 25% du budget était réservé aux programmes originaux, et cette part devrait augmenter.

Amazon de son coté a prévu 4,5 milliards de dollars contre 2,7 en 2017.

Le nombre des abonnés de Netflix aux USA a dépassé celui des abonnés au câble, mais pour un revenu très inférieur.

Le paysage audiovisuel est en pleine évolution : des émissions développés pour le net ont ensuite été reprises par des chaines. Un événement récent est la décision de Disney de retirer ses contenus de Netflix d’ici 2019 pour lancer son propre site de vidéo à la demande. De plus Disney, en rachetant les actifs télévision et cinéma de 21st Century Fox est devenu propriétaire à 60% de la plate forme Hulu, qui possède de nombreux contenus exclusifs.

En décembre 2018, Amazon a déposé les noms « AmazonTube » et « OpenTube » pour des services audiovisuels non téléchargeables.

Les sondages d’audience sont complexes à analyser. Cependant il semble que l’usage de Netflix ne remplace pas celui de la télévision linéaire, mais pourrait s’y ajouter : les abonnés de Netflix aux US passeraient les deux tiers de leur temps vidéo à regarder la télévision linéaire.

Les évolutions futures vont être intéressantes, tant du point de vue du comportement des (télé)spectateurs que des offreurs de contenus.

Le streaming OTT (Over The Top) désigne la distribution de la vidéo sur l’Internet public

7.2 Débit et bande passante

Un problème majeur concerne depuis toujours l’OTT, c’est celui de la bande passante. Le passage au 4K alourdit considérablement le problème. Par exemple Netflix, qui est aujourd’hui l’acteur majeur du 4K recommande pour le recevoir un débit minimal de 25 Mbps.

Un problème technique se pose toujours pour la distribution de vidéos multiformat, notamment face à l’existence de plusieurs standards concurrents de streaming adaptatif.

Une unification des standards de format streaming éviterait d’avoir à diffuser plusieurs flux pour la même vidéo. Le format propriétaire HLS (développé par Apple) coexiste avec d’autres, dont le plus important est MPEG-DASH. Ce dernier format a été repris par le DVB qui en propose une mise en œuvre soue le nom DVB-DASH. Une évolution discrète, mais importante doit être réalisée à travers le standard CMAF (Common Media Application Format) du MPEG qui doit permettre d’unifier les formats de streaming adaptatif. Un tel développement, initialisé en 2015 par Microsoft et Apple, permettrait un gain considérable de place et de débit nécessaire dans le réseau de transport et de distribution de l’OTT multi-plate forme. Il prend en compte AVC et HEVC, mais permet d’autres codecs (AV1). Mais rien n’est simple dans ce domaine où des acteurs technologiques majeurs s’affrontent : le standard ne prend pas en compte l’encryptage pour lequel plusieurs solutions existent : les débats continuent…

7.3 La guerre des Codecs

La standardisation des codecs revenait traditionnellement au groupe MPEG, qui a successivement développé MPEG2, puis en 1999 MPEG4, en 2003 H264/AVC et en 2013 H265/HEVC. Ces produits développés par de multiples industriels ont donné lieu à des conflits importants sur le montant et la répartition des royalties associées aux licences.

Dès 2010, google a développé un Codec libre de droits VP8, puis en 2013 VP9, annoncé comme au même niveau que H265.

Face à ce problème, lancé en septembre 2015, une organisation regroupant les acteurs de l’Internet, Alliance for Open Media, regroupe notamment Google, Microsoft, Intel, ARM, Nvidia, Mozilla, Amazon, Netflix et Cisco, s’est donnée comme objectif de co-développer des formats libres de royalties, et en priorité un codec. Ce nouveau codec, AV1 a été disponible fin 2017, et continue à évoluer. Il va succéder au codec VP9 déjà incorporé dans nombre de browsers.

AV1 vise au delà du marché des browsers celui des opérateurs de télévision. Il a pour avantage évident la gratuité des royalties, mais aussi annonce une qualité supérieure à celle du HEVC. Des comparaisons étaient présentées sur différents stands, les points de comparaison étant à la fois la réduction du débit, mais aussi la qualité de l’image et le coût informatique de sa mise en œuvre. Des équipementiers majeurs annonçaient des prototypes d’encodeur AV1. La question reste ouverte.

Entre temps, un nouveau groupe a été créé en octobre 2017, pour développer un nouveau format de compression pour succéder au HEVC., suite à une phase exploratoire. Le standard devrait être disponible en 2020 et marquer un gain significatif en compression. Il inclurait éventuellement les images en 360 degrés.

8 Peu évoqué : l'arrivée du 5G

La 5G a été peu discutée au NAB. La technologie reste étrangère aux opérateurs de télévision. Elle a été présentée par Nokia. Rappelons que la 5G a déjà été expérimentée en Corée, qu’elle présente un standard de transmission qui dépasse les usages « classiques », et prévoit (pas nécessairement en même temps) un débit utilisateur de 100Mbps, avec une latence très faible, une capacité de 10 Mbps par mètre carré, une réception possible par une mobile en déplacement allant à 500 km/h. Sans rentrer dans les détails, trois types d’usage au moins sont envisagés : le broadband mobile, la communication massive vers les objets et les communications à très basse latence.

L’impact de la 5G est encore incertain, mais il peut par exemple permettre des expériences de réalité virtuelle sociales connectées, grâce à la capacité de fournir du contenu immersif à très grand volume.