Revenir au site

Compte-rendu du NABSHOW 2019

Alain Puissochet Avril 2019

 

 

Le NABShow est l’occasion de faire le point sur les technologies et les acteurs de la télévision, de la vidéo et de la radio, mais aussi et plus largement sur les évolutions plus générales des technologies et des usages dans le monde.

Cette année a vu la suite des développements de l’intelligence artificielle (IA), avec les premiers débuts de mise en œuvre. Ce rapport analyse la réalité de sa mise en œuvre dans l’audiovisuel, et les incertitudes d’un développement annoncé comme explosif, même si son importance actuelle est plus que limitée.

Il fait ensuite le point sur la situation de la télévision terrestre aux USA, et en particulier le nouveau standard américain de la télévision numérique, ATSC 3.0, aussi appelé NextGen TV, et au niveau mondial, la montée de l’OTT dans un marché en forte évolution, avec l’entrée annoncée de grands acteurs mondiaux comme Disney et la multiplication d’acteurs plus locaux.

Il évoque les progrès de l’usage de l’IP et du cloud (réels, mais toujours plus lents qu’annoncé) notamment en production, le passage à ce qui désormais appelé la UHD (Ultra High Definition) et son impact sur la télévision terrestre. L’impact de l’arrivée de la 5G, non évoquée l’an dernier, est apparu cette année. La 8K est en émergence.

Tout ceci se développe sur un mouvement continu, qui dépasse largement l’audiovisuel, de transition du hardware spécialisé vers le logiciel et de la montée de la virtualisation.

Ce document s’efforce de n’évoquer les aspects techniques que quand ils sont nécessaires à la compréhension des enjeux. Son auteur est prêt à expliciter certains points sur demande.

SOMMAIRE

1 NAB 2019

2 Intelligence Artificielle (IA)

3 L'ATSC 3.0

4 UHD et 8K

5 OTT et Streaming

6 L'arrivée du 5G

7 La transition vers IP (et le cloud)

1 NAB 2019

Le NABshow a connu son succès habituel, malgré une légère baisse de fréquentation, avec plus de 90 000 participants dont un quart de non américains, et 160 pays représentés. Il constitue toujours le lieu de rencontre majeur de tous les producteurs d’équipements audiovisuel. Huit cycles de conférence en parallèle s’y sont déroulés, accompagnés de programmes de formation, et de programmes associés (Cybersécurité, streaming, AI+cloud campus,…).

Parmi les plus de 1600 exposants étaient regroupés des pavillons dédiés, qui pointent les sujets du jour : c’est ainsi que les pavillons dédiés aux drones et à la réalité virtuelle ont laissé la place à « l’expérience automobile », les podcasts et la 5G, l’ATSC étant bien évidemment très présent.

2 Intelligence artificielle (IA)

L’intelligence artificielle était apparue massivement au NAB 2018, avec la multiplication des présentations par de grands acteurs, comme Amazon, Google, IBM et Microsoft. Ces sociétés combinent une offre dans le cloud avec une large gamme d’outils destinés à la mise en œuvre de projets d’intelligence artificielle.

En 2019, la présence de l’IA était à la fois moins bruyante et plus présente. Les présentations de développements étaient nombreuses.

2.1 Quelques rappels

Rappelons que l’intelligence artificielle est le nom d’un ensemble d’outils informatiques, qui existe depuis des dizaines d’années et qui est régulièrement utilisé dans les développements informatiques. La nouveauté est la constatation de l’efficacité de systèmes d’apprentissage automatique à base de réseaux neuronaux, ainsi que les progrès continus des autres technologies : la reconnaissance des images ou des paroles a connu une progression significative. NHK a démontré un logiciel capable de comprendre la parole dans un milieu bruité avec seulement 6% de mots erronés. Ceci a évidemment un impact sur les films : la bande sonore d’un film est certainement fortement bruitée !

Dans ce domaine, des acteurs comme Google (SIRI), Amazon (Alexa), Samsung (S Voice) et Apple (Google Assistant) disposent évidemment de jeux de données de parole considérables, permettant d’offrir des outils multi-langues, mais aussi multi-accents.

Il convient de rappeler que l’apprentissage par la machine ( ou ML pour Machine Learning), est basée sur l’existence d’un jeu de données important et validé. Le vieux principe de l’informatique s’applique toujours ici « garbage in, garbage out »,ce qui signifie que la possession et la qualification des données est un élément décisif pour l’efficacité du programme. Les entretiens menés au NAB ont confirmé une estimation grossière : le travail pour développer un outil d’AI dans un domaine donné est consisté à 80% de la collecte et de la qualification des données. Les outils d’aide à la validation des données sont proposés, mais restent encore limités.

L’avantage des grands acteurs du cloud est qu’ils sont à la fois familiers avec les problématiques liés à la « big data », qu’ils disposent déjà d’une offre cloud permettant de mettre en œuvre des programmes manipulant des volumes de données importantes, et également qu’ils disposent déjà dans certains domaines de jeux de données. C’est le cas par exemple pour la reconnaissance et la synthèse vocale.

Tous les grands acteurs offrent une gamme d’outils, incluant le traitement de la parole (speech to text et text to speech, traduction, analyse de langage naturel), la reconnaissance d’image, la gestion des dialogues, voire la reconnaissance des émotions. Des outils d’aide à la qualification des données et au choix de l’algorithme d’apprentissage sont aussi proposés.

2.2 Des exemples d'offre

IBM Watson regroupe 2000 personnes réparties en des divisions par secteur industriel, dont IBM Watson Media, présenté comme un ensemble de solutions utilisant l’IA pour l’industrie des médias

IBM a une gamme complète d’offre produits et services avec notamment :

  • 25 blocs cognitifs concernant langage, parole, vision et données, capables d’analyser sentiment, émotion, concept , relation, taxonomie.
  • L’accès immédiat à un nuage privé, public ou mixte
  • Des agents virtuels (chatbot) préconfigurés ou non
  • Des outils d’analyse et intégration de données éventuellement non structurées et de sources multiples, avec analyse du contenu
  • Un studio de la connaissance pouvant combiner apprentissage et système à base de règles

IBM possède The Weather Company « powered by Watson ».

Google a une offre assez équivalente.

La société a mis en Opensource le logiciel d’apprentissage développé en interne TensorFlow. La société a également racheté Deepmind, qui avait développé d’autres logiciels d’apprentissages.

La société met en avant sa présence sur le cloud et annonce avoir développé le plus grand cloud mondial, avec plus de 750 personnes dédiées à sa sécurité. Elle met l’accent sur AutoML, un outil qui devrait permettre aux non experts de l’IA de développer des réseaux neuronaux. Elle offre en plus un service (réalisé par des humains) pour annoter et nettoyer des jeux de données.

En 2019, Google a annoncé avoir été choisi par Viacom pour mettre en place une plate-forme de « découverte du contenu », incluant des outils d’indexation automatique des contenus, de découverte et d’analyse de contenus, et d’extraction automatique paramétrable de séquences.

Amazon également présente une offre du même type.

Amazon Web Services (AWS)annonce intégrer de nombreux moteurs d’apprentissage à son système et permettre également de déployer rapidement tous les algorithmes nouveaux. Début avril 2018, elle a annoncé des dizaines de milliers d’utilisateurs pour ses services d’apprentissage machine, et se positionne en leader sur le marché avec son logiciel SageMaker, qui facilite le développement complet d’un système. Parmi les projets d’AWS, notons un service pour comprendre les commentaires des téléspectateurs concernant une émission.

Microsoft met l’accent sur son offre cloud Azure et en particulier sur Azure Media Analytics, annoncé au NAB 2016, qui se présente comme une plate-forme d’intelligence vidéo dans le cloud, capable au-delà des applications « classiques » (reconnaissance de parole, de texte, d’image, de marque) de permettre aux utilisateurs d’entrainer spécifiquement un moteur dédié aux médias. Microsoft s’est notamment associé à AVID, un leader mondial de la production vidéo, pour co-développer de nouveaux produits.

Un exemple présenté par IBM Watson et Universal Picture : définition des scripts

Le but est de valider un script pour que sa mise en œuvre ait le maximum de chances de succès. Il implique l’analyse de très nombreux scripts, et d’explorer les résonnances et les émotions associées à chacune de leur caractéristiques. Il a été mentionné que cela concerne plutôt le « low level content », pour lequel l’automation permettrait de baisser les coûts. La tentative vise d’abord à mieux comprendre les possibilités : définir des règles, aider les créateurs à innover. La possibilité d’automatiser complètement l’écriture d’une histoire a été rejetée avec fermeté.

Un senior VP d’HBO a mentionné, ce qui paraît caractériser la position des grands acteurs des médias : « il y a beaucoup d’enthousiasme en interne autour de l’IA». Pour le moment, HBO est seulement en train d’expérimenter (« just dipping our toes ») et d’explorer les possibilités d’usage. Un résultat envisagé est de construire taxonomies et ontologies et de voir leur usage potentiel.

Parmi les principales applications envisagées on peut citer

  • L’analyse du contenu des flux vidéo pour en générer des métadonnées : cette application intéresse beaucoup d’acteurs pour valoriser des archives vidéo considérables, mais inexploitables en raison du coût d’indexation.
  • La génération automatique des sous titres, soit à partir du dialogue, soit en traduction d’une version originale. Le taux d’erreur des logiciels actuels devrait permettre un usage pour les séries de moyen ou bas de gamme, avec un gain en temps et en coût considérable.
  • Les aides potentielles à la production sont nombreuses (montage, écriture de script)
  • La compréhension des vidéos produisant des méta données, comme par exemple la connaissance du rôle de chaque joueur dans un match de football, ce qui ouvre la possibilité de répondre à des demandes du téléspectateur (démonstration en 2018 sur le stand de Elemental Technologies/AWS)
  • L’enrichissement des données diffusées par des contenus complémentaires identifiés grâce aux métadonnées.
  • Aide à la compression d’images en identifiant les parties de l’image à traiter en priorité (déjà mis en œuvre par la société Harmonic)

2.3 Quelques commentaires concernant l'IA

Les techniques d’IA, si elles font l’objet de beaucoup d’annonces, constituent aujourd’hui encore une promesse plus qu’une réalité. En particulier, en ce qui concerne le deep learning, il est nécessairement lié à la présence d’un volume très important de données, et nécessite une puissance de calcul considérable. Un aspect moins mis en avant est la nécessité pour un apprentissage supervisé de labelliser chacune des données : l’IA donne beaucoup de travail aux petites mains.

Il est donc d’abord un atout pour les offreurs de service cloud et pour les sociétés disposant de masse de données déjà prêtes.

Comme on vient de le voir, l’IA en particulier dans ses méthodes d’apprentissage, est dépendante pour son efficacité de l’existence de « big data ». L’apprentissage à partir de « small data », c’est-à-dire ne nécessitant pas des volumes de données considérables, serait un progrès technique majeur, mais que rien n’annonce.

Il est également important de noter que les techniques d’IA ne visant pas à « dépasser l’homme », auquel on fait toujours appel pour les cas difficiles. Il s’agit d’abord d’augmenter la productivité des outils existants, et on ignore encore aujourd’hui si le coût des développements IA est compensé par ce gain de productivité. Il ne s’agit pas non plus de remplacer l’homme, mais d’accroitre sa productivité. Dans ce contexte, la phrase d’un expert américain reconnu, Shelly Palmer, prend tout son sens : »ce n’est pas l’IA qui vous prend votre travail, c’est votre patron qui vous licencie ». L’impact sur l’emploi dépendra de la réalité des gains de productivité, et de la capacité à développer de nouvelles activités.

Enfin une dernière remarque : l’’intelligence artificielle a aujourd’hui une capacité d’apprentissage de l’ordre de celle d’un enfant de quelques années : il faut 10 000 photos de chat pour que le système sache identifier les chats, et des récents travaux ont montré qu’il est possible de le tromper. Nous sommes très loin de l’IA forte, redoutée par certains.

3 ATSC 3.0

3.1 Qu'est l'ATSC 3.0

L’ATSC 3.0 (Advanced Television Systems Committee) regroupe un ensemble de standards pour la télévision numérique, il fait suite à l’ATSC 1.0 développé au début des années 1990, qui avait marqué le passage aux États-Unis de la diffusion analogique à la diffusion numérique. Son adoption avait été limité à un nombre limité de pays, incluant la Corée, le Mexique et le Canada, le standard DVB dominant la scène mondiale, et le Japon et la Chine ayant développé des systèmes nationaux.

ATSC 3.0 et NextGen TV désigne le même objet.

Le standard 1.0 a connu des difficultés techniques liés notamment à un choix de technique de modulation, loin de l’efficacité du DVB-T2. La version 2.0 (rétro compatible) n’a guère résolu les problèmes.

Le choix a été fait de développer un nouvel ensemble de standards par principe non rétro compatible, ce qui met hors-jeu les téléviseurs, les émetteurs et une grande partie des équipements existants.

Plusieurs changements majeurs ont été choisis :

3.1.1 Une nouvelle technique de modulation et de diffusion

L’ATSC 3.0 implique le changement de technique de modulation et l’adoption (améliorée grâce à l’utilisation des derniers développements technologiques)de la technique de base utilisée par le DVB T/T2, nettement plus efficace : le choix malheureux de la modulation fait pour l’ATSC 1.0 explique largement le fait que dans le monde entier, et malgré la pression américaine, ATSC1.0 ait connu un développement très limité en termes de nombre de pays. L’ATSC 3.0 pourrait permettre la diffusion vers les mobiles, et l’utilisation d’antennes intérieures.

La diffusion utilise la SFN (Single Frequency Network), qui permet aux émetteurs d’utiliser la même fréquence pour une chaine donnée, en éliminant les problèmes d’interférence.

3.1.2 La continuité Broadcast Broadband et l'usage de l'IP

Le système complet repose sur l’usage unique de l’IP (Internet Protocol), et vise à combiner accès Broadcast et Broadband. Le transport s’effectue uniquement au format IP (Internet Protocol) pour le Broadband et le Broadcast.

La combinaison Broadband-Broadcast permet une interactivité « vraie », et en particulier l’accès au téléspectateur individuel, source potentielle de revenus publicitaires accrus.

Notons qu’en 2018, c’est un projet français Convergence TV, qui a présenté le premier projet au monde de convergence Broadcast Broadband, en mettant en œuvre la chaîne complète d’enrichissement du broadcast par le Broadband permise par ATSC3.0. Le projet a obtenu le « 2018 NAB Technology Innovation Award » pour son système hybride ATSC3 utilisant SHVC. Le projet a été développé par 5 sociétés et deux centres de recherche français : Teamcast, Ateme, Broadpeak, Motion Spell, TDF et l’INSA Rennes et Telecom Paristech. Il combine une transmission d’un flux UHD en broadcast et d’un flux d’enrichissement en HD sur le Broadband.

3.1.3 Une diffusion permettant la UHD

Il permet de diffuser la « UHD»(Ultra High Definition), qui possède en particulier les caractéristiques suivantes :

  • Diffusion d’images 4K (3 840 pixels par ligne pour 2 160 lignes), soit avec quatre fois plus de pixel que la haute définition existante
  • Des améliorations majeures de la qualité de l’image transmise, notamment en termes de gamme des couleurs WCG (Wide Color Gammut ), de fréquence de trames HFR (High Frame Rate ) et de gamme dynamique HDR (High Dynamic Range). Le HDR permet notamment d’afficher les nuances à la fois dans les parties claires et les parties sombres de l’image, offre des niveaux de blanc et de noir jusqu’ici impossibles et permet un gain de qualité visuelle unanimement reconnu.
  • Un système audio « immersif ».

3.2 Un objet économique nouveau

Le modèle économique du déploiement est un objet non identifié, de type nouveau :

Le passage du 1.0 au 3.0 implique le renouvellement complet des équipements depuis les téléviseurs jusqu’aux émetteurs. Or la transition vers le NextGen n’est pas obligatoire, et dépendra de la décision de chaque chaine de télévision. Elle doit être « market driven ». Il n’est prévu aucune action des pouvoirs publics, et en particulier pas d’attribution de fréquences à l’exception de l’autorisation du changement et la validation du standard, même si le financement du « spectrum repack » (repositionnement des chaînes liés à la vente aux enchères de nombreuses fréquences par le gouvernement US) serait partiellement utilisé.

Une telle transition représente un bouleversement majeur. Le précédent exemple, le passage au numérique de 1997, était imposé par la loi et avait fait l’objet de nombreuses mesures d’accompagnement. Ce n’est pas le cas actuellement.

En novembre 2017, la FCC a autorisé les broadcasters à utiliser ATSC 3.0 pour des essais, à condition de continuer à diffuser en 1.0 en simulcast pendant 5 ans. Cependant les stations auront besoin d’une autorisation supplémentaire avant d’émettre en 3.0 à destination du public.

Un tel changement suppose que les chaines trouvent elles-mêmes les nouvelles fréquences nécessaires (en puisant dans leurs réserves ou en partageant des canaux), que de nouveaux téléviseurs soient achetés (ou équipés d’un convertisseur), et que les chaines financent tous les nouveaux équipements nécessaires, ce qui représente un coût dont le montant est disputé, mais qui pourrait être élevé. Le coût annoncé en 2018 par le VP Advanced Technology de Sinclair, qui gère le plus grand réseau d’émetteurs aux US, pour transformer une station en ATSC3.0 est de l’ordre de quelques centaines de milliers de dollars.

Pour l’instant seule la Corée a mis en service le standard, et pour l’instant son adoption n’est envisagée qu’aux États-Unis.

Les équipementiers sont très majoritairement présents sur ce nouveau marché: les offres d’équipements compatibles ATSC 3.0 étaient présents sur la majorité des stands au NAB 2019.

3.3 La transition

3.3.1 USA

Les travaux mis en œuvre actuellement visent à développer et valider les différents standards de l’ATSC3.0, ainsi qu’à définir la mise en œuvre potentielle de la transition, et à valider les services interactifs liés au Broadband, avec en priorité ceux qui pourraient justifier l’investissement demandé.

Au NAB2019, les USA ont annoncé qu’ils proposaient l’ATSC3.0 à l’UIT (Union Internationale des Télécommunications) pour son adoption comme un standard international. De nombreuses étapes sont à franchir avant son adoption. En cas d’acceptation (très probable), il rejoindra les standards DVB-T, ISDB-T (Japon-Brésil) et DTMB (Chine).

Une période de transition est indispensable pendant laquelle l’ATSC1.0 et l’ATSC 3.0 coexisteront. Le concept de « lighthouse » (phare) a été développé. L’idée est que, pour chaque marché, un émetteur appelé phare soit dédié à l’ATSC3.0 pendant que les émetteurs des autres stations locales poursuivraient en ATSC1.0. En fin de transition, c’est-à-dire quand les téléspectateurs seront équipés des récepteurs adéquat, un seul émetteur pourrait être conservé en 1.0. Ceci nécessite des accords commerciaux entre les stations, et aussi des efforts techniques (types d’encodeur, format vidéo streaming,…).

Au NAB2019, un regroupement de stations, incluant des acteurs majeurs a annoncé le développement de projets collaboratifs dans les 40 plus grands marché américains. Ils ont identifié les premiers marchés à convertir (sous réserve des derniers réglages d’ingénierie et de leur approbation par la FCC). Le choix des stations qui développeront la Next-Gen TV est en cours. Un déploiement sur ces 40 marchés est espéré fin 2020, en anticipant sur la disponibilité de téléviseurs ATSC3.0.

Les essais avaient commencé en 2018, notamment à Phoenix (8 stations) et à Dallas (Sinclair Group : construction d’un réseau SFN, mise en œuvre prévue pour mars 2019) et on a vu au NAB2019 les premiers retours d’expérience, avec des annonces de résultats très positifs. Cependant une seconde phase doit suivre avec de nouveaux émetteurs. L’annonce des résultats met en avant d’abord l’amélioration de la qualité de transmission, mais aussi son efficacité pour le système d’alerte pratiquée aux USA.

Les essais à Chicago et Cleveland portaient sur deux points importants, qui concernent la mise en œuvre technique de fonctionnalités permettant de monétiser les nouveaux développements. Il s’agissait d’une part de la diffusion en UHD par Internet de programmes diffusés en terrestre en HD, ouvrant la possibilité d’une offre premium et d’autre part d’étudier l’offre hybride ATSC3.0 et ATSC1.0. Les derniers résultats (positifs) ont été obtenus début 2019 et annoncés verbalement au NAB.

A Dallas, l’utilisation d’émetteurs dédiés à l’internet des objets était envisagée, mais n’a pas donné lieu à des annonces. Aux US existent de nombreux acteurs importants du Narrow-Band IOT, une technologie radio basse consommation et couverture importante, comme Dish Network, T-Mobile et Verizon.

3.3.2 La Corée

La Corée du Sud a été le premier pays à proposer un service commercial sur une chaine de télévision terrestre utilisant ce standard, avec un lancement d’une chaîne terrestre le 31 mai 2017 par KBS, le principal opérateur de télévision, suivi ensuite par ses concurrents.

Le calendrier annoncé a été tenu voire accéléré.

En Corée, le passage à l’ATSC3.0 est obligatoire, avec un arrêt de l’ATSC1.0 décidé pour 2027. Dès fin 2017, toutes les grandes villes étaient couvertes, et en 2020, un taux de couverture de 95% est prévu. La mise en œuvre inclut 4K (3840x2160), l’HDR, le MPEG-H et le SFN, avec un codage HEVC.

Une allocation de fréquences dédiée avait eu lieu en septembre 2015.

Une particularité des opérateurs coréen est d’avoir fait le choix d’un portail Broadband commun à toutes les chaines (KBS, SBS, MBC), Tiviva 2.0, mis en service en novembre 2017 qui fournit notamment les services de replay, de VOD et la distribution des émissions sportives qui n’existent pas en UHD. Tiviva uitlise comme standard IBB (Integrated Broadcast Broadband Service) qui fait à la fois référence à ATSC3.0 et à HbbTV2.0.

Les jeux Olympiques d’hiver 2018 à PyeongChang ont permis d’utiliser la nouvelle technologie. On peut noter qu’en parallèle le premier réseau de transmission au monde utilisant la technologie 5G était expérimenté sur le site des jeux et à Seoul par l’opérateur KT.

C’est naturellement en Corée qu’on trouve les plus nombreux tests fonctionnels, présentés au NAB 2019 par « Korea UHD On Air » qui regroupe notamment les trois grands opérateurs de chaines, l’ETRI (centre de recherche public majeur) et des sociétés coréennes : système d’alerte, publicité ciblée, service aux véhicules, et même diffusion du format 8K.

3.4 ATSC 3.0 : quel futur?

Il est difficile de prédire la vitesse de son développement, qui se poursuivra certainement, si l’on considère le volume majeur de développements techniques, et le soutien fort de groupes majeurs de chaine de télévision. De plus ce passage parait obligatoire pour maintenir la télévision terrestre à son niveau actuel aux USA, voire la faire progresser.

Bien évidemment, un facteur clé sera la décision éventuelle par les téléspectateurs de s’équiper de téléviseurs 3.0, alors qu’ils viennent d’acheter des téléviseurs 4K 1.0. La transition du HD vers le 4K est en cours (voir ci-dessous), est bien engagée, mais est loin d’être achevée. Depuis 2018, la plupart des téléviseurs 4K vendus jusqu’ici offrent le HDR (High Dynamic Range), qui est un facteur important de qualité visuelle. Le succès actuel des ventes de téléviseur 4K, documenté plus bas, risque d’impliquer que les consommateurs ne rachèteront pas, deux ans après un premier achat 4K, un téléviseur 3.0, qui est en cours d’apparition sur le marché.

On peut se demander ce qui se passera après 5 ans, quand les stations ne seront plus obligées de continuer à émettre en 1.0 (si cela reste le cas). La question reste entière.

3.5 ATSC 3.0 et DVB

Une comparaison ATSC3.0 et DVB peut être résumée ainsi

  • la technique de modulation est maintenant proche de celle du DVB-T2, avec un léger gain pour l’ATSC3.0 qui a utilisé les progrès technologiques les plus récents.
  • ATSC3.0, comme DVB intègrent la résolution 4K, le HDR (High Dynamic Range), le HFR (Higher Frame Rates), la nouvelle génération audio et un espace couleur étendu.
  • Une différence fondamentale est l’utilisation de l’IP pour la couche de transport (à la place du MPEG2TS)

Cette différence est un avantage certain dans les pays où l’accès Internet haut débit est assuré. Elle l’est moins sinon.

Cette décision avait été l’occasion de débats dès 2015. Ils se sont poursuivis au sein de DVB pour aboutir au lancement de l’étude d’une nouvelle action de standardisation : DVB-I, où I signifie Internet.

4 UHD et 8K

4.1 Quelques définitions

Le vocabulaire est multiple: on parle de UltraHD, UHD, SuperHivison, UHDTV1 et UHDTV2 et ce ne sont pas les seules dénominations.

Le format vidéo doit être capable d’afficher au moins 8 millions de pixels, soit quatre fois plus que la haute définition en 1080p. La UHD ou UHDTV1 utilise une image de 3840 x 2160 pixels. La Super-Hivision japonaise couvre 4K et 8K.

Selon la définition de l’EBU (European Broadcasting Union), UHDTV couvre :

  • Une résolution de :
    •  3840x2160p (quatre fois la HDTV appelé 4K), ou
    • 7680x4320p (16 fois la HDTV appelé 8k).
  • Une gamme de couleur proche de celle de l’œil humain, défini par la norme BT2020
  • Un nombre d’images par seconde allant jusqu’à 100, voire 120
  • Une gamme dynamique d’éclairage (HDR), pour laquelle plusieurs réalisations coexistent.

Deux phases avaient été définies :

UHD-Phase 1 couvre tous les écrans ayant seulement la résolution 4K sans les autres propriétés (c’est le cas des téléviseurs 4K apparue initialement)

UHD-Phase 2 doit inclure également les autres propriétés.

C’est la situation actuelle, où la plupart des téléviseurs dits UHD incluent une forme de HDR.

Un facteur favorable au 4K est l’existence de contenus grâce à l’usage d’un format très proche par le cinéma, ce qui permet de disposer immédiatement de contenu à diffuser. Un autre facteur est le développement de la compression HEVC, dont les premiers essais remontent à 2013, et qui permet de diminuer le nombre de bits nécessaire à la transmission d’une image d’un facteur significatif. Le passage au 4K, même avec la mise en œuvre (indispensable) de HEVC, implique des coûts importants, en termes de bande passante, de volume de stockage et de puissance de calcul, mais aussi en termes de coût de production.

De plus la capacité par le téléspectateur de voir la différence avec une vidéo diffusée en HD est toujours objet de discussion, en fonction de la taille de l’écran et de la distance du téléspectateur à celui-ci. En particulier, les nouveaux développements sur la couleur et la luminance laissent penser que ces deux facteurs peuvent avoir un effet plus important sur le ressenti du téléspectateur que le nombre de pixels. Toutes les démonstrations auxquelles j’ai assisté faisaient apparaître une meilleure qualité ressentie d’image pour une vidéo HD avec large gamme de couleur et de luminance par rapport à une vidéo 4K utilisant couleur et luminance traditionnelle.

Compte tenu du coût pour les broadcasters terrestre de l’accroissement de la bande passante, une solution reposant sur une diffusion terrestre en HD, avec les développements prévus (HDR, HFR et gamme de couleurs) paraît probable. Elle n’accroitrait pas les besoins en bande passante. De plus les téléviseurs 4K sont tout à fait capable d’afficher du HD, en extrapolant les pixels manquant et avec une excellente qualité. Enfin, il n’est pas sûr que la qualité ressentie par le téléspectateur change entre du HD et du 4K avec les développements (HDR, HFR). Les avis subjectifs sont pour le moins partagés. Notons que l’arrivée massive des offres OTT, qui utilisent comme argument commercial leur offre UHD.

Il ne faut pas le confondre avec le format 4K utilisé en cinéma numérique (4096 x 2160 pixels).

Pour compliquer les choses : on distingue la Phase 2 a avec 4k and HDR et la phase 2 b qui rajoute le HFR.

4.2 4K : le déploiement

Les ventes de téléviseur 4K se sont très rapidement développée : la Consumer Technology Association (CTA, auparavant appelée Consumer Electronics Association, CEA), a annoncé au NAB 22 millions de téléviseurs 4K vendus en 2018 (les chiffres correspondant pour 2017 étaient de 15 millions), avec une croissance des ventes très supérieure à celle du HD en son temps. Il annonçait aussi que les 114 millions de foyers américains possédaient 308 millions de téléviseurs (soit en moyenne 2,7 par foyer).

Des chiffres plus globaux fournis par BCC Research font état d’une croissance annuelle entre 19 et 22% dans les différentes parties du monde. Tous les chiffres paraissent concorder : une récente annonce de IHS Markit signalait que plus de la moitié des téléviseurs vendus dans le monde le dernier trimestre 2018 avaient une résolution 4K (63% en Europe de l’Ouest).

Une croissance des ventes aussi rapide est expliquée notamment par

  • La première version commerciale des téléviseurs UHD a été marqué par une volonté forte des producteurs chinois pour rentrer sur le marché, en jouant sur des prix très bas. Ceci a eu pour conséquence une baisse très rapide des coûts des téléviseurs UHD (avec par exemple la disponibilité d’écrans LCD 75 pouces vers 1300 USD) , et une croissance forte des ventes, ceci malgré la jusqu’ici faible présence de chaines de télévision en UHD. De plus les « up converters » du HD au 4K permettent des résultats visibles sur l’écran, qui peuvent convaincre des téléspectateurs (surtout si le surcout est limité).
  • Si les chaines ne se précipitent pas sur le 4K, ce dernier représente un atout compétitif majeur pour les diffuseurs en ligne, qui sont les premiers utilisateurs. Netflix et Amazon Prime sont parmi les plus actifs. Les opérateurs de satellite sont également intéressés, souvent en liaison avec leurs plates-formes IP.

C’est le marché chinois qui domine, suivi par les États-Unis et l’Europe.

Les chaines UHD ne se développent que lentement , même si le contenu 4K se multiplie, les nouveaux tournages se faisant dans ce format.

Les contenus UHD sont d’abord distribués par Internet, avec des offres par iTunes, Amazon, DirectV, Netflix, Youtube et Vudu (voir le chapitre streaming ci-dessous). Cependant, il semble que la majorité des foyers américains ne disposent pas de la bande passante permettant un streaming à 25Mbps, ce qui est nécessaire actuellement pour du 4K UHD. Le nouveau standard de compression VVC (Versatile Video Coding) devrait permettre un gain de 50%.

4.3 HDR High Dynamic Range

Le HDR (High Dynamic Range), peut être traduit par imagerie à grande gamme dynamique. Ce standard est spécialement intéressant car il permet d’améliorer significativement la qualité de l’image, même sur des petits écrans.

Cependant , plusieurs standards ont été en compétition, les uns non compatible avec le passé, les autres assurant une compatibilité, dont deux paraissent émerger

L’apparition de ces technologies a entrainé celle d’un nouveau nom : SDR (Standard Dynamic Range) désigne désormais la situation actuelle, que personne n’avait pensé à nommer !

HDR est une technologie qui permet d’étendre la gamme d’éclairage qu’une image de télévision peut afficher. La HDR permet d’avoir sur une même image un même haut niveau de détail dans les parties sombres et les parties claires, et d’avoir des intensités lumineuses beaucoup plus élevées. Un écran HDR peut afficher jusqu’à 1000 candelas par mètre carré ou nits, voire plus contre 200 à 300 pour un écran « actuel ». Les informations de luminance transmises vers les téléviseurs cathodiques étaient limitées par la capacité de ces derniers à les afficher. Or les écrans plats actuels offrent des possibilités d’affichage beaucoup plus riches.

Les recommandations pour l’UHD Phase B mentionne deux technologies HDR : Dolby Vision et SL-GDR1 devenu HDR. Sur le marché aujourd’hui existent trois technologies, HDR10 paraissant dominer le marché, Dolby Vision et HDR10+ développée par Samsung.

En janvier 2015, des industriels regroupant producteurs d’équipements, chaines de télévisions et broadcasters s’est créée sous le nom UHD Alliance pour définir de nouveaux standards concernant la future génération, concernant tous ces points et notamment définition (4K et au-delà), HDR, gamme de couleurs, techniques audio. La solution annoncée au CES 2016 est celle d’un logo appelé « ULTRA HD PREMIUM ». Début 2017 a été ajouté le label UHDA « Mobile HDR Premium » visant ordinateurs, tablettes et téléphones.

La UHD Alliance regroupe studios, producteurs de CE et acteurs du Net, avec notamment Samsung, Sony, LG, Panasonic, Disney, Warner, Universal, Fox, Amazon, Dolby, Netflix, DirecTV et Microsoft.

Il vise à garantir à l’acheteur de téléviseur 4K la « conformité aux nouvelles technologies », ce qui se traduit par une liste de spécifications minimales dont les principales sont :

  • La résolution                      3840x2160
  • La couleur                           90%  de la gamme dite P3
  • Profondeur de couleur    10 bits et un signal BT2020 (voir note)
  • HDR                                     La possibilité de la mettre en œuvre
  • La brillance                       Des minimums définis de deux façons adaptés respectivement aux écrans LCD et OLED

Notons que tous les producteurs de téléviseurs n’adhérent pas à ces spécifications, et que chaque société est libre de mettre le logo ou non, même si elle pense y avoir droit.

En attendant, les producteurs de téléviseurs annoncent ou commercialisent des téléviseurs haut de gamme avec HDR incorporé.

Note : L’UIT a adopté en 2012 le standard connu sous le nom BT.2020, qui définit les différents aspects de la télévision UHDTV, y compris résolution, frame rate, échantillonnage et espace de couleurs. Il constitue une base de référence commune pour les acteurs. Ce standard permet d’atteindre des niveaux de qualité jamais prévus, notamment parce que les tubes cathodiques ne permettaient pas de les afficher.

4.4 Le 8K et au-delà

Depuis au moins 4 ans, NHK présente au NAB des démonstrations 8K, appelée super Hi-Vision qui utilise le 8K (soit 7 680 par 4320 pixels) avec une fréquence d’image jusqu’à 120 images par seconde. Le calendrier de passage à l’industrialisation annoncé dès le début est scrupuleusement tenu et même accéléré. Les premières démonstrations avaient eu lieu aux Jeux de Londres en 2012. C‘est en décembre 2018 que NHK a commencé une diffusion par satellite en 8K. Dès mars 2017, des tests de transmission des programmes (convertis de 8K en 4K) vers le câble avaient commencé. NHK parle désormais de « 4K/8K Super Hi-Vision ».

L’utilisation chez le particulier de tels niveaux de définition peut surprendre : pour visualiser du 8K, il faut être à courte distance du téléviseur (2 à 4 mètres) pour bénéficier des détails visibles, ce qui permet évidemment un effet d’immersion plus important.

Au NAB 2019, NHK n’a pas renouvelé ses splendides démonstrations 8K, considérant que la technologie était désormais industrielle, et effectivement on trouvait dans les stands des équipements 8K permettant production et distribution de 8K.

Cependant le niveau de maturité du 8K est encore très loin de celui du 4K, même si les développements se poursuivent activement, avec en particulier un système permettant la production en 8K associée à une distribution en 4K. Des téléviseurs prototype 8K étaient présents sur plusieurs stands.

5 OTT et Streaming

5.1 La montée mondiale du streaming

Netflix reste le leader de l’industrie de la diffusion en ligne de films et séries. Sa transformation depuis 2008 d’un loueur de DVD envoyés par la poste en offreur de SVOD en streaming, et plus récemment son entrée massive dans le monde de la production originale de séries et de films, en ont fait un acteur dominant avec 148 millions d’abonnés dans le monde dont 60 aux États-Unis. Cependant de nouvelles offres se multiplient. En parallèle, le nombre de séries produites ne cesse d’augmenter. Aux USA ce nombre est passé de 225 en 2009 à plus de 500 en 2018.

La concurrence se développe (des experts ont compté jusqu’à plus de 70 fournisseurs de vidéo sur OTT), mais beaucoup d’utilisateurs achètent plusieurs services. Face au développement de la concurrence, un modèle économique qui apparait cette année est le gratuit financé par les publicités.

La plupart des opérateurs américains (CBS, HBO, ABC, Nickelodeon, Showtime, ESPN, etc.) ont lancé des offres de streaming OTT.

Parmi les nouveaux acteurs majeurs annoncés, Disney qui va lancer Disney+ le 12 novembre 2019 aux USA (prix annoncé 6,99$), et disposera d’un catalogue très important, regroupant ses propres vidéo (qui seraient retirées de Netflix) et les vidéos de 21th Century Fox, acheté pour 71 milliards de dollars. Disney vise à être présent dans quasiment toutes les régions dans le monde avant deux ans. Il envisage de créer un bouquet avec ESPN+ et Hulu.

De plus Disney contrôle désormais la plate-forme Hulu. Hulu filiale des sociétés Disney, 21st Century Fox, Comcast et plus récemment Time Warner, était destiné à distribuer en streaming des contenus de ces sociétés. Sa structure s’est allégée depuis que Disney a racheté la plupart des actifs de Fox et que AT&T, suite à son achat de Time Warner, est sorti de Hulu en lui revendant ses parts. Il ne reste plus que Disney, majoritaire et Comcast, qui a annoncé le 14 mai 2019 la vente de ses parts dans Hulu à Disney.

Hulu a commencé à créer ses propres programmes. La société a une offre originale : elle combine une offre de télévision qui reproduit celle d’un câblo-opérateur américain (abonnement à 45$ par mois), un service de VOD sans publicité (12$ par mois) et un service avec publicité (6$ par mois).

Apple a annoncé Apple TV+ pour l’automne 2019. L’application AppleTV permettait d’accéder à de nombreux programmes dont Hulu , ESPN+, HBO et Starz. Apple pourrait devenir le « câblo-opérateurs du streaming », en y ajoutant ses productions exclusives.

ATT, qui vient d’acheter Time Warner pour 85 milliards de dollars, pourra développer son offre. Facebook et Google avec Youtube sont des acteurs potentiels.

Comcast envisage de lancer en 2020 via NBCUniversal un service de VOD financé par la publicité. En janvier 2019, Viacom a acheté la société PlutoTV, qui a le même modèle économique. En 2022, NBCUniversal aura le droit de retirer ses accords de licence programme avec Hulu.

Partout dans le monde, de nouveaux services apparaissent ou vont apparaitre: au Royaume-Uni Britbox, fruit de l’accord entre le BBC et ITV, SkyX en Autriche, Canal+Series en France, Salto, issu de l’accord entre TF1 et M6, TVNow par RTL. En Chine, IQIYI vise 120 millions d’abonnés pour fin 2019, dans un pays où Netflix est interdit.

Investissements en contenu annoncés en 2018

Netflix 12,5 B$

Amazon 5 B$

Hulu 2,5 B$

Apple 1 B$

Notons que Amazon Prime Video a une offre spécifique : elle fait partie de l’offre Prime, ex Premium qui permet par exemple de bénéficier de livraison gratuite en un jour ouvré. Amazon a annoncé en avril 2018, que l’offre Prime avait atteint 100 millions d’utilisateurs, sans préciser le nombre d’abonnés inscrits au service vidéo.

5.2 Débit et bande passante

Un problème majeur concerne depuis toujours l’OTT, c’est celui de la bande passante. Le passage au 4K alourdit considérablement le problème. Par exemple Netflix, qui est aujourd’hui l’acteur majeur du 4K recommande pour le recevoir un débit minimal de 25 Mbps.

Les actions engagées visent la qualité de la compression (voir guerre des codecs au paragraphe suivant), mais aussi la distribution de vidéos multi-format, notamment face à l’existence de plusieurs standards concurrents de streaming adaptatif. Des solutions de type « edge computing » permettant d’adapter le format au terminal lors du « last mile » ont été développées.

Une unification des standards de format streaming éviterait d’avoir à diffuser plusieurs flux pour la même vidéo. Le format propriétaire HLS (développé par Apple) coexiste avec d’autres, dont le plus important est MPEG-DASH. Ce dernier format a été repris par le DVB qui en propose une mise en œuvre sous le nom DVB-DASH. Une évolution discrète, mais importante doit être réalisée à travers le standard CMAF (Common Media Application Format) du MPEG qui doit permettre d’unifier les formats de streaming adaptatif. Un tel développement, initialisé en 2015 par Microsoft et Apple, permettrait un gain considérable de place et de débit nécessaire dans le réseau de transport et de distribution de l’OTT multi plate-forme. Il prend en compte AVC et HEVC, mais permet d’autres codecs (AV1). Mais rien n’est simple dans ce domaine où des acteurs technologiques majeurs s’affrontent : le standard ne prend pas en compte l’encryptage pour lequel plusieurs solutions existent : les débats continuent…

5.3 La guerre des CODECs

Les Codecs sont les équipements qui effectuent en particulier la compression de la vidéo. Ils concernent deux catégories majeures d’utilisateurs : les chaînes de télévision et les acteurs du net, mais aussi l’ensemble des industries qui utilisent aujourd’hui la vidéo : médecine, sécurité, et de nombreux autres acteurs. Les Codecs utilisent des formats standards, définis par des organisations, avec aujourd’hui deux grands acteurs : le group MPEG, qui est un groupe de standardisation établi par l’ISO/IEC et « l’Alliance for Open Media ». Cette standardisation des formats n’implique rien sur les algorithmes qui produisent les données conformes à ces derniers, ce qui explique qu’au-delà de gains immédiats liés au changement de standard, on observe des gains continus liés aux progrès des algorithmes.

Sur ce dernier point qui est un point majeur de la concurrence entre les fournisseurs de Codec, on peut noter l’arrivée de techniques d’IA permettant notamment d’optimiser la méthode en fonction du contenu de la vidéo.

La standardisation des formats revenait traditionnellement au groupe MPEG, qui a successivement développé MPEG2, puis en 1999 MPEG4, en 2003 H264/AVC et en 2013 H265/HEVC. Ces produits développés par de multiples industriels ont donné lieu à des conflits importants sur le montant et la répartition des royalties associées aux licences. Un nouveau groupe a été créé en octobre 2017, pour développer un nouveau format de compression pour succéder au HEVC, suite à une phase exploratoire. Le nouveau standard, appelé VVC (Video Versatile Codec) devrait être disponible en 2020 et marquer un gain significatif en compression, avec un objectif de 50% de réduction du débit. Il devrait permettre la compression 8K et les images en 360 degrés pour la réalité virtuelle.

Dès 2010, Google a développé un Codec libre de droits VP8, puis en 2013 VP9, annoncé comme au même niveau que H265.

En septembre 2015, une organisation nommée Alliance for Open Media (AOMedia ou AOM), regroupe notamment Google, Microsoft, Intel, ARM, Nvidia, Mozilla, Amazon, Netflix et Cisco, s’est donnée comme objectif de co-développer des formats libres de royalties, et en priorité un codec. Le nouveau codec, AV1 a été disponible fin 2017, et sa version AV1.0 publiée. Facebook et Apple ont rejoint le consortium récemment (Apple a annoncé l’intégration de HEVC à ses produits en juin 2017).

AV1 a été développé d’abord pour les applications Internet. Il vise cependant au-delà du marché des browsers celui des opérateurs de télévision.

La compétition HEVC AV1 n’est pas terminée. Pour citer un acteur majeur du marché présent au NAB « No one knows for sure » ! Les arguments incluent le prix de la licence, l’efficacité en termes de compression et de qualité, la latence mais aussi le coût informatique pour encoder au format visé.

6. L'arrivée du 5G

La 5G, pratiquement absente au NAB 2018, a fait une entrée en force en 2019.

La 5G est le nom de la cinquième génération de réseau cellulaire. Elle se caractérise par des cellules de très petite taille, et l’ouverture à des débits mobiles allant jusqu’à plusieurs gigabits par seconde, associé à une latence très courte de quelques millisecondes.

Il est clair qu’une telle technologie concerne peu les communications vocales, mais vise tous les échanges de données, avec une importance majeure donnée à l’internet des objets, telle que la voiture connectée (présente au NAB), mais aussi l’industrie avec notamment le contrôle des chaînes de production.

La course au déploiement est lancée dans le monde, avec les opérateurs coréens, Verizon aux États-Unis, mais aussi les chinois et les japonais, la distinction entre expérience et ouverture du réseau étant parfois peu claire et les annonces multiples…

De plus les standards continuent à évoluer : la version 16 de l’organisme de standard le 3GPP doit sortir en 2020. Les déploiements majeurs sont encore loin, mais les impacts potentiels sont désormais envisagés.

L’impact sur la vidéo peut être considérable : la vidéo mobile HD ou UHD est rendue possible, ainsi que de nombreux usages lors de la production des vidéos. 5G pourrait être également un substitut à l’usage de la fibre dans des emplacements isolés.

Au NAB 2019, la série de conférences Destination 5G, dédiée aux applications 5G s’est étendue sur 4 jours, le mot futur revenant régulièrement dans les titres, la cybersécurité, le e-sports et bien d’autres potentialités.

La diffusion de l’UHD en utilisant les réseaux 5G a été annoncée en Corée et en Chine. En Corée, l’opérateur de télécommunication KT vise la distribution de l’UHD en utilisant son réseau 5G, qui doit être opérationnel depuis avril 2019, après des essais menés en 2018 lors des Jeux Olympiques d’hiver. En Chine des premiers essais de diffusion d’UHD via la 5G ont eu lieu avec China Mobile et Huawei pour la CCTV.

7. La transition vers IP (et le cloud)

On parle ici de la transition vers IP pour tout ce qui concerne la production des programmes, qui est le noyau dur des producteurs de télévision. Le mouvement s’accompagne d’une utilisation croissante du cloud, soit privé, soit public.

La transition vers l’IP a été facilitée par l’adoption des standards SMPTE ST 2110 (Professional Media Over Managed IP Networks) couvrant audio et vidéo (pour être plus précis, les parties 10, 20, 21 et 30 du standard). Les opérateurs majeurs de la télévision ont toujours montré un souci permanent de pouvoir utiliser dans chaque domaine les meilleurs outils (ce qui a d’ailleurs entrainé, selon l’IABM, une hausse des développements effectués en interne). Tout progrès fait vers l’interopérabilité va permettre d’accélérer le mouvement vers l’IP avec la souplesse d’utilisation et les baisses de coût qu’il entraine.

Plusieurs organismes travaillent pour arriver à un système avec des niveaux de standard suffisant pour pouvoir avoir plusieurs fournisseurs. Tout paraît converger vers les standards SMPTE et notamment SMPTE 2110, qui est une suite de nombreux standards concernant l’usage d’IP par les media professionnels.

Dès fin 2017, un certain nombre de spécifications et de produits étaient disponibles. L’adoption complète des standards et l’existence d’une offre en conformité est attendue pour 2020, couvrant notamment la transition vers l’IP. Voir ci-dessous la roadmap du JT-NM (Joint Task Force on Networked Media).

 

Notes

AMWA Advanced Media Workflow Association réunit les fournisseurs et les utilisateurs d’équipements

JT-NM Joint Task Force on Networked Media, est sponsorisé par AMWA, EBU, VSF et SMPTE (Society of Motion Picture and Television Engineers)

 

broken image

La distribution multi-terminaux repose déjà largement sur le protocole IP, avec notamment la transition du multicast aux flux avec débit adaptatif (Adaptive Bit Rate ou ABR). C’est loin d’être le cas pour la production en direct où la progression est continue, mais lente. Selon le dernier sondage de l’IABM, environ 30% des sociétés sont passé de façon significative à l’IP.

Les prévisions sont largement partagées : le basculement vers l’IP en production va se poursuivre, mais lentement. Même si la transition est considérée comme inévitable, elle se heurte à une forte résistance ! Le manque d’interopérabilité et le manque de fiabilité des outils IP sont les deux principales sources annoncées de refus. L’environnement culturel des entreprises joue un rôle, avec la présence de spécialistes maitrisant parfaitement le matériel, et ce qui est ressenti comme un manque d’ingénieurs capables de maitriser de façon identique les architectures IP.

Le passage du hardware dédié aux solutions logicielles, destinées à s’exécuter sur des plates-formes informatiques standard est de plus en plus exigé des clients, et se traduit par une baisse du CAPEX et un report des dépenses vers l’OPEX. La virtualisation des logiciels et le mouvement vers le cloud permettent de réaliser des économies d’échelle importantes, avec le passage au modèle SaaS (Software as a service). Désormais l’utilisation du cloud sous ses différentes formes est un acquis, seul la vitesse de transition étant encore indéterminée. La quasi-totalité des offres logicielles permettaient une mise en œuvre de type cloud.

Une architecture basée sur les micro-services (permettant de modifier ou d’ajouter des fonctionnalités sans passer par une reconstruction complète de l’application), et utilisant le cloud permettent désormais une innovation continue et une adaptation dédiée de chaque service.

Un exemple 21st Century Fox

Depuis 10 ans l’IP est introduit dans la chaîne de production ; pour la production en direct l’utilisation de l’IP a commencé en 2017.

Un plan de travail pour Fox a été défini :

2015-2016 : from hardware based to software based (multiplatform)

2016-2018: full cloud capability

2017-2019: complete migration to cloud & dynamic content assembly

On peut imaginer qu’en 2020 il n’y aura plus d’équipement broadcast, mais seulement un centre de données !

Une telle évolution vise à permettre d’être plus flexible, c’est à dire de réagir face à des circonstances dégradées ou des conditions nouvelles.

Fox a lancé un projet (live virtualized terrarium) afin de se familiariser avec un écosystème de télévision virtualisé et basé sur le logiciel.