Le Français Alain Chesnais est le président d’ACM SIGGRAPH, le plus important groupe de travail de l’ACM (Association for Computing Machinery). Composé de plusieurs milliers de membres, avec des « chapitres » dans la plupart des pays industrialisés, ACM SIGGRAPH se consacre à la promotion et l’avancement de l’imagerie informatique, au sens large (3D, animation, effets spéciaux, jeux…)
ACM SIGGRAPH : http://www.siggraph.org
Chapitre parisien d’ACM SIGGRAPH : http://paris.siggraph.org
La conférence annuelle SIGGRAPH attire 20 000 à 50 000 personnes, sans compter ceux qui en obtiennent les présentations sur DVD ou en ligne. En collaboration avec Eurographics, ACM SIGGRAPH met également gratuitement à la disposition des éducateurs des supports de cours en ligne destinés à l’enseignement de l’infographie (http://cgems.inesc.pt/CallMaterials.htm).
Retranscription de la conférence d’Alain Chesnais à Imagina 2004, à partir des notes de Daniel Kaplan.
« Dans cette conférence, la réflexion sur les tendances dans le domaine de l’entertainment est délibérément abordée sous l’angle de l’infographie (computer graphics) – je sais que cela ne couvre pas tout le sujet, mais c’est le champ que je sais couvrir !
Jeu et cinéma, deux faces complémentaires de l’infographie
Quand on produit de l’infographie pour les jeux, la priorité est de tenir un rythme de 60 images (frames) par seconde, en deçà duquel les mouvements ne paraissent pas naturels. Il faut donc accepter de sacrifier la qualité graphique au bénéfice de la vitesse : c’est le gameplay, pas les images, qui font vendre un jeu. Autre caractéristique du jeu : l’écran est petit, d’autant qu’on le rétrécit souvent pour garantir la vitesse.
A l’inverse, un film typique est projeté à 24 images par seconde ; certains infographistes visent plus, mais les projecteurs ne savent pas toujours le gérer. Mais au cinéma, on sacrifie la vitesse au bénéfice de la qualité : sur un grand écran on voit tout, la qualité doit être parfaite. Du coup, la production finale des images (rendering) est très intensive en traitement informatique : chaque image prend environ 2 heures à traiter informatiquement. Cette durée reste à peu près constante malgré l’accroissement des puissances, ce qui se traduit par l’amélioration de la qualité.
Pendant des années, la force motrice de l’infographie était le cinéma. Compte-tenu des moyens engagés, le nombre d’acteurs était assez bas. Aujourd’hui, ce sont les jeux qui tirent le secteur : comment produire des images animées à 60 images par seconde, sur du matériel bon marché, qui s’affichent sur des PC ordinaires ? Il s’agit d’une transformation profonde de l’industrie.
Du coup, on voit les communautés du cinéma et du jeu se rapprocher et travailler ensemble. On crée les jeux en même temps que les films dans des projets globaux : dans le cas de Matrix et du Seigneur des Anneaux, le jeu a été lancé avant les films, du moins au-delà du premier. Le jeu n’est plus une adjonction au succès d’un film, il fait partie de la stratégie de valorisation d’un concept. On partage donc des actifs (assets) et les exploite sous des « manifestations » particulières, en particulier des films et des jeux.
Une autre tendance : l’internationalisation
ACM SIGGRAPH tente d’inciter plusieurs pays à soutenir leur industrie nationale. Cela produit notamment ses effets dans les pays qui ont une tradition de dessin animé. Plusieurs pays souhaitent devenir des acteurs-clé dans un domaine en croissance : la Chine vient en particulier de financer 200 écoles d’infographie, particulièrement bien équipées en matériels et logiciels avancés, ce qui en fait l’un des leaders potentiels.
Vers le photoréalisme… et son dépassement
Pour beaucoup, le photoréalisme est le Graal de l’infographie. La technique est à peu près disponible, mais dans la pratique, nous n’y sommes pas encore, notamment pour des raisons de coût.
Nous savons reproduire l’illumination globale que produit la lumière du soleil, mais cela reste coûteux.
Nous avons beaucoup progressés dans la modélisation d’être humains réalistes : la texture de la peau, le mouvement, les expressions… Mais le problème est évidemment que nous voyons des humains tous les jours (ce qui n’est pas le cas des dinosaures) et par conséquent, que la moindre imperfection saute aux yeux. Donc le niveau d’effort et d’argent nécessaire à la création d’un humain crédible est très élevé.
Et le plus difficile reste encore de réaliser tout cela à 60 images par seconde.
Je crois cependant qu’il deviendra très vite de plus en plus difficile de faire la distinction, plus vite que nous le croyons (voir par exemple http://www.fakeorfoto.com). C’est une question de temps et d’argent.
Mais le photoréalisme est-il un but en soi ? Et si l’infographie était autre chose : une manière d’exprimer des choses d’une autre manière, plus personnelle ? C’est peut-être là que le potentiel de l’infographie s’avèrera le plus intéressant. Shrek, Nemo ou Les Fables Géométriques sont des exemples d’infographie non-photoréaliste particulièrement réussis.
La loi de Moore et les processeurs graphiques de demain
La loi de Moore, qui prévoit que la puissance (à taille égale) des microprocesseurs double tous les 18 mois, fonctionne depuis bientôt 40 ans, malgré beaucoup de prévisions successives sur son achèvement. Chacune des limites physiques a pour l’instant été contournée.
Dans le domaine des puces de traitement graphique (GPU : Graphics Processing Unit), David Kirk a constaté que la puissance des processeurs double tous les 6 mois. Cette « loi de Kirk » se vérifie depuis la fin des années 1990 et on peut déjà prévoir qu’il en ira de même pendant au moins cinq ans : autrement dit, dans les 5 prochaines années, la puissance des processeurs graphiques sera multipliée par 1 000, alors que celle des processeurs généralistes le sera par 8 !
Pourquoi cette différence ? Les CPU (Central Processing Unit) sont avant tout conçus pour exécuter des tâches séquentielles, alors que – pour simplifier – les processeurs graphiques sont par essence parallèles (on traite ensemble des millions de pixels). En étant massivement parallèles et en évitant beaucoup de communications externes, les processeurs graphiques peuvent traiter un nombre d’opérations beaucoup plus grand.
Ceci conduira notamment les fournisseurs de cartes graphiques à ajouter beaucoup de fonctions, à intégrer au sein des puces le calcul d’effets très complexes ou les fonctions d’antialiasing, à calculer individuellement chaque pixel plutôt que d’extrapoler des différences pour accélérer les calculs, ce qui accroîtra le contrôle du créateur sur ses images animées, etc. On peut imaginer des films entièrement calculés dans les puces, sans traitement préalable.
On peut imaginer d’autres usages d’avenir pour ces processeurs. Les architectures « mono-instruction, plusieurs flux de données » (SIMD : Single instruction, multiplie datastream) sur lesquelles sont construits les processeurs graphiques passent très bien à l’échelle. Les calculs scientifiques distribués par exemple, tireraient très bien parti de ces techniques : dynamique des fluides, transferts de chaleur, champs électromagnétiques… et en plus de résoudre des équations complexes, ces processeurs permettent de représenter graphiquement les solutions !
Les jeux sur les téléphones
Autre bénéfice des progrès des GPU : à puissance constante, on saura en réduire considérablement la taille et donc la consommation électrique, ce qui est évidemment essentiel pour les dispositifs mobiles. Donc on verra rapidement des infographies très avancées sur les téléphones mobiles.
Il ne suffira pas, bien sûr, d’améliorer les puces. Un téléphone doit rester très petit ; la jouabilité et l’interface utilisateur resteront en tout état de cause des défis difficiles à relever.
L’imagerie sur les mobiles et sur le web
L’usage des appareils portables en imagerie tirera également parti de ces puces graphiques. Il est de plus en plus facile d’intégrer un appareil photo à haute définition sur un appareil mobile. Quand il ne s’agit que d’envoyer la photo vers un autre mobile, cela ne sert à rien. Mais si les photos à haute résolution prises par les mobiles sont stockées sur un serveur, elles peuvent être accessibles à partir de beaucoup d’autres dispositifs de visualisation et de traitement.
Le goulot d’étranglement est alors la bande passante, même avec les « hauts débits ». On a besoin d’économiser la bande passante, donc de mettre en place une approche client-serveur qui permet de choisir ce que l’on veut, de naviguer dans une image, d’en accroître et d’en décroître la résolution à la volée.
On sait aujourd’hui réaliser des serveurs qui réalisent ces tâches*, autant pour l’image fixe que pour l’image animée. Cela peut éviter de réaliser plusieurs versions d’une même image, d’un même film pour chaque résolution d’écran. Le serveur stocke les images dans la meilleure résolution possible et les affiche en fonction des écrans, de la bande passante, des préférences de l’utilisateur… Il permet de zoomer, de naviguer dans une image, etc. »
* La démo en ligne de l’Image Server de la société canadienne TrueSpectra donne une idée des possibilités d’une telle technologie : http://www.truespectra.com/product_demo/demo.html