fil-educavox-color1

En 2019, Google rendait public AlphaStar, une IA capable de battre les meilleurs humains à Starcraft 2. À quoi ressembleront les jeux-vidéo quand ils seront peuplés d’IAs, rivaux combattants ou agents conversationnels sophistiqués ? Quels enjeux éthiques et philosophiques soulève cette transformation ? Giada Pistilli et Maxime Lidolff avec une animation de Nicolas Gastineau nous invite à découvrir les réflexions qui animent ce secteur lors des Rencontres Michel Serres.

1 Capture décran 2023 11 20 172805

Maxime Lidolff est game designer et narrative designer, il imagine et conçoit des univers vidéoludiques. Après avoir travaillé pendant 3 ans chez Ubisoft, il a fondé son propre studio, Pocket Story, dans lequel il réalise, grâce aux outils vidéoludiques, des romans interactifs qui engagent le lecteur-joueur dans une narration dont il est le héros.

Giada pistilli est chercheuse en philosophie, spécialisé dans l’éthique appliquée à l’intelligence artificielle conversationnelle. Ses recherches portent principalement sur les cadres éthiques comparatifs, la théorie des valeurs et l’éthique appliquées à l’apprentissage automatique (traitement du langage naturel et modèles de grands langage). Actuellement éthiciste principal chez Hugging Face, qui fait des recherches philosophiques et interdisciplinaires sur l’éthique de l’IA

Qu’est-ce qui change aujourd’hui dans le jeu vidéo avec l’IA ?

Les scripts des jeux vidéo sont écrits et ne laissent rien au hasard, même si le joueur trouve dans le scénario des choix d’objets ou d’actions. Avec l’IA générative ou créative, cela devient plus compliqué ! Aller vers l’inattendu c’est encore prématuré. C’est trop imprévisible !

Cette imprévisibilité du côté des joueurs pose des questions :

Jusqu’où peut-on générer ses propres scripts ? La base des données est difficile à explorer (trop importante) et contient des scénarios sensibles, biaisés, racistes…Et cela a donc des conséquences sur les jeux et personnages qui se construisent.

Il y a des failles sémantiques à trouver des entités qui pourraient générer des conversations avec des éléments contestés. Il s’agit donc de baliser pour rester dans l’histoire du jeu et que les personnages « ne cassent pas le 4ème mur » (Le concept de quatrième mur tire son origine du théâtre, et désigne la frontière imaginaire entre la scène et le public. Cette frontière est franchie dès qu'un acteur sort du cadre de la représentation. Les jeux vidéo peuvent briser le quatrième mur. Les exemples les plus courants sont les dialogues expliquant les fonctionnalités du jeu ainsi que les apparitions des développeurs par exemple…)

Si le Chat GPT intervient dans le jeu sous forme de dialogues, si rien n’est écrit, les PNJ* réagissent librement et peuvent conduire à des dérives, sortir de l’univers ludique. C’est un travail monumental de baliser pour ne pas sortir du cadre !

(*PNJ- Un personnage non-joueur ou personnage non jouable - désigne tout personnage d'un jeu qui n'est pas contrôlé par un joueur.) Dans le domaine des jeux vidéo il s'agit généralement d'un personnage contrôlé par le programme avec un comportement algorithmique, prédéterminé ou réactif.)

Quels sont les potentialités ? Les univers des jeux peuvent-ils être plus immersifs ? Plus réactifs ?

Dans un premier temps on peut utiliser des outils d’aide à la production. Dans le cadre de la recherche artistique, c’est plus simple que le design crée par l’humain.

Peut-on améliorer la qualité ? Il s’agit en tout cas d’accélérateur par exemple, créer des voix artificielles, on peut tester différentes voix synthétiques.

Peut-on créer des mondes infinis ? Augmenter le potentiel d’histoires dans un monde généré ouvert et inépuisable ?

Une application existe aujourd’hui qui permet au joueur de créer son histoire, le jeu s’adapte et c’est infini, en temps réel.

Plusieurs points sont abordés :

Quelle confiance à accorder aux systèmes ?

Jusqu’où va la liberté ? La prédiction sur les conduites des joueurs ?

Si l’IA est une porte ouverte à des modèles avec contenus toxiques ou sans aucun sens : sortie immédiate du scénario ! Il s’agit d’éviter les risques de manipulations, les incitations au suicide après discussion avec un chat bot.

Un personnage de jeu qui a presqu’une forme humaine peut engendrer de l’anthropomorphisme, le joueur peut oublier l’artificiel, suivre les indications du Chat bot d’où le degré de confiance et les limites.

Comment anticiper les réactions des joueurs ? La promesse d’immersion doit faire garder à l’esprit que les joueurs ne doivent pas perdre pied.

On peut mettre à disposition des outils ludiques pour que chaque joueur ait une expérience unique.

L’IA peut créer des outils à l’infini.

Dans le jeu SIMS on peut créer sa propre maison, ses expériences quotidiennes, créer son « rêve américain ». Ces jeux là mettent à disposition des outils générés au préalable par des développeurs. Ces outils restent le choix des développeurs, ils restent donc limités en représentations. Imaginer l’IA en interface où les joueurs entreraient des informations écrites qui modéliseraient des images plus personnalisées ? On en est encore loin et c’est encore difficile !

Si les processus créatifs passent par open IA tout peut passer par une seule source donc donner quelque chose de « plat ». De plus, du langage qui génère images et vidéos utilise des modèles sans consentement. Si les auteurs initiaux de ces images ne donnent pas ensuite leur consentement, si celles-ci doivent être retirées forcément à postériori de leur traitement, les développeurs risquent de devoir défaire ce qu’ils ont produit…Ceci a aussi un coût !

Et comment rémunérer les artistes ? Les développeurs doivent pouvoir créer, les artistes doivent pouvoir être rémunérés…Les modèles sont imprévisibles. Si les images sont générées sans conception d’artiste, comme dans le cinéma, des emplois sont menacés…

Avec l'IA de Chat GPT, on peut créer des PNJS ultra-réalistes, discuter avec les personnages d’un jeu…Est-ce que les joueurs veulent cela des jeux à expériences narratives ou préférer jouer, déjouer des obstacles…. L’imprévisibilité peut détourner le jeu.

L’IA peut générer des environnements alternatifs, laisser une plus grande part de liberté aux joueurs et rester dans un cadre donné, entrainés par des développeurs pour rester dans une cohérence …

Cette technologie en est encore à ses débuts et de nombreuses questions sont posées dont des questions éthiques. Des recherches et développements sont nécessaires pour savoir si le chat GPT-4 a le potentiel de révolutionner ce secteur.  Les développeurs sont donc vigilants et l'utilisation de ces modèles de l’IA incitent et contraignent à anticiper.

Dernière modification le lundi, 20 novembre 2023
Laurissergues Michelle

Présidente et fondatrice de l’An@é, co-fondatrice d'Educavox et responsable éditoriale.