Voici comment


Chaque créateur sur terre ressent désormais la main directrice de l’IA. Sur les réseaux sociaux, les TikTokers sont récompensés par des vues massives pour avoir adapté le contenu à un algorithme méticuleusement conçu pour déclencher la libération de dopamine. À Hollywood, les producteurs sont récompensés par des contrats de films lucratifs pour le développement de projets qui alimentent l’IA de la boîte noire dans les studios et les plateformes de streaming, qui gardent pour eux de précieuses informations sur les données d’audience.

Ces données d’audience sont construites via des boucles de rétroaction créées par des moteurs de recommandation renforcés par les comportements mêmes des spectateurs qu’ils façonnent en premier lieu. C’est une création de valeur de plus en plus usurpée par les machines, et entre TikTok et les plateformes de streaming, le précieux espace qui permet l’innovation humaine d’abord se referme. TikTokification métastase.

Voici comment

La Writers Guild a raison de faire pression pour des protections contre l’IA, mais nulle part ces protections ne sont plus urgentes que dans l’espace documentaire et non romanesque, où j’ai travaillé à la fois en tant que producteur et écrivain. Les enjeux sont élevés et les carrières créatives sont en jeu. Mais la plus grande menace pour une culture plus large posée par les machines ambiantes n’est pas l’art ascendant généré par l’IA qui peuple les médias sociaux (pensez : Wes Anderson dirige Star Wars).

C’est la plate-forme d’art descendante alimentée par l’IA, que nous voyons déjà dans le paysage médiatique – des algorithmes décidant, à l’échelle mondiale, quelles histoires raconter et comment – et c’est particulièrement insidieux dans le domaine du non- fiction. « Le danger concerne moins l’IA dans la création de documentaires, la production proprement dite, et plus dans la conservation de celui-ci », déclare Amit Dey, vice-président exécutif de la non-fiction au MRC, qui a des documentaires sans titre de Sly Stone et Rudy Giuliani en préparation. .

« C’est une chose si des films faits par des humains sont en concurrence sur le marché avec des films faits par des robots. C’est tout autre chose lorsque des données sous forme d’intelligence artificielle ou d’algorithmes propriétaires façonnent les décisions concernant ce à quoi le public humain est exposé. En d’autres termes, ce qui est acheté et quand.

Qu’est-ce qui devient plateforme et où. Quelles histoires sont racontées. Le vétéran des médias et producteur Evan Shapiro, qui vient de faire la une du MIPTV, affirme que l’externalisation de la responsabilité est une tradition séculaire à Hollywood.

« Des tests de numérotation au groupe de discussion en passant par » mes enfants n’aimaient pas ça « , une certaine espèce de dirigeants de télévision a depuis longtemps cédé ses décisions de feu vert à une gamme de filets de sécurité tiers qui les empêchent de faire les choix eux-mêmes », Shapiro dit. « Ces appareils permettent aux cadres de s’attribuer le mérite lorsque les émissions fonctionnent, et de se renvoyer facilement la balle lorsqu’ils ne le font pas… L’IA est tout simplement la dernière mode d’excuse. » Et pourtant, l’IA travaille déjà dur à tous les niveaux du cinéma.

Chez XTR, qui a soutenu Magic Johnson doc They Call Me Magic pour Apple TV +, le PDG Bryn Mooser a construit un algorithme propriétaire nommé « Rachel » pour aider à guider son processus de développement. Il l’appelle une « machine zeitgeist » qui parcourt les médias sociaux pour voir ce qui est tendance, puis concentre son développement autour de ces signaux. « J’ai eu beaucoup de merde à ce sujet », dit Mooser.

« Puis ChatGPT est arrivé et le monde a changé du jour au lendemain. Nous l’avons toujours considéré comme un outil et comme un outil, il est incroyablement utile. Quelles conversations sont à la mode.

De quoi les gens parlent. Nous l’avons construit pour pouvoir superposer cela avec des données historiques dans le domaine du documentaire. Ce qui fonctionne, ce qui ne fonctionne pas.

Son application en tant qu’outil pour améliorer ce que les cinéastes peuvent faire est incroyablement puissante et importante. Et mon espoir serait qu’il soit adopté. Il est également vrai que les cadres humains prennent toujours les décisions finales sur ces plates-formes, mais avec la richesse et la puissance croissantes des informations sur les données générées par l’IA – des informations sur les données dont il a été prouvé qu’elles stimulent l’engagement des téléspectateurs, pour le meilleur ou pour le pire – la volonté de l’exécutif mourir sur la colline de sa propre opinion (humaine) s’estompe.

Pourquoi prendre des risques sur des concepts plus novateurs alors que, par exemple, le véritable genre de crime est une usine à succès infaillible, selon les données ? C’est la nature humaine, surtout dans ce marché du travail, pour un cadre de se couvrir. Je ne blâme pas un seul d’entre eux. Mais dans la culture CYA endémique d’Hollywood, désormais alimentée par l’IA, les cadres peuvent se dissimuler.

Sans intervention exécutive intelligente (humaine), défiant nos instincts les plus bas en tant que téléspectateurs pour exploiter sans relâche les vidéos de chiots, l’engagement des téléspectateurs sur la majorité de ces plateformes est-il encore si important ? Pour TikTok, peut-être. D’un point de vue esthétique plus sophistiqué, la course incontrôlée pour maximiser l’engagement des téléspectateurs est une course vers le bas. Pire, du point de vue de l’éthique journalistique, dans le domaine de la non-fiction, c’est une course à l’ignorance et à l’illusion.

En 2021, le cinéaste Morgan Neville a utilisé l’IA pour recréer la voix d’Anthony Bourdain dans le doc Roadrunner et le mouvement a reçu un contrecoup. Pour sa part, Morgan n’a tiré que de vraies citations d’interviews imprimées réelles de Bourdain et a utilisé la technologie deepfake « pour les rendre vivants ». Et l’année dernière, les docuseries Netflix The Andy Warhol Diaries ont pataugé sur un terrain similaire en recréant la voix de Warhol à raconter.

Ce type de controverse semble beaucoup moins incendiaire en 2023 lorsque la technologie de l’IA a progressé pour faire en sorte que l’audio, la vidéo ou les photos entièrement fausses ressemblent à la vraie vie. Il y a beaucoup à dire sur les objectifs mouvants de l’éthique dans le métier du documentaire ces jours-ci – avec ou sans l’utilisation de l’IA comme outil de réalisation de films. La force la plus sinistre en jeu, cependant, et celle qui est à l’origine de ce que l’on pourrait considérer comme des violations éthiques généralisées, est la cession potentielle de la curation humaine aux algorithmes et l’exploitation des données pour décider quels projets acheter et même comment les façonner sur un acte par – base d’acte.

Oui, il y avait des groupes de discussion et des tests de numérotation dans le passé. Oui, il y avait des données Nielsen. Mais les processus derrière les informations étaient transparents.

Il y avait une responsabilité humaine. Alors que l’industrie cède davantage de ces décisions à l’IA boîte noire, la technologie cesse d’être un outil pour rationaliser le développement et maximiser les profits – elle devient le décideur lui-même. Et je ne pense pas qu’on ait besoin d’un épisode de Black Mirror pour esquisser l’horreur de ce scénario, surtout en documentaire.

La narration non romanesque est ce qui façonne notre compréhension du monde réel. Pour cette raison, la préservation du documentaire organisé par l’homme est plus urgente que les autres genres. Hollywood a toujours tenté d’équilibrer commercialisme et expression artistique, ce qui lui a permis historiquement de forger sa propre marque d’art pour les masses.

Mais aujourd’hui plus que jamais dans l’histoire, le rapport du monde à la réalité est en jeu. Le fléau de la désinformation sévit déjà sur les réseaux sociaux et les algorithmes de curation sont largement à blâmer. Afin de remplir son obligation de vérité, en outre, la non-fiction nécessite la confiance de son public – une confiance ancrée dans la transparence et l’intégrité – et elle s’appuie exclusivement sur un contrôle humain de bout en bout pour la construire.

Pour utiliser la technologie Deep Fake à titre d’exemple, si le spectateur ne peut pas faire confiance à la véracité des images qu’il voit ou de l’audio qu’il entend, le film perd son pouvoir. Contrairement au film narratif ou à la télévision, si le public ne peut pas faire confiance à l’intégrité d’un documentaire en tant qu’œuvre de non-fiction, il s’effondre. « Joe Hunting.

Les frères Ross. Jessica Beshir. Ce sont des cinéastes qui apportent des changements avec leur talent artistique », ajoute Mooser.

« Il faudra beaucoup de temps avant que l’IA puisse rivaliser. » En ce qui concerne la responsabilité, la même chose peut être dite pour le niveau administratif de la non-fiction, le rôle éditorial habité par l’exécutif du film (et de plus en plus façonné par les informations générées par l’IA). Avec un humain à la barre, le public peut remettre en question les motivations d’un studio ou d’une plateforme pour donner le feu vert à un film – qu’il soit commercial, politique ou les deux – mais le public ne peut pas remettre en question les motivations d’un algorithme montrant quelque chose à un public parce qu’il estime que contenu « populaire ».

Pour Josh Braun, co-président du géant du documentaire Submarine, il y a une soif profonde d’enfreindre les règles qui nous définit en tant qu’humains et cela s’exprime dans un désir éternel de fraîcheur et de nouveauté. « C’est le sauveur du scénario de cauchemar potentiel. Peu importe comment vous le tranchez, les gens ont des réactions viscérales aux choses.

Cela repoussera les documents les plus intéressants vers les sociétés de distribution. Les Néons. Les A24.

Les Magnolia. Les IFC. Ce sont les endroits où nous voyons des offres », déclare Braun.

Et le marché indépendant pourrait être le rempart. « Les titres les plus ésotériques que les gens voudront seront ce qui rajeunira le marché théâtral », ajoute Braun. « Vous n’obtiendrez pas le même niveau de choix sur les plates-formes basées sur des algorithmes.

 » Alors que l’industrie intègre l’IA dans tous les aspects de l’entreprise, la technologie doit rester un outil, et non un substitut au jugement et à la responsabilité humains. C’est ce que la Writers Guild fait pression en ce moment dans son affrontement avec les producteurs et les studios. Et la protection de l’intégrité de la narration non romanesque est primordiale, car c’est l’un des rares domaines restants où la vérité et la confiance dans une compréhension partagée du monde sont sacro-saintes.

En fin de compte, tout ce qui est fait sous l’influence de l’IA doit être fait avec une solide boussole morale, guidée par les principes d’honnêteté, de transparence et de respect de la dignité des personnes impliquées dans les histoires racontées. Mais peut-être est-il déjà trop tard.