Intelligence artificielle générative

Page d’aide sur l’homonymie

Ne doit pas être confondu avec Intelligence artificielle générale.

Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.
Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.

Cet article n’est pas rédigé dans un style encyclopédique ().

Vous pouvez améliorer sa rédaction !

Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.
Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.

La mise en forme de cet article est à améliorer ().

La mise en forme du texte ne suit pas les recommandations de Wikipédia : il faut le « wikifier ».

L'intelligence artificielle générative ou IA générative (IAg ou GenAI) est un type de système d'intelligence artificielle (IA) capable de générer du texte, des images ou d'autres médias en réponse à des invites (ou prompts en anglais)[1],[2]. Elle est dite multimodale quand elle est construite à partir de plusieurs modèles génératifs, ou d'un modèle entraîné sur plusieurs types de données et qu'elle peut produire plusieurs types de données. Par exemple, la version GPT-4 d'OpenAI accepte les entrées sous forme de texte et/ou d'image[3].

Elle semble avoir des applications possibles dans presque tous les domaines, avec une balance des risques et des opportunités encore discutée : l'IA générative est en effet aussi source d'inquiétudes et de défis éthiques, techniques et socioéconomiques à la hauteur des espoirs qu'elle suscite. Elle peut contribuer à des usages abusifs, accidentels ou détournés (militaires notamment), à une suppression massive d'emploi, à une manipulation de la population via la création de fausses nouvelles, de deepfakes[4] ou de nudges numériques[5]. Elle questionne aussi philosophiquement la nature de la conscience, de la créativité, de la paternité[6], et crée de nouvelles interactions homme-machine. L'IA est encore peu régulée et la difficulté d’évaluer la qualité et la fiabilité des contenus générés ou l’impact sur la créativité et la propriété intellectuelle humaines est croissante. Certains experts craignent que des IA génératives à venir soient capables de manipuler les humains, d'accéder à des systèmes d'armes, d'exploiter des failles de cybersécurité, voire peut-être bientôt d'acquérir une forme de conscience et/ou de devenir incontrôlable au point de menacer l'existence de l'humanité[7]. Un premier sommet mondial en sûreté de l'IA est organisée début novembre 2023 à Londres, où la création d'un équivalent du GIEC pour informer sur les risques liés à l'IA a notamment été discutée[8].

Vocabulaire

La littérature spécialisée anglophone parle aussi d'AIGC (acronyme de “Artificial Intelligence Generated Content”, ou en français “Contenu Généré par Intelligence Artificielle”)[9].

L'IAg (IA générative) est adossés à des « modèles génératifs », qui produisent de multiples sorties (outputs ou résultats, qui vont du texte et de l'image à des agents conversationnels ou à l'impression 3D). Un modèle génératif peut être utilisé comme « fondation » d’autres systèmes[10]. Et plusieurs modèles génératifs peuvent être associés (ex : GPT-2 (Generative Pretrained Transformers) qui génère du texte a été associé à DALL-E pour générer des images à partir d'invites (ou requêtes ou prompts) données en langage naturel dans le cas du ChatBot ChatGPT construit par OpenAI.

La réponse à une invite sera probablement la séquence de mots (ou l'agencement de pixels pur une image) statistiquement la plus probable après le prompt, d'après ce que le système a préalablement appris à partir d'un très grand corpus de données, et après application de divers filtres ou curseurs donnant une plus ou moins grande liberté à l'IA[10].

Le système est unimodal (n'acceptant alors que tu code ou du texte) ou multimodal (acceptant par ex. du texte et de l'image)[10].

Un modèle de fondation (Foundation Model, tel que défini par l’université de Stanford, est un modèle large (de grande taille) fondé sur une architecture de réseau de neurones profond, et entraîné sur une quantité massive de données non annotées (généralement par apprentissage autosupervisé)[10]. Les grands modèles de langue (LLM pour Large Language Model) en font partie (entraînés sur un grand corpus de textes)[10]. Leur pré-entrainement est long et couteux, mais ils peuvent ensuite, moyennant quelques réglage, être adaptés et optimisés pour de nouvelles tâches, sans nécessiter beaucoup de données supplémentaires[10].

Capacités

Selon une analyse d’OpenAI en 2018 : « depuis 2012, la quantité de calcul utilisée dans les plus grands entraînements d’IA a augmenté de manière exponentielle avec un temps de doublement de 3,4 mois (en comparaison, la loi de Moore avait une période de doublement de 2 ans). Depuis 2012, cette métrique[11] a augmenté de plus de 300 000 fois (une période de doublement de 2 ans ne donnerait qu’une augmentation de 7 fois). »[12]. Cette augmentation de la puissance de calcul a facilité l’émergence d’IA génératives pouvant créer des choses originales comme des images, des tableaux, de la musique ou des voix ou du texte ou du code informatique, puis des modèles 3D, de la vidéo.. en s'inspirant de données existantes, sans les copier. Elles ne se contentent pas de classer les données d'entrée qu'on leur a fourni, ni de prédire des données statistiquement probables ; elles génèrent des contenus nouveaux dont les bases ne sont qu'en partie similaire aux bases issues de données d'apprentissage qu'on leur a fourni[13]. Certains modèles d'IA permettent d'ajouter aux invites textuelles des "prompts négatifs" (qui sont des invites expliquant ce qu'on ne veut pas voir dans la réponse attendue de l'IA)

Les versions publiques de grands modèles d'IA générative disponibles en 2022 et 2023 produisent des contenus modulés et filtrés de manière à limiter leurs biais, les contenus trompeurs, dangereux, racistes, biaisés, choquants, haineux, non sollicités, les images pornographiques ou sexuellement explicites[14],[15],[16],[17]. Au début des années 2020, la puissance de calcul de l’IA a doublé tous les six à dix mois, permettant aux modèles d’IA de progresser à un rythme exponentiel.

Les anglophones parlent de « Frontier AI » pour désigner les modèles d'IA aux capacités les plus élevées et générales, et qui pourraient présenter des risques nouveaux[18]. Ce type d'IA s'est faite connaitre du public par ChatGPT (et sa variante Bing Chat), un chatbot (agent conversationnel programmable) conçu par OpenAI à partir de ses grands modèles de langage de fondation GPT-3 et GPT-4[19], ainsi que par Bard, un chatbot de Google basé sur LaMDA. D'autres modèles d'IA générative incluent des systèmes artistiques d'intelligence artificielle tels que Stable Diffusion, Midjourney et DALL-E[20]. Ces IA ont un très large spectre d'applications potentielles dans des domaines créatifs (arts plastiques, cinéma, musique, écriture, design, météo, architecture...), mais aussi dans les secteurs de la santé, de la finance, des jeux vidéo et des simulateurs, dans tous les domaines des sciences et techniques, des sciences sociales, de l'industrie et de la connaissance. Elles ont récemment permis un bond en avant en biologie moléculaire et en compréhension de phénomènes physiques complexes. Elles permettent de synthétiser des visage et des voix humaines réalistes. Elles offrent de nouveaux modes d'exploration d'hypothèses et de scenarios (notamment depuis peu grâce à la production de données synthétiques sophistiquées, issues du domaine de la recherche générative assistée par IA)[réf. nécessaire]...

Principes sous-jacents

Les cadres technologiques et conceptuels les plus importants pour aborder l'IA générative sont en cours d’élaboration depuis un certain temps[6], mais ils n'ont vraiment abouti que dans les années 2020 à plusieurs types de modèles d'IA particulièrement efficaces :

  • les réseaux antagonistes génératifs (GAN), composés de deux parties : un réseau générateur créant de nouveaux échantillons de données, et un réseau discriminateur qui évalue si les échantillons sont réels ou faux. Les deux réseaux sont formés ensemble dans le cadre d'un processus concurrentiel, le réseau générateur essayant continuellement de produire des échantillons de meilleure qualité et plus réalistes, tandis que le réseau discriminateur s'efforce d'identifier avec précision les faux échantillons ;
  • les auto-encodeurs variationnels (VAE) ;
  • les modèles de diffusion (ex. : Dall-e, Stable Diffusion)[21] ;
  • les transformeurs génératifs pré-entraînés (Generative Pretrained Transformers, ou GPT en anglais)[22],[23], qui sont des réseaux de neurones artificiels fondés sur l'architecture du transformeur, pré-entraînés sur de grands ensembles de données de texte non étiqueté, équipés d'un « mécanisme d'attention » et capables de générer un nouveau texte de type humain[24],[25].

L'IA générative est encore loin de répondre « de manière fiable ou digne de confiance, et il reste encore beaucoup de travail à faire pour rendre ces sources fiables et impartiales »[6], mais elle a des applications (actuelles ou potentielles) dans des domaines aussi variés que l’art, l'industrie, le jeu vidéo, la musique, la médecine, le développement logiciel, le marketing, les biotechnologies, la finance, la mode[26],[27]...

Modalités

A detailed oil painting of figures in a futuristic opera scene
Théâtre d'opéra spatial, une image gén érée par Midjourney et ayant remporté un prix en 2022 a suscité bien des débats.

Un système d'IA générative est construit en appliquant un apprentissage automatique non supervisé ou auto-supervisé à un ensemble de données. Les capacités d'un système d'IA générative dépendent de la modalité ou du type d'ensemble de données utilisé.

  • Texte : les systèmes d'IA générative formés sur des mots ou des jetons de mots (tokens) incluent GPT-3, LaMDA, LLaMA, BLOOM, GPT-4 et d'autres. Ils sont capables de traiter du langage naturel, de faire de la traduction automatique et de générer du langage naturel et peuvent être utilisés comme modèles de base pour d'autres tâches. Deux des principaux ensembles de données sont BookCorpus et Wikipédia.
  • Code : Outre les textes en langage naturel, de grands modèles de langage peuvent être entraînés sur du texte en langage de programmation, ce qui leur permet de générer du code source de nouveaux programmes informatiques.
  • Images : Les systèmes d'IA générative formés sur des ensembles d'images avec des légendes textuelles comprennent Imagen, DALL-E, Midjourney, Stable Diffusion et autres. Ils sont couramment utilisés pour la génération de texte en image et le transfert de style neuronal[28]. Les jeux de données sont notamment LAION-5B et d'autres.
  • Molécules : Les systèmes d'IA générative peuvent être entraînés sur des séquences d'acides aminés ou des représentations moléculaires telles que SMILES représentant l'ADN ou les protéines. Ces systèmes, comme AlphaFold, sont utilisés pour la prédiction de la structure des protéines et la découverte de médicaments[29]. Les ensembles de données comprennent divers ensembles de données biologiques.
  • Musique : les systèmes d'IA générative tels que MusicLM peuvent être formés sur les formes d'ondes sonores de la musique enregistrée avec des annotations textuelles afin de générer de nouveaux échantillons musicaux fondés sur des descriptions de texte telles qu'« une mélodie de violon apaisante soutenue par un riff de guitare distordu ».
  • Vidéo : L'IA générative entraînée sur une vidéo annotée peut générer des clips vidéo cohérents dans le temps. Des IA comme Gen1 par RunwayML[30] et Make-A-Video de Meta[31] peuvent générer des vidéos de cette manière.
  • L'IA générative est dite « unimodale » quand elle ne peut accepter et créer qu'un seul type de données (du texte par exemple) ; et « multimodale » quand elle peut traiter ou générer plusieurs types de contenus (par exemple du texte, des images ou du son)[32].

Enjeux éthiques

En France, le Comité national pilote d’éthique du numérique (CNPEN) a été saisi par le ministre délégué chargé de la Transition numérique et des Télécommunication (20 février 2023) à propos des questions d’éthique « liées à la conception, aux usages, aux impacts sur la société des systèmes d’intelligence artificielle générative ainsi que les accompagnements nécessaires à leur mise en œuvre, en considérant prioritairement la génération automatisée de textes ». Dans son avis du 20 JUIN 2023[10] : après avoir fait un rappel des concepts, techniques et vocabulaire des systèmes d’intelligence artificielle générative, le CNPEN a produit une réponse, des préconisations, une analyse des enjeux juridiques en environnementaux ; et des suggestions sur les recherche à conduire dès à présent sur le sujet[33].

Investissements financiers

L'investissement public et privé dans l'IA générative a bondi, à partir du début des années 2020, principalement avec de grandes entreprises telles que Microsoft, Google et Baidu, mais aussi avec de nombreuses petites entreprises développant des modèles d'IA générative[1],[34],[35]. Les grands acteurs du cloud public cherchent aussi à tirer des revenus de l'IA générative, via des acquisitions et des partenariats stratégiques[36].

Selon le PitchBook report (mars 2023) de la plateforme sur le capital-risque PitchBook, le marché de l'IAg (IA générative) devrait atteindre 42,6 milliards de dollars en 2023. Si les chatbots, les assistants virtuels et les voicebots ont capté 57,8 % des investissements en capital-risque dans les interfaces en langage naturel en 2022, les secteurs de la programmation et de la santé devraient aussi générer des revenus importants[37]. Cependant, peu de start-up de l'IA ont éprouvé le besoin d'entrer en bourse en 2023, ce qui a limité les bénéfices à court terme des investisseurs (« baisse de 94 % par rapport à la même période [3 premiers trimestres de l'année] en 2021 »)[38],[39].
Selon un rapport McKinsey & Company (juin 2023)[40], l'IAg est en 2023 déjà utilisée par environ un tiers des organisations interrogées par McKinsey, notamment dans les secteurs de la technologie, des médias et du divertissement, de la santé et des services financiers. Elle a un fort potentiel transformatif de l'économie, en augmentant la productivité, l'innovation, la personnalisation et la qualité des produits et services, en créant de nouveaux produits et services ; l'IAg devrait apporter l'équivalent de 2,6 à 4,4 milliards de dollars par an à l'économie mondiale de 2023 à 2040 (2 à 4 % du PIB mondial), avec des opportunités, mais aussi avec des défis, risques et effets complexes sur le travail, les compétences et la société. Les organisations qui n'investissent pas dans cette technologie risquent de se trouver dépassées.
De son côté J.P. Morgan Private Bank Asia (septembre 2023) confirme des opportunités d'investissement et estime que les secteurs des semi-conducteurs, des cartes graphiques et autres puces de calcul hautement performantes, des fonderies de circuits intégrés, des datacenters, des hyperscalers et des logiciels devraient profiter de l'IA. Cependant, la banque met en garde contre les risques de sécurité, d'éthique, de règlementation et de concurrence, et recommande aux investisseurs une approche prudente et responsable[41],[42].

Transparence du système d'IA ?

En 2023, il est reproché aux systèmes d’IA et notamment d'IA générative de ne pas être transparents, autrement dit d'être des « boites noires » dont même les développeurs de l'IA ne comprennent pas le fonctionnement interne. De grands concepteurs d’IA comme OpenAI[14] et Meta[43] ont commencé à publier des « Fiches Système »[44] (ou « System Cards », inspirées des « Model Cards », une norme largement acceptée pour la documentation des modèles d’IA). Ces fiches contiennent des informations sur l’architecture et le fonctionnement de leurs IA : objectifs, composants, données, performances, impacts potentiels d’un système d’IA et mesures d’atténuation… C’est une première étape vers une documentation des systèmes d’IA, lesquels combinent souvent plusieurs modèles et technologies interagissant pour accomplir des tâches spécifiques.

Une étude récente laisse penser qu'il semble cependant possible de rendre plus transparente cette boite noire, grâce à l’analyse de Fourier appliquée aux réseaux de neurones profonds. En effet, des chercheurs de l’Université Rice, après avoir formé un réseau de neurones profonds à reconnaître les flux complexes d’air ou d’eau et prédire comment ces flux changeraient avec le temps, lui ont ensuite appliqué une analyse de Fourier (sur les équations régissant le réseau de neurones). Cette méthode a révélé ce que le réseau de neurones avait appris, et surtout comment il était parvenu à ces connaissances[45].

Vers une régulation, une réglementation et une gestion des risques

Différents tests comme HELM[46] ou MMLU[47] permettent d'estimer les capacités ou les comportements indésirables (réponses biaisées, fausses, hallucinations, reprise de contenu protégé par le droit d’auteur...) de grands modèles de langage.

L'Union européenne, les États-Unis et la Chine ont commencé à se doter de législations sur le numérique commençant à prendre en compte l'IA, mais qui s'est avérée dépassée par les progrès rapides de l'IA générative.

En 2023, de nombreuses alertes ont été lancées par des pionniers du deep learning (ex. : Geoffrey Hinton, Yoshua Bengio, Sam Altman ou Demis Hassabis). Notamment via une demande de moratoire de 6 mois dans le développement de l’IA (lancé le 28 mars par le Future of Life Institute qui sera signée par plus de 30 000 personnes dont beaucoup de sommités de l’IA telles que le lauréat du prix Turing Yoshua Bengio et Elon Musk). Puis, en mai 2023, une déclaration du Center for AI Safety (« Centre pour la sûreté de l'IA ») affirmant que « l’atténuation du risque d’extinction de l’humanité lié à l’IA devrait être une priorité mondiale au même titre que la prévention des pandémies et des guerres nucléaires » est signée par d'éminents chercheurs ainsi que par les dirigeants de OpenAI, Google DeepMind et Anthropic[48].

Selon Heidy Khlaaf (directrice chargée de l’assurance de l’apprentissage automatique chez Trail of Bits, une société de recherche et de conseil en cybersécurité), les centrales nucléaires ont des milliers de pages de documents pour prouver que le système ne cause de tort à personne, et pour Melissa Heikkilä : « la chose la plus importante que la communauté de l’IA pourrait apprendre du risque nucléaire est l’importance de la traçabilité »[49], deux choses encore peu développées dans le secteur de l'IA. La réglementation de l'IA est parfois comparée à la réglementation du secteur nucléaire[50]. Sam Altman (PDG d’OpenAI) a suggéré la mise en place d'un système de licences, dans lequel l'entraînement de systèmes d'IA ayant des capacités élevées nécessiterait l'octroi d'une licence, et pour ce faire de se conformer à des exigences de sécurité (de même que les opérateurs d’installations nucléaires sont tenus d’être licenciés par un régulateur nucléaire)[50]. Aidan Gomez (cofondateur de Cohere) a jugé cette formule excessive et détournant l'attention de risques - selon lui plus réels - de l'IA mal utilisée dans les médias sociaux et la médecine[51], de même que Yann LeCun (embauché comme scientifique en chef de l’IA chez Meta, le groupe qui détient Facebook et travaille à la création d'un Métavers) et Joelle Pineau (vice-présidente de la recherche en IA chez Meta) qui jugent ces craintes ridicules et déraisonnables, affirmant que les IAs comme ChatGPT ne sont pas encore conscientes et ne peuvent donc pas selon eux manipuler ou détruire l'humanité[52]. Mais en 2023, des chercheurs d’Oxford, de Cambridge, de l’Université de Toronto, de l’Université de Montréal, de Google DeepMind, d’OpenAI, d’Anthropic, de plusieurs organismes de recherche à but non lucratif sur l’IA et Yoshua Bengio (lauréat du prix Turing) suggèrent dans un article[53] que les créateurs des modèles d'IA les plus puissants doivent pouvoir évaluer si leurs IAs ont des capacités pouvant présenter des risques « extrêmes » (planification à long terme, manipulation, auto-prolifération, conscience de la situation, capacités à mener des cyberattaques ou à acquérir des armes notamment biologiques...). Les développeurs doivent également apprendre à mesurer la propension des modèles à appliquer leurs capacités à nuire (ceci peut se faire grâce à des « évaluations d’alignement »). Selon eux, « ces évaluations deviendront cruciales pour informer les décideurs politiques et les autres parties prenantes, et pour prendre des décisions responsables concernant l’entraînement, le déploiement et la sécurité des modèles d'IA »[53],[49].

Aleksander Mądry (professeur d’informatique au Cadence Design Systems du MIT, et directeur du Center for Deployable Machine Learning du MIT) a été audité en mars 2023 par le Sous-comité sur la cybersécurité, les technologies de l’information et l’innovation gouvernementale lors d'une cession intitulée « Progrès de l’IA : sommes-nous prêts pour une révolution technologique ? »[54]. Selon Mądry, « nous sommes à un point d’inflexion en ce qui concerne ce que l’IA du futur apportera(...) le gouvernement devrait plutôt s’interroger sur l’objectif et l’explicabilité des algorithmes utilisés par les entreprises, en tant que précurseur à la réglementation » pour s’assurer que l’IA est cohérente avec les objectifs de la société. Ce serait une erreur selon lui de réglementer l’IA comme si elle était humaine – par exemple en demandant à l’IA d’expliquer son raisonnement et en supposant que les réponses qui en résultent sont fiables.

Concernant le risque de suppression massive d'emplois, dans le TIME, Altman a annoncé qu’OpenAI aborderait en 2024 le sujet de la redistribution des richesses (« OpenAI mène actuellement une étude de cinq ans sur le revenu universel », qui doit se terminer en 2024)[55]. Rishi Sunak (premier ministre britannique) a invité la communauté internationale à Bletchey park en novembre 2023 pour un premier sommet mondial en sûreté de l'IA, abordant notamment les risques existentiels liés à l'IA[56]. Sunak propose que soit créé un groupe d’experts internationaux, sur le modèle du GIEC, qui serait dans un premier temps chargé de publier un état des lieux de l’IA. Le 1er novembre, la Chine, les États-Unis, l’Union européenne et une vingtaine de pays ont signé la déclaration de Bletchley pour un développement « sûr » de l’intelligence artificielle[57]. La veille, trois de ces pays (France, Allemagne et Italie) avaient signé à Rome un accord de coopération sur l'IA « dans le prolongement des efforts globaux déployés en faveur de la transition numérique et écologique »[58].

En février 2024, l'Autorité de la concurrence française s'autosaisit et lance un consultation publique des acteurs de l'AI générative en vue d'émettre un avis[59].

Éléments de prospective

L'IA générative, telle qu'elle se développe à partir de 2022 pourrait évoluer vers les formes suivantes d'IA :

  1. L'IA interactive, déjà en cours de développement, et capable d'interagir avec le monde réel de manière plus complexe, en collaborant avec d'autres logiciels, des machines ou des robots. Pour Mustafa Suleyman (cofondateur de DeepMind et ex- vice-président des produits et des politiques d’IA de Google), interrogé par la MIT Technology Review (septembre 2023) c'est l'étape qui suivra l'IA générative, avec les mêmes risques et atouts mais plus difficile à contrôler en cas d'usage malveillant[60]. Pour Demis Hassabis (autre cofondateur de DeepMind), elle « a le potentiel de transformer de nombreux aspects de nos vies ».
  2. L'IA autonome, à ses débuts avec par exemple le véhicule autonome, permettra à des machines d'accomplir des tâches sans intervention humaine. Elle semble pouvoir notamment concerner les transports, la santé et la sécurité.
  3. L'IA consciente, généralement considérée comme une possibilité encore lointaine, serait capable d'une forme de ressenti des émotions et d'avoir une conscience de soi. C'est une technologie controversée, qui soulève des questions éthiques et philosophiques complexes.

Références

  1. a et b (en) Erin Griffith et Cade Metz, « Anthropic Said to Be Closing In on $300 Million in New A.I. Funding », The New York Times, (consulté le )
  2. (en) Nate Lanxon, Dina Bass et Jackie Davalos, « A Cheat Sheet to AI Buzzwords and Their Meanings », Bloomberg News,‎ (lire en ligne, consulté le )
  3. « Explainer: What is Generative AI, the technology behind OpenAI's ChatGPT? », Reuters,‎ (lire en ligne, consulté le )
  4. Ahona Rudra, « Risques de cybersécurité liés à l'IA générative », sur powerdmarc.com, (consulté le )
  5. (en) Julia Dhar, Allison Bailey, Stéphanie Mingardon et Jennifer Tankersley, « The Persuasive Power of the Digital Nudge », sur BCG Global, (consulté le )
  6. a b et c (en) Rachel Gordon, « MIT CSAIL (Laboratoire d’Informatique et d’Intelligence Artificielle) researchers discuss frontiers of generative AI », sur MIT News, (consulté le )
  7. (en) Will Douglas Heaven, « How existential risk became the biggest meme in AI », MIT Technology Review,‎ (lire en ligne, consulté le )
  8. Alexandre Piquard, « Intelligence artificielle : au sommet de Londres, PDG et dirigeants face au défi de la régulation », Le Monde.fr,‎ (lire en ligne, consulté le )
  9. (en-US) Qianqian Yang, Ngai Cheong, Dejiang Wang et Shi Li, « Visualization for a new era: Impact and application of large language models and AIGC to traditional business models ; Open Journal Systems », {{Article}} : paramètre « périodique » manquant, paramètre « date » manquant (DOI 10.32629/jai.v7i4.1487, lire en ligne, consulté le )
  10. a b c d e f et g Alexei Grinbaum, Raja Chatila, Laurence Devillers, Caroline Martin, Claude Kirchner, et al.. (2023) Avis adopté le 30 juin 2023 par l’assemblée plénière du CNPEN : [file:///C:/Users/flamiot/Downloads/Avis7%20IAgen.pdf Systèmes d’intelligence artificielle générative : enjeux d’éthique. Avis n°7 du CNPEN, daté du 30 juin 2023 Systèmes d’intelligence artificielle générative : enjeux d’éthique]. Comité national pilote d’éthique du numérique, .Avis 7 du CNPEN. ffcea-04153216f
  11. En général, le petaflop/jour est utilisé comme métrique. Un petaflop-jour (pf-jour) consiste à effectuer 10^15 opérations de réseau neuronal par seconde pendant une journée, soit un total d’environ 10^20 opérations. C’est une unité de mesure pratique, similaire au kW/h pour l’énergie. Plutôt que les FLOPS théoriques maximaux du matériel, on cherche à estimer le nombre réel d’opérations faites ; additions et multiplications sont comptées comme des opérations distinctes, et on ignore les modèles d’ensemble. Sur cette période, le temps de doublement pour la ligne de meilleure adéquation est de 3,4 mois.
  12. (en) « AI and compute », sur openai.com, (consulté le )
  13. (en) Adam Pasick, « Artificial Intelligence Glossary: Neural Networks and Other Terms Explained », The New York Times,‎ (lire en ligne, consulté le )
  14. a et b (en) « DALL·E 3 system card », sur openai.com, (consulté le )
  15. (en) Charlotte Bird, Eddie L. Ungless et Atoosa Kasirzadeh, « Typology of Risks of Generative Text-to-Image Models », AAAI/ACM Conference on AI, Ethics, and Society,‎ (arXiv 2307.05543)
  16. (en) Abeba Birhane, Vinay Uday Prabhu et Emmanuel Kahembwe, « Multimodal datasets: misogyny, pornography, and malignant stereotypes », Arxiv,‎ (arXiv 2110.01963)
  17. (en) Jaemin Cho, Abhay Zala et Mohit Bansal, « DALL-Eval: Probing the Reasoning Skills and Social Biases of Text-to-Image Generation Models », ICCV 2023,‎ (arXiv 2202.04053)
  18. (en) « World leaders gather at UK summit aiming to tackle 'frontier AI' risks », sur France 24, (consulté le )
  19. (en) Cade Metz, « OpenAI Plans to Up the Ante in Tech’s A.I. Race », The New York Times,‎ (ISSN 0362-4331, lire en ligne, consulté le )
  20. (en) Roose, « A Coming-Out Party for Generative A.I., Silicon Valley's New Craze », The New York Times, (consulté le )
  21. (en) Prafulla Dhariwal et Alex Nichol, « Diffusion Models Beat GANs on Image Synthesis », NeurIPS,‎ (arXiv 2105.05233)
  22. (en) Luhui Hu, « Generative AI and Future », sur Medium, (consulté le )
  23. (en) « Generative Artificial Intelligence: Trends and Prospects », sur ieeexplore.ieee.org (consulté le )
  24. (en) « Generative AI: a game-changer society needs to be ready for », sur World Economic Forum, (consulté le )
  25. (en) Billy Perrigo, « The A to Z of Artificial Intelligence », Time,‎ (lire en ligne, consulté le ).
  26. (en) « Don't fear an AI-induced jobs apocalypse just yet », The Economist, (consulté le )
  27. (en) Holger Harreis, Theodora Koullias, Roger Roberts et Kimberly Te, « Generative AI: Unlocking the future of fashion »
  28. (en) Aditya Ramesh, Mikhail Pavlov, Gabriel Goh et Scott Gray, « Zero-Shot Text-to-Image Generation », Proceedings of the 38th International Conference on Machine Learning, PMLR,‎ , p. 8821–8831 (arXiv 2102.12092, lire en ligne, consulté le )
  29. (en) Will Douglas Heaven, « AI is dreaming up drugs that no one has ever seen. Now we've got to see if they work », MIT Technology Review, Massachusetts Institute of Technology, (consulté le )
  30. (en) Cade Metz, « Instant Videos Could Represent the Next Leap in A.I. Technology », The New York Times,
  31. (en) Queenie Wong, « Facebook Parent Meta's AI Tool Can Create Artsy Videos From Text », cnet.com, (consulté le )
  32. (en) Arham Islam, « A History of Generative AI: From GAN to GPT-4 », sur MarkTechPost, (consulté le )
  33. Alexei Grinbaum, Raja Chatila, Laurence Devillers et Caroline Martin, « Systèmes d'intelligence artificielle générative : enjeux d'éthique », {{Article}} : paramètre « périodique » manquant, Comité national pilote d'éthique du numérique,‎ (lire en ligne, consulté le )
  34. (en) « The race of the AI labs heats up », The Economist, (consulté le ).
  35. (en) June Yang et Burak Gokturk, « Google Cloud brings generative AI to developers, businesses, and governments », .
  36. (en-US) Kyle Wiggers, « VCs continue to pour dollars into generative AI », sur TechCrunch, (consulté le ).
  37. PitchBook (2023), Rapport sur l'intelligence artificielle et l'apprentissage automatique ; 29 mars 2023 |url= https://pitchbook.com/news/reports/q4-2022-artificial-intelligence-machine-learning-report.
  38. PitchBook (2024) Rapport : Note d'analyste de PitchBook : Opportunités verticales dans une fenêtre d'introduction en bourse rouverte ; 1er trimestre 2024 ; publié le 4 janvier 2024 | url= https://pitchbook.com/news/reports/q1-2024-pitchbook-analyst-note-vertical-opportunities-in-a-reopened-ipo-window.
  39. PitchBook (2024), Rapport sur l'intelligence artificielle et l'apprentissage automatique ; 5 décembre 2023 url= https://pitchbook.com/news/reports/q3-2023-artificial-intelligence-machine-learning-report.
  40. The State of AI in 2023: Generative AI's Breakout Year a été publié le 14 juin 2023.
  41. (en) « Artificial intelligence », sur privatebank.jpmorgan.com (consulté le ).
  42. (en) « Where are the investment opportunities in AI? », sur privatebank.jpmorgan.com (consulté le ).
  43. ex. : (en) « System Cards, a new resource for understanding how AI systems work », sur ai.meta.com (consulté le )
  44. (en) Margaret Mitchell, Simone Wu, Andrew Zaldivar et Parker Barnes, « Model Cards for Model Reporting », ACM Conference on Fairness, Accountability, and Transparency, ACM,‎ , p. 220–229 (ISBN 978-1-4503-6125-5, DOI 10.1145/3287560.3287596, arXiv 1810.03993, lire en ligne, consulté le )
  45. (en) Charles Q. Choi, « 200-Year-Old Math Opens Up AI’s Mysterious Black Box - IEEE Spectrum », sur spectrum.ieee.org, (consulté le )
  46. (en) Sharon Goldman, « Stanford debuts first AI benchmark to help understand LLMs », sur VentureBeat, (consulté le )
  47. (en) Matthew Sparkes, « Google says its Gemini AI outperforms both GPT-4 and expert humans », sur New Scientist, (consulté le )
  48. « L'IA pourrait poser un « risque d'extinction » pour l'humanité, affirment 350 experts », sur Les Echos, (consulté le )
  49. a et b (en) Melissa Heikkilä, « To avoid AI doom, learn from nuclear safety », MIT Technology Review,‎ (lire en ligne, consulté le )
  50. a et b (en) Heidy Khlaaf, « How AI Can Be Regulated Like Nuclear Energy », sur TIME, (consulté le )
  51. (en) George Hammond, « Aidan Gomez: AI threat to human existence is ‘absurd’ distraction from real risks », sur Financial Times, (consulté le )
  52. (en) Melissa Heikkilä, « Meta’s AI leaders want you to know fears over AI existential risk are “ridiculous” », sur MIT Technology Review, (consulté le )
  53. a et b (en) Toby Shevlane, Sebastian Farquhar, Ben Garfinkel et Mary Phuong, « Model evaluation for extreme risks », Arxiv,‎ (DOI 10.48550/ARXIV.2305.15324, arXiv 2305.15324)
  54. (en) « Advances in AI: Are We Ready For a Tech Revolution? », sur United States House Committee on Oversight and Accountability, (consulté le )
  55. (en) Billy Perrigo, « OpenAI Could Quit Europe Over New AI Rules, CEO Warns », sur Time, (consulté le )
  56. « Intelligence artificielle : « Des millions de personnes vont bientôt perdre leur travail » », sur Le Point, (consulté le )
  57. « Les Etats-Unis, la Chine et l'UE signent une première déclaration mondiale sur les risques de l'IA », sur BFMTV (consulté le )
  58. Olivier Tosseri, « L'Italie, l'Allemagne et la France renforcent leur coopération dans l'IA », sur Les Echos, (consulté le )
  59. La Rédaction, « Intelligence artificielle (IA) générative : l'Autorité de la concurrence s'est autosaisie sur ce sujet majeur et lance une consultation publique », sur Science infuse site d'actualités, (consulté le )
  60. (en) Will Douglas Heaven, « DeepMind’s cofounder: Generative AI is just a phase. What’s next is interactive AI », MIT Technology Review,‎ (ISSN 1099-274X, lire en ligne, consulté le ).

Articles connexes

Bibliographie

  • (en) Yanxia Li, « Intelligent Environmental Art Design Combining Big Data and Artificial Intelligence », Complexity, vol. 2021,‎ , p. 1–11 (ISSN 1099-0526 et 1076-2787, DOI 10.1155/2021/1606262, lire en ligne, consulté le )
v · m
Concepts
Techniques
Applications
Enjeux et philosophie
Histoire et événements
Science-fiction
Règlementation
Organisations
Ouvrages
  • icône décorative Portail de l’informatique
  • icône décorative Portail de l’écriture
  • icône décorative Portail des années 2020
  • icône décorative Portail de l’imagerie numérique