L’IA générative et la transition sociétale

Écouter cet article en podcast

Intégrer les usages de l’IA générative dans le cadre des aspects sociétaux de la Transition Écologique et Sociétale (TES) implique de penser l’IA non seulement comme un outil technologique, mais comme un enjeu profondément humain, éthique et social.


1. Pourquoi l’IA générative est concernée par les aspects sociétaux de la TES

L’intelligence artificielle générative transforme nos sociétés à une vitesse vertigineuse. Mais cette révolution technologique sera-t-elle au service de l’humain et de la planète, ou creusera-t-elle les inégalités existantes ? Face à ce défi civilisationnel, la norme ISO 26000 sur la responsabilité sociétale des organisations offre un cadre précieux pour orienter nos actions.

1.1. L’IA est une technologie de rupture qui bouleverse nos fondamentaux

L’IA générative ne se contente pas d’automatiser des tâches : elle transforme en profondeur nos pratiques éducatives, professionnelles, sociales et culturelles. Cela pose des questions d’inclusion, de justice, d’éthique, d’accès équitable.

Prenons l’exemple d’un étudiant qui utilise ChatGPT pour rédiger son mémoire. Au-delà de la question du plagiat, se pose celle de son rapport à l’apprentissage, de sa capacité à développer une pensée critique autonome, de son appropriation des savoirs. Dans les entreprises, lorsque des équipes de création remplacent progressivement leurs graphistes par des IA génératives d’images, c’est toute une filière professionnelle qui vacille.

Cette rupture soulève des questions fondamentales d’inclusion, de justice, d’éthique et d’accès équitable. Elle s’inscrit pleinement dans le principe de gouvernance de l’organisation (ISO 26000 – Article 6.2)  qui invite chaque structure à intégrer la responsabilité sociétale dans ses processus décisionnels et à dialoguer avec ses parties prenantes.

1.2. Elle modifie nos manières de penser, de créer et de communiquer

L’IA générative affecte nos compétences cognitives, notre autonomie intellectuelle, notre créativité.

Imaginez un médecin généraliste qui délègue entièrement son diagnostic préliminaire à une IA. Que devient son expertise clinique ? Sa capacité d’observation ? Son intuition médicale forgée par des années d’expérience ?

Dans les écoles, certains enseignants observent déjà une érosion des capacités rédactionnelles et argumentatives chez leurs élèves qui recourent systématiquement aux IA pour structurer leur pensée.

Cette transformation cognitive touche au développement du capital humain et à l’épanouissement des personnes, principes centraux de la responsabilité sociétale.

1.3. Elle peut renforcer ou réduire les inégalités selon nos choix

Selon qu’on y a accès ou non, qu’on sache s’en servir ou pas, ou qu’elle reproduise des biais :

La fracture numérique : Dans une association d’insertion professionnelle en milieu rural, seuls 40% des bénéficiaires ont accès à un ordinateur récent et à une connexion internet suffisante pour utiliser les IA génératives. Les autres sont exclus de facto d’un outil qui pourrait pourtant les aider à rédiger leur CV, simuler des entretiens d’embauche ou traduire des documents.

La fracture cognitive : Savoir utiliser ChatGPT ne s’improvise pas. Il faut maîtriser l’art du prompt, comprendre les limites de l’outil, identifier les biais et hallucinations. Une étude récente montre que les cadres supérieurs obtiennent des résultats 60% plus pertinents que les employés peu qualifiés avec la même IA, simplement parce qu’ils savent mieux formuler leurs demandes.

La fracture éthique : Certains utilisent l’IA pour automatiser la création de fake news, de deepfakes politiques ou de contenus discriminatoires, tandis que d’autres l’emploient pour des projets solidaires, éducatifs ou culturels. Sans cadre éthique partagé, l’outil amplifie les intentions de chacun.

Ces inégalités résonnent directement avec les relations et conditions de travail, ainsi qu’avec les droits de l’homme. La norme nous rappelle que chaque organisation doit contribuer à l’égalité des chances et lutter contre les discriminations.

1.4. Elle est conçue à partir de nos données, de nos cultures, de nos biais

Les IA génératives sont entraînées sur des milliards de textes, d’images et de vidéos produits par l’humanité. Mais cette humanité est-elle équitablement représentée ? Cela soulève des questions sociétales profondes : représentativité, biais, discriminations, transparence, respect des cultures, droits humains…

Un test révélateur : demandez à une IA de générer l’image d’un « PDG ». Dans 85% des cas, elle produira l’image d’un homme blanc quadragénaire en costume. Demandez-lui de représenter une « aide-soignante », et vous obtiendrez majoritairement une femme racisée.

Ces biais ne sont pas anodins. Quand une IA de recrutement, entraînée sur dix ans d’embauches passées, rejette systématiquement les CV féminins pour des postes techniques parce que l’entreprise avait historiquement recruté des hommes, elle cristallise et automatise la discrimination. C’est exactement ce qui s’est produit chez Amazon en 2018, conduisant à l’abandon du projet.

La loyauté des pratiques et le principe de transparence (ISO 26000 – Article 4.2) nous invitent à auditer ces systèmes, à exiger de la traçabilité sur les données d’entraînement, et à impliquer la société civile dans la conception des IA.


2. Comment intégrer les usages de l’IA générative dans les aspects sociétaux de la TES

2.1. Développer l’inclusion numérique et cognitive

Objectif : permettre à toutes et tous de comprendre et d’utiliser l’IA générative

La norme ISO 26000 insiste sur le droit à l’éducation, à la participation à la vie culturelle et à l’accès à l’information. Appliqué à l’IA, cela signifie :

  • Lutter contre les fractures numériques et cognitives en proposant des formations adaptées aux différents publics
  • Intégrer l’IA générative dans les programmes d’inclusion numérique
  • Adapter les interfaces à des publics variés (personnes âgées, handicap, FLE…)
  • Créer des ressources accessibles et open source pour former aux usages

🔧 Exemples : Une mairie de quartier populaire peut par exemple lancer des ateliers « IA pour tous » où des retraités apprennent à utiliser ChatGPT pour écrire des lettres administratives. Des jeunes décrocheurs découvrent comment l’IA peut les aider dans leur recherche d’emploi. Une université crée des ateliers IA pour les étudiants en situation de handicap, avec des interfaces vocales, pictogrammes, lecture simplifiée.

2.2. Encourager un usage éthique, critique et responsable

Objectif : développer la capacité à penser les enjeux sociaux, humains et déontologiques de l’IA

Le principe de gouvernance de l’ISO 26000 (Article 6.2) implique que les organisations intègrent la responsabilité sociétale dans leurs processus décisionnels. Pour l’IA, cela passe par :

  • Former les citoyens à identifier les biais, hallucinations, manipulations
  • Promouvoir des usages transparents et traçables (ex. : mention “texte généré par IA”)
  • Initier des ateliers de pensée critique et d’éthique de l’IA
  • Inciter à des démarches de co-construction des règles d’usage (charte IA et guides d’usage)

🔧 Exemples : Une université met en place une charte d’usage éthique de l’IA. Une agence de communication organise un hackathon éthique.

2.3. Réduire les inégalités et favoriser la justice sociale

Objectif : s’assurer que l’IA ne creuse pas les inégalités sociales

L’ISO 26000 place les droits humains au cœur de la responsabilité sociétale et insiste sur la protection des groupes vulnérables . Appliqué aux IA :

  • Réfléchir à la gouvernance des IA utilisées dans les services publics (allocations, orientation, justice…)
  • S’assurer que les systèmes d’IA ne discriminent pas certains groupes (genre, origine, handicap…)
  • Donner aux populations marginalisées les moyens de reprendre le pouvoir sur les algorithmes

🔧 Exemples : Une collectivité locale utilise l’IA pour faciliter l’accès aux droits sociaux, mais s’assure qu’elle soit co-développée avec des associations d’usagers et auditable. Aux Pays-Bas, le scandale des allocations familiales (2013-2020) a révélé qu’un algorithme avait injustement accusé des milliers de familles, souvent issues de l’immigration, de fraude sociale. Certaines ont dû rembourser des dizaines de milliers d’euros, conduisant à des faillites, séparations et drames. Ce cas illustre l’urgence d’audits indépendants, de transparence algorithmique et de possibilité de recours humain.

2.4. Favoriser la participation citoyenne dans la conception et la régulation

Objectif : démocratiser la manière dont l’IA est pensée et utilisée

La norme ISO 26000 insiste sur le dialogue avec les parties prenantes et la reconnaissance de leurs intérêts. Pour l’IA, cela implique :

  • Ouvrir des ateliers citoyens sur l’IA (futurs souhaitables, limites, usages)
  • Soutenir des projets de design participatif de l’IA (co-conception avec les usagers)
  • Valoriser les initiatives de recherche-action, où les citoyens testent et évaluent l’IA
  • Organiser des fab-labs ou hackathons responsables pour créer des IA éthiques, utiles et inclusives

🔧 Exemples : Une région organise un atelier de prospective citoyenne sur les usages de l’IA générative dans les services publics locaux. Une IA touristique multilingue intégrant savoirs locaux et histoires transmises par les anciens voit le jour dans un village.

2.5. Relier IA et transitions humaines (santé, éducation, emploi, culture)

Objectif : faire de l’IA un levier de transformation au service du bien commun

La norme ISO 26000 appelle à contribuer au développement durable et au bien-être des communautés. L’IA générative peut y participer si elle est orientée vers l’intérêt général :

  • Former les professionnels de santé, d’éducation, d’insertion à l’usage de l’IA
  • Intégrer l’IA dans des dispositifs d’aide à la remédiation, à l’apprentissage, à la création culturelle
  • Expérimenter des projets sociaux augmentés par l’IA (tutorat, médiation, traduction automatique)

🔧 Exemples : Une bibliothèque de quartier propose un chatbot IA multilingue pour aider les publics non francophones à comprendre les démarches administratives. Le dispositif « Tutorat IA » déployé dans un collège propose un accompagnement personnalisé en mathématiques. Une coopérative agricole utilise l’IA pour optimiser l’irrigation en croisant météo, hygrométrie des sols et besoins réels des plantes.


3. Exemples de cadres d’action / références

Cadre / Source Intérêt
ISO 26000 Norme de référence sur la responsabilité sociétale (questions de gouvernance, inclusion, droits humains)
UNESCO — Recommandation sur l’éthique de l’IA (2021) Cadre international appelant à une IA éthique, inclusive, au service des droits humains
CNIL — Guide IA et données personnelles Recommandations pratiques pour développer une IA respectueuse des libertés
France Stratégie — IA et société Rapports sur les impacts sociaux de l’IA dans les politiques publiques
OCDE – Principes de l’IA responsable Cinq principes fondateurs (équité, robustesse, transparence, bien commun, droits humains)

4. En résumé

Intégrer l’IA générative dans les aspects sociétaux de la TES guidée par l’ISO 26000, c’est :

  • Refuser qu’elle soit un simple gadget technologique
    L’IA n’est pas neutre. Chaque choix d’implémentation porte des valeurs. Un chatbot de conseil bancaire peut être conçu pour maximiser les ventes de produits financiers… ou pour éduquer les clients aux enjeux d’épargne responsable. Une IA de recrutement peut perpétuer les biais existants… ou activement corriger les discriminations historiques. Nous devons politiser l’IA, au sens noble : la soumettre au débat démocratique sur le monde que nous voulons construire.
  • L’ancrer dans les valeurs d’éthique, d’inclusion, de justice et de co-construction
    Les 7 questions centrales de l’ISO 26000 offrent une boussole pour naviguer dans la complexité. Elles nous rappellent qu’une technologie n’a de sens que si elle respecte les droits humains, réduit les inégalités, protège l’environnement, renforce la démocratie  et contribue au bien-être collectif.
  • L’utiliser pour renforcer les capacités humaines, pas pour les remplacer
    Le terme clé est « augmentation » et non « substitution ». Une IA qui aide un médecin à ne rien oublier augmente la médecine. Une IA qui remplace le jugement clinique la dégrade. Une IA qui aide un élève à structurer sa pensée l’augmente. Une IA qui pense à sa place le diminue. La question n’est jamais « l’IA peut-elle le faire ? » mais « l’IA devrait-elle le faire ? »
  • En faire un outil au service des communs, des territoires, des vulnérabilités
    L’IA générative ne doit pas être réservée aux GAFAM, aux grandes entreprises et aux populations éduquées. Elle doit devenir un bien commun accessible, un levier d’émancipation pour les plus fragiles, un outil de revitalisation des territoires oubliés. Cela suppose des politiques publiques ambitieuses, des financements solidaires, des licences ouvertes et des formations massives.

Que vous soyez dirigeant d’entreprise, élu local, enseignant, professionnel de santé, travailleur social, citoyen engagé ou simple utilisateur :

  • Formez-vous aux enjeux de l’IA au-delà de la technique : éthique, impacts sociaux, biais, empreinte écologique
  • Questionnez les IA que vous utilisez ou que votre organisation déploie : qui les a conçues ? avec quelles données ? avec quels garde-fous ?
  • Exigez de la transparence, de l’auditabilité, de la redevabilité
  • Participez aux débats citoyens, consultations publiques, ateliers de co-construction
  • Expérimentez des usages responsables et partagez vos retours d’expérience
  • Inspirez-vous de l’ISO 26000 pour structurer votre démarche de responsabilité sociétale appliquée à l’IA

L’IA générative sera ce que nous en ferons collectivement. Elle peut être un formidable accélérateur de la transition écologique et sociétale… ou un amplificateur d’inégalités et de dérèglements. À nous de choisir. À nous d’agir. Maintenant.


🚀 Pour aller plus loin

Biais et discrimination

Norme ISO 26000

UNESCO Recommandation éthique IA

CNIL – IA et données personnelles

OCDE Principes IA

France Stratégie

Commission Européenne AI Act

Stratégie Nationale IA France