Nous contacter Recherche

Comprendre les enjeux du numérique responsable : L’innovation responsable (4/5)

Cet article est le quatrième d’une série traitant du produit responsable et mettant en lumière l’importance de la conception responsable de produits numériques. Au fil de cette série, nous vous donnons les clés pour comprendre comment le mettre en place et faisons le tour des opportunités que représente la conception de produits digitaux respectueux des hommes et de leur environnement. Retrouvez le précédent article via ce lien. 

Des nouvelles technologies qui améliorent vraiment la vie

Quand on pense produit responsable, on pense sobriété. Face à la réalité de la pollution générée par le numérique, légitimement, des interrogations émergent quant à l’adoption de chaque nouvelle technologie qui s’offre à nous chaque jour Or plutôt que d’être réfractaire au progrès, la clé réside dans la manière dont nous pouvons intégrer ces avancées technologiques dans une démarche responsable, sous peine d’être rapidement évincé par la concurrence. 

Dans un monde où le numérique est responsable de 5% des émissions totales de gaz à effet de serre, les solutions comme l’IA, la mobilité autonome, l’IoT, les smart cities ou encore le web 3.0 et les blockchains paraissent moins évidentes. À commencer par la data. Ces dernières années, nous avons été témoins d’une montée en puissance spectaculaire de la collecte et de l’utilisation des données. Si cette révolution a apporté des avantages considérables, comme la personnalisation des expériences utilisateur ou encore l’optimisation de nombreux processus qui ont pu aider des secteurs comme la santé ou l’agriculture, elle soulève des inquiétudes légitimes. La collecte et l’exploitation massives de données peuvent potentiellement compromettre la vie privée des individus en étant trop intrusives et en exposant leurs informations personnelles à des risques de sécurité. Ce n’est pas la technologie en elle-même qui pose un problème, mais plutôt son usage démesuré, les concepteurs ne se questionnant que trop rarement sur l’utilité de ce qu’ils collectent. 

L’année 2022 fut marquée par la démocratisation du web 3.0, qui a révélé de nombreux acteurs et solutions innovantes au grand public. Les mots smart contracts, blockchain, DeFI (Decentralized Finance) étaient dans la bouche de tout un chacun, sans pour autant être sans conséquences. L’une des préoccupations majeures de cette technologie est la consommation croissante d’énergie associée aux processus de minage et de validation des transactions sur les blockchains, ce qui soulève de fortes inquiétudes environnementales. De plus, l’aspect financier lié aux cryptomonnaies et aux NFTs a créé une spéculation effrénée et des comportements impulsifs chez de nombreux investisseurs, soulevant des questions sur les impacts sociaux du web 3.0, mais aussi sur les impacts économiques, tant cela semble défier tout fondement financier. 

Et si 2022 était l’année du web 3.0, 2023 est résolument celle des intelligences artificielles (IA). Ce qui fait actuellement beaucoup parler d’elles, c’est l’avènement des intelligences artificielles génératives, capables de générer du texte ou des visuels à partir de simples mots. D’une part parce qu’on a l’impression de se rapprocher d’une intelligence artificielle générale, et donc du mal à entrevoir l’étendue de ses capacités ce qui provoque une sensation de vertige, de l’autre parce qu’elle fait peur du fait de sa facilité d’exécution de certaines tâches, rendant l’humain remplaçable. Elle pose alors de nombreuses questions éthiques.  

Que faire des IA ?

Jusqu’à présent, les aspects négatifs de l’IA générative pointés du doigt sont liés soit au fait que les modèles sont le plus souvent entrainés avec des œuvres protégées par des droits d’auteur sans l’autorisation des créateurs (tout en pouvant mettre ces mêmes créateurs au chômage), soit par les idées que peuvent perpétuer une IA entrainée sur un modèle non régulé qui pourrait tenir des propos inappropriés voir dangereux pour ceux qui l’utilisent. Pour lutter contre cela, les éditeurs d’IA génératives adoptent de plus en plus une approche de transparence et de responsabilité dans le processus de prise de décision de leur IA, en permettant aux utilisateurs de vérifier la base d’entraînement utilisée et en garantissant que les artistes et autres créateurs disposent au minimum d’un droit de retrait pour leurs œuvres intégrées dans le modèle, comme le fait Midjourney par exemple. Certaines entreprises vont encore plus loin en ne formant leurs modèles qu’avec des contenus sur lesquels elles détiennent des droits de propriété, à l’instar d’Adobe avec sa bibliothèque de photos Stock. Cette démarche vise à assurer une utilisation plus responsable de l’IA générative et à respecter les droits des créateurs.  

L’entraînement des modèles soulève également des préoccupations en matière de protection de la vie privée et de sécurité des données. Souvent, lorsqu’une personne interagit avec ces modèles, elle laisse involontairement ses données contribuer à leur entraînement, créant ainsi des risques de fuite de données, comme l’exemple récent avec Samsung l’a illustré (TechRadar). Pour faire face à ce problème, de nombreuses organisations mettent en place des modèles GPT privés. L’entrainement des modèles sur des données publiques perpétue aussi des biais et des préjugés. L’un des avantages attendus de l’IA réside dans sa capacité à prendre des décisions objectives, exemptes de préjugés humains et de discriminations basées sur des critères tels que l’origine, le genre ou l’âge. Cependant, une IA générative apprend en fonction des données sur lesquelles elle est formée. Si ces données comportent des biais ou des préjugés, elle risque de les reproduire. Pour contrer cela, il faut mettre en place des mécanismes de contrôle et de régulation pour prévenir les discriminations potentielles. Un exemple frappant est celui du chatbot d’Amazon, critiqué pour avoir favorisé majoritairement les promotions hiérarchiques d’hommes blancs âgés (Reuters). Cette situation souligne l’importance d’une surveillance attentive et d’une réglementation stricte pour éviter tout dérapage. Elle ne génère des textes basés que sur des probabilités, donc il n’y a aucune garantie de vérité ou d’efficacité. Il est essentiel de se rappeler que ces outils sont des aides, mais pas des solutions toutes faites. Une révision, des ajustements, et même des corrections sont souvent nécessaires pour obtenir des résultats pertinents. Elles sont là pour préparer le terrain et gagner du temps, mais cela ne remplace pas le travail ultérieur requis pour garantir la qualité et la pertinence du contenu final et les entreprises ne doivent pas les mettre en place dans le but de remplacer leurs salariés, mais plutôt dans l’optique de les aider à être meilleurs. 

Il ne faut pas non plus oublier l’impact humain et l’impact environnemental de cette technologie, souvent invisibilisés. Peu après la présentation au grand public de ChatGPT, une enquête du Time a rapporté qu’Open AI a utilisé des travailleurs payés moins de 2 dollars de l’heure pour rendre son modèle moins toxique, en externalisant la modération de contenus inappropriés via une société nommée Sama. Le recours à cette société a suscité de nombreuses réactions quant aux conditions de travail et à la nature traumatisante du contenu traité, ces contrats entre les sociétés ont été rapidement annulés.  

L’autre des principales inquiétudes réside dans la consommation massive de ressources informatiques. Les modèles d’IA générative, en raison de leur complexité, nécessitent d’énormes quantités d’énergie pour fonctionner efficacement. Les calculs nécessaires à la formation de ces modèles sont effectués sur de vastes infrastructures de datacenters, qui consomment d’énormes quantités d’électricité. Une lueur d’espoir réside dans le fait que selon une étude de l’université de Cornell (Cornell University), le temps passé par une IA générative pour générer du texte ou des visuels est bien moindre comparé au temps passé par un humain sur une machine pour le faire, et donc finalement émettrait moins de CO2. Il faut en réalité utiliser convenablement les technologies pour éviter un quelconque effet rebond. Comme pour toute autre avancée, il faut que l’humain puisse garder le contrôle et s’en servir pour faire le bien.  

Les applications responsables de ces technologies

Les avancées technologiques peuvent véritablement servir le bien commun en abordant divers domaines, de l’accessibilité accrue à l’amélioration de notre impact environnemental. Il est essentiel de comprendre que ces technologies, si elles sont utilisées de manière éthique et réfléchie, ont le pouvoir de transformer positivement notre société et de préserver notre environnement. 

Prenons le cas de la blockchain et du métavers, deux éléments clés du web 3.0, qui illustrent parfaitement le potentiel des nouvelles technologies pour promouvoir des utilisations responsables. La blockchain, par exemple, peut être mise à profit pour garantir la traçabilité et la durabilité de nombreux produits physiques. Dans un contexte social, le métavers offre quant à lui une multitude de possibilités, notamment de créer du lien social en permettant aux individus de se réunir virtuellement peu importe où se situent les participants, mais aussi d’améliorer l’accessibilité en permettant de visualiser plus facilement des références ou des documents en 3D, tout en étant un atout majeur pour favoriser la participation des personnes en situation de handicap à des expériences variées.  

Les IA génératives jouent également un rôle essentiel dans la quête d’un futur plus responsable. Un exemple concret se trouve dans le générateur d’images vers le texte de Midjourney, qui améliore l’accessibilité pour les personnes aveugles ou malvoyantes, en créant des descriptions riches à partir d’images. Cette avancée technologique permet aux personnes malvoyantes de découvrir de manière imaginative des contenus visuels autrement inaccessibles. La meilleure pratique actuellement consiste à ajouter une description à l’image sous la forme d’un élément alternatif (alt), qui associe la description à l’image. Cette description peut alors être utilisée par les logiciels d’accessibilité. Désormais, l’intégration de ces descriptions d’images pourrait être automatisée grâce à cette technologie, réduisant ainsi considérablement l’effort nécessaire, ce qui signifie que les personnes aveugles ou malvoyantes pourront bénéficier pleinement de plus de contenus visuels, tels que des médias sociaux, des articles et même des achats en ligne. Be My Eyes de OpenAI est un assistant qui fonctionne sur le même principe, pour expliquer tout ce qu’on lui soumet. D’autres initiatives sociales existent, par exemple pour générer automatiquement des sous-titres sous une vidéo, ce qui peut être utile pour les personnes sourdes ou malentendantes, pour de la reconnaissance vocale et du traitement du langage naturel, ce qui peut être utile aux personnes qui rencontrent des difficultés à taper ou à utiliser une souris.  

Par ailleurs, l’IA « simple » favorise elle aussi des comportements responsables. Elle contribue à la réduction de notre empreinte carbone grâce à l’analyse de données à grande échelle et à l’automatisation de processus, ce qui permet notamment d’optimiser les itinéraires de transport, de gérer de manière plus efficiente la consommation énergétique des infrastructures, d’améliorer les procédés industriels, et même de prédire les risques. Sur le plan social, l’IA améliore les soins de santé en facilitant le diagnostic et en prévoyant les épidémies, elle personnalise l’éducation en évaluant les performances des étudiants et en identifiant les domaines nécessitant des améliorations. De plus, elle contribue à promouvoir la justice sociale en luttant contre les préjugés et la discrimination, particulièrement dans les domaines de l’embauche et de la justice pénale. Pour maximiser ces avantages, une réflexion éthique profonde est indispensable.  

Comprendre les enjeux du numérique responsable : L’innovation responsable (4/5), SYNVANCE
Colin Heridel

Consultant Innovation et Expert Produit Responsable Synvance

Le succès de ces technologies dépend de leur utilisation éclairée. En adoptant une approche responsable et en intégrant les considérations éthiques dès le départ dans leur conception et leur développement, elles peuvent contribuer de manière significative à un avenir plus durable et socialement conscient. 

group-46-bgcontact

Vous avez un projet et souhaitez échanger avec un expert ?

Comprendre les enjeux du numérique responsable : L’innovation responsable (4/5), SYNVANCE Loading...
En cliquant sur « Envoyer » :
J’autorise Synvance à me contacter pour répondre à ma demande d'informations.
J’accepte la politique de gestion des données et de la confidentialité de Synvance.

Comprendre les enjeux du numérique responsable : L’innovation responsable (4/5), SYNVANCE

Vous êtes ici

logo
Télécharger l'étude Je postule S'inscrire à l'événement