L’IA générative s’apprête à déferler en entreprise

ChatGPT donne des idées aux grands fournisseurs de solutions et services IT que sont IBM, Microsoft, Oracle ou encore SAP, Salesforce… Toutefois, de nombreuses questions sur l’éthique de l’intelligence artificielle (IA) restent en suspens.

© Adobe Stock
© Adobe Stock

Le succès d’outils comme ChatGPT (chat generative pre-trained transformer) ou Midjourney fait de 2023 l’année du décollage de l’intelligence artificielle générative. Une innovation qui pourrait transformer radicalement la façon d’interagir avec des systèmes informatiques. Les grands acteurs du web l’ont bien compris et se préparent à déployer l’IA générative sur l’ensemble de leurs services et solutions.

Microsoft semble avoir gagné la première manche. Il a pris de vitesse ses concurrents en investissant massivement dans OpenAI (start-up créatrice de ChatGPT), ce qui lui a permis d’intégrer un assistant intelligent de nouvelle génération dans son moteur de recherche Bing, puis dans son navigateur web Edge. Le géant mondial devrait bientôt déployer son assistant Microsoft Copilot dans Windows, ainsi que dans les outils de sa suite bureautique Microsoft 365.

Tous les éditeurs s’y mettent

D’autres grands éditeurs de solutions d’entreprise se penchent sur le berceau de l’IA générative : à commencer par l’éditeur européen de logiciels d’entreprise SAP, avec son offre Joule, et l’américain Salesforce avec Einstein. L’IA générative devrait ainsi rapidement se démocratiser dans des outils clés comme les plateformes logicielles ERP (enterprise resource planning) ou les CRM (customer relationship management). Il reste que son adoption suppose de migrer vers le ‘cloud’, du fait de la puissance de calcul et de la capacité de stockage requises.

Conscients des limites d’une approche « tout cloud », en particulier pour des industries fortement réglementées (défense, armement…), certains acteurs tentent de proposer des alternatives. Ainsi, Oracle promet d’implémenter largement sa technologie Generative IA dans ses solutions ‘cloud’ ; mais il offre également la possibilité de la déployer dans les datacentres des entreprises (cf. offre de services Cloud@Customer).

Héberger sa propre IA générative sur son site peut aider l’entreprise à renforcer la confidentialité de ses données et la sécurité des traitements. Gare toutefois à la consommation en électricité et en refroidissement de tels systèmes, dont les besoins en énergie sont bien plus importants que ceux des serveurs classiques. À ce titre, l’IA risque fort de plomber le bilan environnemental des entreprises.

Quid de l’éthique de l’IA ?

L’éthique d'une intelligence artificielle est d’autant plus difficile à garantir que la traçabilité du raisonnement effectué par l’IA est complexe. D’où un risque d’opacité et d’irresponsabilité. Ce problème devient encore plus épineux avec l’IA générative, qui - comme son nom l’indique - est capable d’apprendre de façon toujours plus pertinente et de générer de nouvelles données ayant des caractéristiques similaires à celles qu’elle a ingérées précédemment. Ceci sans garantie que les données soient exactes, de sources sûres et libres de droits.

Un exemple : l’IA générative est capable d’évaluer, de prévoir les opportunités commerciales d’un nouveau produit ; pour cela, elle se réfère à des cas similaires… chiffres à l’appui. Mais qui garantit que les données et rapports fournis dans la synthèse de son analyse n’ont pas, eux aussi, été générés par l’IA ? La question n’est pas innocente : les cas de sources crédibles inventées, tronquées ou confondues par l’IA ou non à jour, ou non datées, se sont multipliés ces derniers mois. Comme si le système, en s’améliorant, s’organisait pour forcer sa crédibilité…

IBM est un de ceux qui soutiennent le principe d’une « IA responsable », reposant sur cinq piliers : explicabilité, équité, robustesse, transparence et confidentialité. Des principes que la firme tente de retranscrire sur sa nouvelle plateforme d’intelligence artificielle (Watsonx).

Plus globalement, il reste difficile d’accorder sa pleine confiance à l’IA en l’absence d’une réglementation permettant d’en encadrer les éventuelles dérives. Il faut saluer l’initiative du parlement européen qui y travaille depuis 2021, avec un volet relatif à l’IA générative, lequel obligera, entre autres exigences, le signalement des contenus générés par une machine.

David FEUGEY