Wall Street mise gros sur l’IA, les consommateurs californiens doivent être protégés

L’intelligence artificielle pourrait bientôt remplacer les conseillers financiers, et ce n’est qu’un début. Tandis qu’un algorithme prédit le cours des actions, un autre décide ce qu’il doit divulguer aux régulateurs. Les modèles de langage de type GPT pourraient bientôt halluciner votre demande de prêt hypothécaire ou vos économies, et vous ne le saurez même pas.

J’ai passé plusieurs mois à parcourir l’Office américain des brevets et des marques pour voir comment les banques d’investissement les plus puissantes du monde intègrent l’intelligence artificielle, et c’est un aperçu effrayant de l’avenir.

JPMorgan a déposé une demande de marque appelée « Index GPT » qui donnerait des conseils financiers et mettrait en relation les entreprises et les investisseurs. Goldman Sachs cherche à breveter une IA qui combinerait toutes les données dont un trader aurait besoin pour prédire les cours des actions, et une autre pour prédire un portefeuille de couverture. Le groupe ING recherche déjà les défaillants potentiels.

Il existe même une IA pour traduire « Fedspeak » afin que les banques puissent savoir si les déclarations des régulateurs sont « accommodantes » ou « bellicistes ».

Les banques investissent des milliards de dollars dans la recherche, les brevets et le financement de l’IA sans garanties adéquates. Une grande attention est accordée aux entreprises technologiques développant l’intelligence artificielle, mais les banques de Wall Street sont tout aussi intéressées. Les dépenses des services financiers consacrées à l’IA sont plus importantes que celles de tout autre secteur, dépassant même celles de l’industrie technologique.

Nous savons encore peu de choses sur l’IA générative. Même les ingénieurs et les codeurs ne comprennent pas le fonctionnement de l’IA. Contrairement aux modèles précédents, OpenAI a décidé de ne pas divulguer les données d’entraînement de GPT-4. ChatGPT a récupéré plus de 300 milliards de mots sur Internet, et certains craignent qu’il ait aspiré des informations personnelles en cours de route. En outre, OpenAI affirme que son modèle linguistique présente un « risque élevé de préjudice économique » en raison d’une « tendance à halluciner » et devrait être accompagné d’un « avertissement ».

Malgré ces inquiétudes, JPMorgan a déclaré que les données et l’IA seront « essentielles » au succès futur de l’entreprise. Il compte actuellement plus de 300 cas d’utilisation de l’IA en production.

Mais le manque de transparence autour de l’IA et son potentiel de biais signifient qu’une mystérieuse IA pourrait pousser des investissements et des prêts risqués, ou halluciner de mauvais conseils sur la gestion de la dette sans même que le consommateur sache qu’il s’agit d’IA.

Sans une réglementation solide, la prochaine crise financière pourrait être provoquée par l’IA, se déclenchant sur le marché hypothécaire ou boursier parce qu’une poignée de banques s’appuient sur les mêmes algorithmes. Ne me le prends pas. Des personnes bien plus intelligentes comme Gary Gensler, président de la Securities and Exchange Commission des États-Unis, ont prédit que d’ici 10 ans, l’IA serait responsable d’une sorte de crise financière.

Les principales préoccupations sont la complexité algorithmique, le manque de transparence et les informations biaisées ou fausses. Par exemple, l’IA de Goldman pourrait être utilisée pour créer et évaluer un nouveau type de produits dérivés. Ces instruments financiers complexes ont permis à Wall Street de parier des milliards de dollars sur le marché immobilier. En conséquence, 6 millions d’Américains ont perdu leur logement pendant la Grande Récession.

Sinon, comment l’IA peut-elle avoir un impact financier sur nos vies ? L’IA peut également commencer à « dériver », ce qui signifie qu’elle peut s’écarter de son utilisation prévue et perpétuer les préjugés. Une IA pourrait commencer à penser qu’une certaine race ou adresse équivaut à un mauvais crédit et refuser des prêts sur cette base. Cela s’est déjà produit.

Heureusement, la Californie tente de freiner l’IA. À l’heure actuelle, la California Privacy Protection Agency élabore des règles de prise de décision automatisée dans le cadre du California Consumer Privacy Act, qui protégeraient contre les risques et les préjugés de l’IA concernant les données personnelles. Par exemple, une entreprise devrait informer les consommateurs qu’elle utilise la prise de décision automatisée, détailler la logique de l’algorithme et leur donner la possibilité de se retirer de la décision, surtout si elle implique des finances.

Et pour la première fois, des règles sont dédiées à l’IA générative et aux données d’entraînement. Les entreprises utilisant des modèles linguistiques devront divulguer si ces modèles utilisent des informations personnelles pour former l’IA, et les consommateurs pourront se désinscrire.

L’Amérique prend du retard en matière de réglementation de l’IA. Il ne faut pas tarder à agir comme il l’a fait à l’égard des médias sociaux, alors qu’une réglementation saine et l’innovation sont possibles.

Justin Kloczko est un défenseur de la technologie et de la vie privée pour Consumer Watchdog

Laisser un commentaire