Risques posés par l’IA : sept entreprises d’IA acceptent des garanties aux États-Unis

Finalement les autorités américaines ont trouvé la solution pour gérer les risques posés par l’IA, dont notamment des outils comme ChatGPT. Aux Etats-Unis, sept entreprises leaders de l’intelligence artificielle ont récemment pris un engagement majeur visant à contrôler les risques potentiels posés par cette technologie émergente, selon une déclaration officielle de la Maison Blanche ce 21 juillet 2023.

Sous cet engagement, les entreprises s’engagent à entreprendre des tests de sécurité approfondis sur leurs systèmes d’intelligence artificielle et à rendre les résultats publics. Cette mesure vise à renforcer la transparence et la responsabilité dans le domaine de l’IA, tout en mettant en évidence les mesures prises pour minimiser les risques liés à cette technologie puissante.

Les représentants des sept entreprises impliquées ont rejoint le président américain Joe Biden lors d’une annonce solennelle. Parmi elles, des géants du secteur tels qu’Amazon, Anthropic, Google, Inflection, Meta, Microsoft et OpenAI ont décidé de s’associer pour ce projet ambitieux.

Il convient de noter que cette démarche intervient à la suite de mises en garde concernant les capacités de l’intelligence artificielle, qui peuvent présenter des risques si elles ne sont pas correctement contrôlées. En s’engageant à tester rigoureusement la sécurité de leurs systèmes et à communiquer les résultats au public, ces entreprises démontrent leur volonté de prévenir les éventuels problèmes et de promouvoir une utilisation éthique de l’IA.

Le développement rapide de l’intelligence artificielle dans divers domaines suscite des inquiétudes quant à la confidentialité des données, à la prise de décision automatisée et à l’impact sur l’emploi. Cependant, cette initiative vise à apaiser ces préoccupations en mettant l’accent sur la transparence et l’ouverture de la part des entreprises impliquées.

Selon des experts du domaine, cet engagement pourrait également influencer positivement d’autres acteurs du secteur de l’IA, les incitant à adopter des pratiques similaires pour assurer une utilisation responsable de cette technologie révolutionnaire.

Le développement de l’IA a fait craindre la propagation de la désinformation

L’accélération du développement des outils d’intelligence artificielle par les entreprises a suscité des inquiétudes concernant la propagation potentielle de la désinformation, en particulier à l’approche de l’élection présidentielle américaine de 2024.

L’essor rapide de l’intelligence artificielle dans le domaine de l’information et des médias a soulevé des préoccupations quant à la manipulation de l’opinion publique et à la diffusion de fausses informations. Et pour cause, les technologies d’IA avancées permettent de créer des contenus synthétiques de manière de plus en plus réaliste, ce qui pourrait contribuer à amplifier les campagnes de désinformation lors d’événements politiques importants tels que les élections présidentielles.

Risques posés par l’IA, les engagements signés par les 7 entreprises

Dans le cadre de cette entente, ces entreprises se sont unanimement engagées à renforcer la sécurité et la transparence de leurs systèmes d’IA, dans le but de protéger les utilisateurs et de minimiser les risques potentiels.

Parmi les principales dispositions de cet accord, les entreprises se sont engagées à soumettre leurs systèmes d’IA à des tests de sécurité approfondis, menés par des experts internes et externes, avant de les mettre sur le marché. Cette mesure vise à identifier et à corriger tout défaut potentiel ou vulnérabilité avant qu’elle ne puisse causer des problèmes.

Un autre aspect essentiel de l’accord concerne la transparence vis-à-vis du public. Les entreprises s’engagent à mettre en œuvre des filigranes ou des indicateurs clairs pour permettre aux utilisateurs de reconnaître lorsqu’ils interagissent avec une IA. Cette mesure a pour objectif de rendre les systèmes d’IA plus compréhensibles et de permettre aux individus de mieux appréhender leurs interactions avec ces technologies.

De plus, les entreprises ont convenu de rendre compte régulièrement des capacités et des limites de leurs systèmes d’IA. Cette initiative vise à créer un dialogue ouvert avec le public et à éviter toute dissimulation ou manipulation des performances réelles de l’IA.

Outre ces mesures, l’accord encourage également la recherche continue sur les risques liés à l’IA, tels que les préjugés, la discrimination et l’atteinte à la vie privée. Les entreprises ont exprimé leur volonté de collaborer avec la communauté académique et les organismes de réglementation pour mieux comprendre et atténuer ces problématiques.

Ce pas en avant significatif dans l’industrie de l’IA reflète une prise de conscience collective de l’importance de la responsabilité dans le développement et le déploiement de ces technologies. Il s’agit d’une étape majeure pour promouvoir une IA éthique, respectueuse des droits fondamentaux des individus et conforme aux normes sociétales.

Quel est l’objectif derrière tout cela ?

« L’objectif est qu’il soit facile pour les gens de savoir quand le contenu en ligne est créé par l’IA », a souligné un porte-parole de la Maison Blanche. Cette initiative vise à accroître la transparence et à responsabiliser les acteurs utilisant des générateurs de texte assistés par l’IA.

Les filigranes, qui seront conçus pour être visibles mais non intrusifs, permettront ainsi aux internautes de faire la distinction entre les contenus créés par des humains et ceux générés par des algorithmes d’intelligence artificielle. Cette mesure est attendue avec impatience par les utilisateurs, qui sont de plus en plus confrontés à la diffusion de fausses informations et de contenus trompeurs sur internet.

Cette question cruciale a également été abordée lors d’une rencontre entre le commissaire européen Thierry Breton et le directeur général d’OpenAI, Sam Altman, lors d’une visite à San Francisco en juin. La Commission européenne suit de près les développements en matière d’IA et cherche également des moyens efficaces pour réguler l’utilisation de cette technologie émergente tout en préservant les droits et la sécurité des utilisateurs.

Leave a Reply