Joe Biden pousse les géants de la technologie vers l’IA

Amazon, Anthropic, Google, Inflection, Meta, Microsoft et OpenAI ont convenu de respecter « trois principes qui devraient être fondamentaux pour la progression de l’intelligence synthétique (IA), à savoir la sûreté, la sécurité et la confiance », a annoncé vendredi matin la Maison Blanche.

Les dirigeants de ces entreprises gagneront sur eux-mêmes à mesure que les craintes concernant cette génération difficile s’intensifieront. Les dangers de la fraude et de la désinformation présentent des dangers pour les consommateurs et les citoyens.

Pour rendre cette génération plus sûre et transparente, ces sept entreprises se sont engagées à tester leurs systèmes informatiques en interne et en externe avant leur lancement.

Ils se sont également engagés à investir dans la cybersécurité et à partager les données applicables sur leurs outils, ajoutant des vulnérabilités imaginables, avec le gouvernement et les chercheurs.

Ils devront également « développer des techniques physiquement puissantes pour s’assurer que les utilisateurs savent quand le contenu a été généré via l’IA, comme un système de filigrane », a ajouté la Maison Blanche.

« Cela permettra à la créativité liée à l’IA de s’épanouir tout en réduisant les risques de fraude et de tromperie », a déclaré la direction de Biden.

Contenu externe

Ce contenu externe sera affiché car il collecterait éventuellement des données non publiques. Pour afficher ce contenu, vous devez autoriser la catégorie Médias sociaux.

Jusqu’à présent, les grandes entreprises en question ont été réticentes à charger ces marques dans le contenu créé avec leurs programmes.

« C’est un problème », a déclaré un haut responsable de la Maison Blanche lors d’une conférence de presse.

Le logo en filigrane « devrait fonctionner à la fois pour le contenu visuel et sonore », a-t-il expliqué. « Il veut être techniquement solide, mais aussi facile à voir pour les utilisateurs.  »

Les fausses photographies et les faux montages existent depuis des années, mais l’IA générative, capable de générer du texte et des photographies sur des requêtes indéniables dans la langue, fait craindre une avalanche de faux contenus en ligne.

Ceux-ci peuvent être utilisés pour fabriquer des escroqueries ultra-crédibles ou pour manipuler l’opinion publique. Cette perspective est inquiétante à l’approche de l’élection présidentielle américaine. UU. de 2024.

Le comité de Ron DeSantis, le merveilleux rival de Donald Trump dans la course à l’investiture républicaine, a déjà utilisé dans une publicité une fausse voix générée par l’intelligence synthétique et similaire à celle de cet ancien président.

« Nous allons devoir utiliser tous les leviers du gouvernement fédéral pour ce secteur » et « travailler » avec le Congrès pour légiférer, a déclaré le chef de cabinet de la Maison Blanche, Jeff Zients, au site d’information Axios.

Les tensions politiques actuelles au Congrès signifient qu’une nouvelle législation sur l’IA est à venir, mais l’administration a indiqué qu’elle était exécutée dans un décret.

Ces engagements de l’industrie reçus par l’administration Biden sont « une première étape », selon Paul Barrett, directeur adjoint du Center for Business and Human Rights (NYU) de l’Université de New York.

« Mais parce qu’ils ne sont pas passibles de sanctions en cas de non-conformité, il est important que le Congrès vote rapidement sur la législation.  »

La Maison Blanche a également déclaré qu’elle travaillait avec des alliés étrangers pour rechercher « un cadre étranger solide pour régir la progression et l’utilisation de l’IA » dans le monde.

AFP/EDEL

Google teste une IA pour écrire des articles de journaux

Monde

vendredi, 03:21

Le chef de l’ONU met en garde contre les risques de l’IA

Monde

mardi, à 22:04

L’intervention du gouvernement dans l’IA est « cruciale », déclare le chef d’OpenAI

Science-Technologie.

17 mai 2023

Les Occidentaux adoptent un « code de conduite » non inhabituel sur l’intelligence synthétique

Monde

31 mai 2023

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *