intelligence artificielle : OpenAI Prend des Mesures Contre la Désinformation Politique
Éviter les Usages Malveillants pour Protéger la Démocratie Mondiale
OpenAI, une entreprise californienne spécialisée dans l’intelligence artificielle, a récemment annoncé des mesures pour empêcher l’utilisation de ses programmes à des fins de désinformation politique.
Les logiciels génératifs de l’entreprise, tels que chatgpt et DALL-E, sont désormais strictement contrôlés pour éviter toute manipulation dans le cadre de campagnes politiques ou militantes.
Cette initiative vise à prévenir les abus potentiels alors que des milliards de personnes se préparent à exercer leur droit de vote lors des élections de 2024.
Engagement envers la Réalisation de la Vérité et de l’Intégrité
openai a publié un communiqué dans lequel l’entreprise exprime sa volonté de garantir que sa technologie ne soit pas utilisée de manière à entraver le processus démocratique ou à influencer de façon inappropriée les décisions politiques.
La société reste en constante évaluation de l’impact potentiel de ses outils sur la persuasion individuelle et prend des mesures préventives en attendant d’avoir un tableau plus complet de la situation.
OpenAI ne permettra pas aux individus de développer des applications destinées à des activités politiques ou militantes, dans le but d’assurer la transparence et l’intégrité du processus électoral.
Éviter les Tentatives de Manipulation et la Propagation de Désinformation
L’entreprise s’oppose également à la création de chatbots se faisant passer pour de vraies personnes ou institutions, ainsi qu’à l’utilisation de ses programmes pour décourager la participation au vote.
chatgpt dirigera les utilisateurs plus fréquemment vers des sources d’informations crédibles pour éviter la propagation de faits trompeurs créés par le logiciel, connus sous le nom de “hallucinations”.
Cette action vise à protéger la vérité et à lutter contre la dissémination de la désinformation, en particulier dans le contexte des élections et des campagnes politiques.
Limitation des Risques Liés aux Deepfakes
L’accroissement de la popularité de l’intelligence artificielle générative a facilité la création de “deepfakes”, des contenus faux mais très réalistes pouvant être utilisés à des fins malveillantes.
openai met en avant les mesures prises pour limiter ce risque, notamment le blocage de la création d’images contenant des personnes réelles par ses programmes de génération d’images, tels que DALL-E.
L’entreprise travaille également sur un logiciel permettant d’identifier si une image a été produite par DALL-E, prévu pour être testé par un groupe restreint dans un avenir proche.
openai prévoit également d’intégrer des “identifiants numériques” dans les images créées pour empêcher la dissimulation de leur caractère artificiel, en collaboration avec la Coalition pour la provenance et l’authenticité des contenus.
Un Engagement Mondial contre l’Utilisation Abusive de l’ia dans les Campagnes Politiques
OpenAI s’inscrit dans un mouvement plus large où des entreprises telles que Google et Meta ont déjà annoncé des initiatives similaires pour encadrer l’utilisation de l’ia dans les campagnes politiques.
La diffusion de logiciels “open source” pose cependant des défis supplémentaires en termes de régulation et de contrôle des usages.
En conséquence, l’engagement d’openai constitue un pas important vers la protection de l’intégrité des processus électoraux à l’échelle mondiale.
Source: francetvinfo
No Comments