OpenAI, la société à l’origine du célèbre agent conversationnel ChatGPT, vient de révéler avoir démantelé une opération d’influence liée à l’Iran. Celle-ci utilisait sa technologie pour générer du contenu lié à l’élection présidentielle américaine. Selon un billet de blog publié vendredi, l’entreprise a banni un groupe de comptes ChatGPT impliqués dans la création d’articles et de publications sur les réseaux sociaux générés par l’IA…
Si l’impact réel de cette campagne semble limité, cet incident nous révèle l’existence de nouveaux défis posés par l’utilisation malveillante de l’IA générative d’OpenAI !
Une nouvelle menace pour l’intégrité des élections
Précisons que, ce n’est pas la première fois qu’OpenAI doit faire face à des acteurs étatiques utilisant ChatGPT à des fins de manipulation de l’opinion publique. En mai dernier, la société avait déjà déjoué cinq campagnes similaires. Ces épisodes rappellent les tentatives d’ingérence électorale observées lors des précédents cycles électoraux sur des plateformes comme Facebook et Twitter.
Aujourd’hui, les mêmes groupes, ou de nouveaux acteurs, semblent avoir trouvé dans l’IA générative un puissant outil pour inonder les réseaux sociaux de désinformation. Face à cette menace, OpenAI va donc adopter une approche similaire à celle des géants des réseaux sociaux en bannissant les comptes associés à ces efforts au fur et à mesure de leur détection.
À LIRE AUSSI : OpenAI évalue les risques de son modèle GPT-4o comme étant « moyens »… La bonne blague ?
Une collaboration avec Microsoft pour identifier les acteurs malveillants
Il faut savoir que l’enquête d’OpenAI sur ce groupe de comptes a bénéficié d’un rapport de Microsoft Threat Intelligence publié la semaine dernière. On rappelle que ce rapport identifiait le groupe, baptisé Storm-2035, comme faisant partie d’une campagne plus large visant à influencer les élections américaines depuis 2020.
Selon Microsoft, Storm-2035 est un réseau iranien qui exploite plusieurs sites imitant des organes de presse et qui cible activement des groupes d’électeurs américains aux deux extrémités du spectre politique avec des messages polarisants sur des sujets tels que les candidats à la présidentielle, les droits LGBTQ ou le conflit israélo-palestinien. L’objectif n’est pas nécessairement de promouvoir une politique en particulier, mais plutôt de semer la discorde et le conflit.
Des articles et des publications sur les réseaux sociaux générés par ChatGPT
Sachez qu’OpenAI a identifié cinq sites web servant de façade à Storm-2035, se présentant comme des organes de presse progressistes ou conservateurs avec des noms de domaine convaincants comme « evenpolitics.com« . Le groupe a utilisé ChatGPT pour rédiger plusieurs articles de fond, dont un alléguant à tort que « X censure les tweets de Trump« .
Sur les réseaux sociaux, OpenAI a repéré une douzaine de comptes X et un compte Instagram contrôlés par cette opération. ChatGPT a été utilisé pour réécrire divers commentaires politiques, qui ont ensuite été publiés sur ces plateformes. Un de ces tweets affirmait d’ailleurs faussement que Kamala Harris attribue « l’augmentation des coûts d’immigration » au changement climatique, suivi du hashtag « #DumpKamala« .
À LIRE AUSSI : OpenAI fait finalement face à un dilemme concernant le lancement son outil de détection des textes IA et c’est normal !
OpenAI fait finalement face à un dilemme concernant le lancement son outil de détection des textes IA et c’est normal !
Un impact limité, mais une menace persistante
Bien qu’OpenAI n’ait pas constaté une large diffusion des articles de Storm-2035 et que la majorité de ses publications sur les réseaux sociaux n’aient reçu que peu ou pas de likes, de partages ou de commentaires, cette opération illustre la facilité avec laquelle des outils d’IA comme ChatGPT peuvent être utilisés pour créer rapidement et à moindre coût des campagnes de désinformation.