L’IA d’Apple critiquée pour une fausse information sur Luigi Mangione
Stephanie GauthierL’IA d’Apple a été vivement critiquée par l’organisation Reporters sans frontières pour avoir généré de fausses informations attribuées à la BBC.
L’organisme demande à Apple de retirer cette nouvelle fonctionnalité d’intelligence artificielle de ses appareils.
La fausse information à l’origine de la demande de Reporters sans frontières remonte à la semaine dernière.
L’intelligence artificielle d’Apple avait produit et diffusé une notification résumant de manière erronée une information de la BBC, prétendant que Luigi Mangione, suspect dans le meurtre du PDG de UnitedHealthcare à New York, s’était suicidé avec une arme à feu.
La BBC n’a pas pu confirmer si le fabricant de l’iPhone avait répondu à leur plainte, selon CNN, déposée pour exprimer leurs préoccupations et demander une résolution du problème lié à cette fonctionnalité.
Le responsable du desk technologie et journalisme de Reporters sans frontières a exprimé des critiques claires à l’égard de l’IA.
Il a déclaré que «la production automatisée de fausses informations nuit à la crédibilité des médias et met en danger le droit du public à une information fiable». Il a également ajouté que «les faits ne peuvent pas être laissés au hasard, comme un coup de dés».
Bien que l’IA soit devenue un outil incontournable dans le domaine technologique et dans la plupart des médias, elle est encore loin d’être totalement fiable sans une vérification humaine des faits.