Seeing isn’t believing: AI Summit’s warning on deepfakes


 Lors du Global AI Summit à Riyadh, un panel a exploré les implications éthiques, techniques et sociales des deepfakes, ces images ou enregistrements manipulés pour représenter des personnes réelles ou inexistantes.

Thomas Schneider, ambassadeur et directeur des affaires internationales au Swiss Federal Office of Communications, a souligné que la définition d'un deepfake peut varier selon les perspectives politique, technique ou légale. Il a noté que les implications éthiques dépendent du contexte, qu'il s'agisse d'une œuvre d'art ou d'une insulte.

Jennifer Williams, professeure adjointe à l'Université de Southampton, a expliqué que les deepfakes peuvent inclure de simples modifications et que quelques secondes d'enregistrement vocal suffisent pour créer un deepfake capable de contourner les systèmes de vérification vocale. Elle a indiqué que les deepfakes ne sont pas toujours utilisés de manière malveillante ; par exemple, la technologie de synthèse vocale peut être bénéfique pour la reconstruction vocale, la protection de la vie privée par des informations biométriques, et pour aider les personnes malvoyantes à travers des technologies de synthèse vocale.

Cependant, Williams a aussi exprimé des préoccupations sur l'impact des deepfakes sur la santé mentale, notamment en ce qui concerne la manière dont nous percevons la réalité, surtout chez les jeunes générations.

Walid Magdy, cofondateur et CTO d'Alan AI, a mentionné que les deepfakes sont souvent utilisés de manière négative sur les réseaux sociaux, citant le cas d'un compte TikTok où un homme se faisait passer pour l'acteur américain Tom Cruise. Il a critiqué la lenteur de la réponse des plateformes pour supprimer ces contenus et a comparé ce problème à celui des fausses informations.

En conclusion, Schneider a appelé à une approche mixte pour gérer les défis posés par les deepfakes, impliquant le développement de normes techniques et légales, ainsi qu'une meilleure formation et sens commun.

Post a Comment

Previous Post Next Post