Parler en FaceTime ne sera plus une gage de confiance Et on se fera tous avoir đ Cette vidĂ©o DeepFake a dĂ©jĂ 2 ans ! Aujourd'hui, c'est Sam Altman tire la sonnette dâalarme. On approche dâune crise de fraude sans prĂ©cĂ©dent, alimentĂ©e par lâIA. Les outils de clonage vocal et vidĂ©o sont devenus bluffants... et accessibles ! Et nos systĂšmes dâauthentification actuels ne tiennent plus la route. En rĂ©sumĂ© : - Les deepfakes audio/vidĂ©o sont dĂ©sormais indiscernables de la rĂ©alitĂ© - Nos banques utilisent parfois la voix comme moyen dâauthentification - Les escroqueries Ă la fausse rançon ou Ă lâusurpation dâidentitĂ© explosent - Des responsables politiques ont dĂ©jĂ Ă©tĂ© piĂ©gĂ©s par des clones IA MĂȘme le FBI alerte sur lâessor des arnaques dopĂ©es Ă lâintelligence artificielle Un employĂ© d'une multinationale Ă Hong Kong a dĂ©jĂ transfĂ©rĂ© 25 millions dâeuros Ă des escrocs, piĂ©gĂ© par un DeepFake (en fĂ©vrier 2024) Et on nâen est quâau dĂ©but. BientĂŽt, il faudra un mot de passe mĂȘme pour les appels comme pour les visios. đ Mon point de vue ? Lâinnovation va plus vite que la rĂ©glementation⊠comme toujours ! Et plus vite que notre Ă©ducation Ă ces pratiques. "I am very nervous about this" a dit Sam Altman... moi aussi ! Pourquoi câest wow ? Parce que la technologie a franchi un cap majuer dans le mimĂ©tisme humain. On nâa jamais eu autant besoin de repenser la confiance numĂ©rique. đŹ Alors, ton avis ? - Pourrais-tu te faire avoir par un deepfake ? - Comment s'en protĂ©ger Ă l'avenir ?