Wat ee virdru villäicht schonn aus dem englesch- oder däitschsproochege Raum kannt huet, gëtt et mëttlerweil och zu Lëtzebuerg. Politikerinnen a Politiker oder Mënschen aus dem ëffentleche Liewen, déi a Videoe kuriéis Saache soen.
KI op Lëtzebuergesch?
Bis ewell goufen et keng Deepfake-Videoen op Lëtzebuergesch. Dat wier awer keng Saach vun der Onméiglechkeet, seet de Christoph Schommer. Hien ass Professer fir kënschtlech Intelligenz op der Uni Lëtzebuerg am Beräich Computerwëssenschaften. Fir datt esou eng KI op Lëtzebuergesch kéint schwätzen, misst si virdru mat genuch Material gespeist ginn. E groussen Aarbechtsopwand also, fir dat klengt Lëtzebuerg.
Op Englesch géif ee vill méi Leit erreechen an dat hätt ganz aner Auswierkungen.
„Außerdem ist die Anzahl der möglichen Täter:innen hier vielleicht auch begrenzt. Denn man muss davon ausgehen, dass die Leute, die das produzieren, Kenntnisse vom Luxemburgischen haben.”
Ënnerschiddlech Motiver
Wien hannert esou 'Deepfakes' stécht, ass schwéier ze soen. Den eenzelen Täter oder d‘Täterin am Internet ze identifizéieren, wier net einfach. Meeschtens hätt ee mat gefakte Profiller ze dinn. D’Motiver fir esou Videoen ze produzéiere ginn auserneen.
"Ganz einfaches Beispiel. Vor der Wahl: man macht Stimmung für oder gegen etwas. Oder Religion: man macht Stimmung für oder gegen etwas.”
Awer och de finanziellen Aspekt kann e Motiv sinn, wéi een et bei de Videoe vun de Lëtzebuerger Politikerinnen a Politiker gesinn huet.
Wann een déi verschidde Videoe kuckt, wäert ee séier e groussen Ënnerscheed an der Qualitéit feststellen. Am Laf vun deene leschten zwee Joer huet déi kënschtlech Intelligenz en immense Sprong no vir gemaach.
De gesonde Mënscheverstand asetzen
Elo hänkt et nach dovunner of, wéi een Tool ee benotzt, fir de Video ze erstellen. Virun allem ob et eng gratis oder eng bezuelte Versioun ass, gesäit een am Resultat.
Kann een dann haut iwwerhaapt nach den Ënnerscheed tëscht 'real' oder 'fake' erkennen? De Christoph Schommer erkläert, datt ëmmer nach gewëssen "Ungereimtheiten" am Bild oder Video ze erkenne sinn. Beim blënzele mat den Ae stëmmt eppes mam Hannergrond net, oder mam Kontrast schéngt eppes falsch ze sinn.
Ofgesinn awer vum techneschen Aspekt, deen ee mol méi mol manner gutt ka gesinn, sollt ee sech dobäi ëmmer froen, ob dat wierklech Sënn ergëtt, datt genau déi Persoun elo zum Beispill eng Reklamm fir e Finanzproduit mécht, oder sech op eng gewëssen Aart zu engem Sujet positionéiert. Dat seet och de Steve Muller, Expert fir Cybersecurity bei Beesecure.
“De gesonde Mënscheverstand, den däerf een net ënnerschätzen. Well ech menge grad déi Videoen, déi am Moment courséieren, déi si jo relativ offensichtlech ruffschiedegend gemengt.“
Ursprong an der Pornoindustrie
Fir de Verbraucher ginn et zwou Pisten, déi wichteg sinn. Eng Kéier esou en 'deepfake' ze erkennen an net op déi falsch Informatiounen eranzefalen. An déi aner ass et, net selwer Affer dovun ze ginn.
Hiren Ursprong hunn 'deepfakes' nämlech an der Pornoindustrie a maachen och nach haut 96 Prozent vun den Deepfake-Videoen, déi am Ëmlaf sinn, aus. Do ginn also Biller a Videoe vu Fraen, ob prominent oder net, geholl. Mat Hëllef vu kënschtlecher Intelligenz gëtt dann e Porno gefälscht. Haaptsächlech sinn dobäi Frae betraff.
Rechtlech dogéint virzegoen ass méiglech. Et gëtt zwar keng spezifesch Gesetzeslag fir KI, et ginn awer scho Gesetzer, wéi zum Beispill den Droit de l’image oder och d’Dateschutzgesetz, déi een als Basis benotze kann.
De Problem bei Videoen am Internet ass awer deen, datt een am Internet dacks anonym ënnerwee ass. Et ass also schwiereg, déi Leit zu Rechenschaft ze zéien, erkläert de Steve Muller.
Video mat Hëllef vu KI net grondsätzlech schlecht
Experte wéi de Christoph Schommer vun der Uni Lëtzebuerg oder de Steve Muller vu Beesecure roden also, datt een ni enger Quell eleng sollt vertrauen, a léiwer weider recherchéiere sollt. Virun allem dann, wann engem eng Meldung suspekt virkënnt. Bei Videoe sollt een op déi technesch Aspekter wéi d’Synchronisatioun vun de Lëpse kucken an de Video an e logesche Kontext setzen.
'Deepfakes' mat Hëllef vu kënschtlecher Intelligenz sinn awer net grondsätzlech schlecht. Et hänkt ëmmer dovun of, wie se firwat benotzt. KI kann zum Beispill an der Film- oder Museksindustrie zum Asaz kommen a kann do eng grouss Hëllef sinn.