Tech

AI-nepvideo’s volop ingezet in oorlog tussen Israël en Iran

Een beeld uit de video die later nep bleek

NOS Nieuws

Sinds de escalatie tussen Israël en Iran is er online een grote hoeveelheid desinformatie losgekomen. Op sociale media circuleren veel nepfoto’s en -video’s, meestal gemaakt met kunstmatige intelligentie (AI).

Dat blijkt dagelijks op de NOS-redactie, waar specialisten op het gebied van open source-onderzoek (OSINT) tientallen beelden eruit filteren waarvan de echtheid vaak niet is vast te stellen of die zelfs duidelijk nep zijn. Veruit de meeste desinformatie over de oorlog tussen Israël en Iran wordt gedeeld op X.

Die constatering doet de BBC ook. De Britse publieke omroep schreef over tientallen video’s die de effectiviteit van Irans reactie op Israëlische aanvallen proberen te benadrukken. Daarnaast zijn er nepvideo’s gemaakt en gedeeld over de nasleep van aanvallen op Israëlische doelen. Ook pro-Israëlische accounts hebben online desinformatie gedeeld.

De drie meest bekeken nepvideo’s die de BBC vond, werden samen al meer dan 100 miljoen keer bekeken op meerdere platforms.

OSINT

De OSINT-specialisten van de NOS stellen eveneens dat in deze oorlog opvallend veel beeld door AI wordt gemanipuleerd. Het doel van hun onderzoek is altijd: uitzoeken waar en wanneer een foto of video is gemaakt. Dat doen ze door omgevingskenmerken te verifiëren, tijdsbepalingen vast te stellen of beeld te vergelijken met andere beelden op het internet.

Ook hebben ze in de afgelopen dagen een lijst met X-accounts aangelegd waarop steevast gemanipuleerd beeld wordt gedeeld. Als beelden met AI zijn gemaakt of bewerkt, zie je dat niet zelden meteen met het blote oog. Maar steeds vaker is er meer voor nodig om manipulaties eruit te filteren.

In de meeste gevallen lukt dat, maar gisteren ging het toch mis met één van de video’s van de aanval op een gevangenis in Iran. Op bewakingsbeelden zou de explosie van de toegangspoort tot de beruchte Evin-gevangenis te zien zijn.

Naast de eerder genoemde elementen, speelt ook context een grote rol bij het controleren van beeldmateriaal. In dit geval stond de aanval zelf al vast, en was er ook geverifieerd beeld van na de explosie. Dat, in combinatie met een relatief ‘goede’ bewerking, heeft ertoe geleid dat dit beeld er bij veel media waaronder de NOS doorheen is geglipt.

Achteraf onterecht. Het blijkt te gaan om een oude foto van de gevangenispoort, gebruikt om met AI een video te genereren.

Dit is de vervolgens met AI gegenereerde video van de ‘explosie bij de gevangenis’:

Voorbeeld van desinformatie met AI

Een expert op het gebied van AI zegt tegen de BBC dat het de eerste keer is dat AI op een dergelijke schaal wordt ingezet tijdens een conflict.

De “superverspreiders” van Iraanse desinformatie op X groeien hard en hebben soms officiële namen. Ook hebben ze allemaal blauwe vinkjes, maar het is niet duidelijk door wie ze worden beheerd. De BBC merkt op dat Grok, de AI-chatbot van X, ook niet altijd kan zien dat iets nep is.

Related Articles

Back to top button