OpenAI pakt misleidende AI-campagnes aan
OpenAI, het bedrijf achter ChatGPT, heeft onthuld dat het meerdere online campagnes heeft gestopt die hun technologie gebruikten om wereldwijd de publieke opinie te manipuleren. Dit maakte Sam Altman, oprichter van OpenAI, bekend op 30 mei.
In de afgelopen drie maanden heeft OpenAI vijf geheime operaties ontdekt en beëindigd die hun AI-modellen inzetten voor misleidende activiteiten op het internet. Deze kwaadwillenden gebruikten AI om reacties voor artikelen te genereren, sociale media-accounts aan te maken, en teksten te vertalen en proef te lezen.
Een van deze operaties, “Spamouflage,” gebruikte OpenAI om sociale media te onderzoeken en meertalige inhoud te creëren op platforms zoals X, Medium en Blogspot. Hun doel was om de publieke opinie te manipuleren of politieke uitkomsten te beïnvloeden. Ze gebruikten AI ook om code te debuggen en databases en websites te beheren.
Een andere operatie, “Bad Grammar,” richtte zich op Oekraïne, Moldavië, de Baltische Staten en de Verenigde Staten. Ze gebruikten OpenAI-modellen om Telegram-bots te runnen en politieke reacties te genereren.
De groep “Doppelganger” gebruikte AI om reacties in verschillende talen, waaronder Engels, Frans, Duits, Italiaans en Pools, te genereren. Deze reacties werden geplaatst op X en 9GAG met als doel de publieke opinie te beïnvloeden.
Daarnaast ontdekte OpenAI een groep genaamd “International Union of Virtual Media” die AI gebruikte om lange artikelen, koppen en website-inhoud te maken voor hun gelinkte websites.
Ten slotte was er een commercieel bedrijf genaamd STOIC dat AI gebruikte om artikelen en reacties te genereren op sociale mediaplatforms zoals Instagram, Facebook en X, evenals op hun verbonden websites.
De inhoud van deze operaties besloeg een breed scala aan onderwerpen, zoals de invasie van Oekraïne door Rusland, het conflict in Gaza, de Indiase verkiezingen, de politiek in Europa en de Verenigde Staten, en kritiek op de Chinese overheid door Chinese dissidenten en buitenlandse regeringen.
Volgens Ben Nimmo, een hoofonderzoeker bij OpenAI, geven deze casestudies voorbeelden van enkele van de meest gerapporteerde en langstlopende invloedscampagnes die momenteel actief zijn. Het is de eerste keer dat een groot AI-bedrijf onthult hoe zijn tools zijn gebruikt voor online misleiding.
“Tot nu toe lijken deze operaties niet te hebben geprofiteerd van een grotere betrokkenheid of bereik dankzij onze diensten,” concludeerde OpenAI.
Deze onthullingen benadrukken hoe belangrijk het is om alert te blijven op het misbruik van AI-technologieën. Ze tonen ook de verantwoordelijkheid van bedrijven zoals OpenAI om ervoor te zorgen dat hun tools niet worden misbruikt voor schadelijke doeleinden. Door proactief op te treden, kan de impact van dergelijke misleidende campagnes worden beperkt.