EU EU-kommissionens Vera Jourova sade på måndagen att företag som använder AI-genererat innehåll ska märka detta innehåll så att användare vet vad det är. Företag ska i juli rapportera vad för säkerhetsåtgärder som införts för att hantera detta.

Företag som använder generativa AI-verktyg som ChatGPT och Bard med potential att generera desinformation bör märka sådant innehåll som en del av sina ansträngningar för att bekämpa falska nyheter, sade EU:s värderings- och öppenhetskommissionär Vera Jourova under måndagen.

Microsoft-stödda OpenAIs ChatGPT, som lanserades i slutet av förra året, har blivit den snabbast växande konsumentapplikationen i historien och startade en kapplöpning bland teknikföretag för att få ut generativa AI-produkter på marknaden. Oron ökar dock över potentiellt missbruk av tekniken och möjligheten att dåliga aktörer och till och med regeringar kan använda den för att producera mycket mer desinformation än tidigare.

— Undertecknare som integrerar generativ AI i sina tjänster som Bingchat för Microsoft, Bard för Google bör bygga in nödvändiga skyddsåtgärder för att dessa tjänster inte ska kunna användas av illvilliga aktörer för att generera desinformation, sade Jourova på en presskonferens.

— Undertecknare som har tjänster med potential att sprida AI-genererad desinformation bör i sin tur införa teknik för att känna igen sådant innehåll och tydligt märka detta för användarna, sade hon även.

Företag som Google, Microsoft och Meta Platforms som har anslutit sig till EU:s uppförandekod för att hantera desinformation bör rapportera om säkerhetsåtgärder som införts för att hantera detta i juli, sade Jourova.

Hon varnade Twitter, som lämnade uppförandekoden förra veckan, att förvänta sig mer kontroll av lagstiftningen.

”Genom att lämna uppförandekoden har Twitter tilldragit sig mycket uppmärksamhet och dess agerande och efterlevnad av EU-lagar kommer att granskas kraftfullt och brådskande”, sade Jourova.