Tak rosyjski wywiad korzystał z OpenAI. Dezinformował m.in. w Polsce

Tak rosyjski wywiad korzystał z OpenAI. Dezinformował m.in. w Polsce

Chat GPT, chatbot opracowany przez OpenAI
Chat GPT, chatbot opracowany przez OpenAI Źródło: Shutterstock / Ascannio
Firma OpenAI poinformowała, że zidentyfikowała pięć kampanii internetowych, które korzystały z modeli sztucznej inteligencji do rozsiewania rosyjskiej propagandy, m.in. w Polsce.

Firma OpenAI przekazała w nowym raporcie, że wspomniane kampanie dezinformacyjne udało się zidentyfikować i zakłócić. Konta powiązane z tymi operacjami zostały skasowane.

Działania te były prowadzone przez podmioty państwowe i prywatne firmy w Rosji, Chinach, Iranie i Izraelu w celu zwodzenia opinii publicznej i manipulowania nią. Operacje te wykorzystywały technologię OpenAI do generowania postów w mediach społecznościowych, tłumaczenia i edytowania artykułów, pisania nagłówków i debugowania programów komputerowych, zazwyczaj w celu zdobycia poparcia dla kampanii politycznych lub zmiany opinii publicznej w konfliktach geopolitycznych.

Sztuczna inteligencja w rękach Rosji i Chin. Tak manipulowano w Polsce

W raporcie poinformowano o wcześniej nieopisanej operacji którą właściciele OpenAI nazwali Bad Grammar. Była ona prowadzona głównie na Telegramie i była wymierzona w Ukrainę, Mołdawię, kraje bałtyckie i Stany Zjednoczone. „Osoby stojące za Bad Grammar wykorzystywały nasze modele do debugowania kodu do uruchamiania bota Telegrama i tworzenia krótkich, politycznych komentarzy w języku rosyjskim i angielskim, które były następnie publikowane na komunikatorze” – czytamy.

W ramach znanej już wcześniej operacji „Doppelganger”, powiązanej z rosyjskim wywiadem, Rosjanie korzystali z modeli sztucznej inteligencji do tworzenia postów po francusku, niemiecku, włosku i polsku, które były zamieszczane na portalu X (dawniej Twitter) i portalu z memami 9GAG, a także do tworzenia całych artykułów zamieszczanych na stronach imitujących rzeczywiste media.

Modele OpenAI były też wykorzystywane przez grupy z Chin, Izraela i Iranu. Podmioty te manipulowały odbiorcami, pisząc o różnych tematach: inwazji Rosji na Ukrainę, konflikcie w Strefie Gazy, wyborach w Indiach, polityce w Europie i Stanach Zjednoczonych oraz krytyce chińskiego rządu przez chińskich dysydentów i zagraniczne rządy.

Czytaj też:
Twórcy ChatGPT chcą wywołać rewolucję. Tworzą wyszukiwarkę, która ma konkurować z Google
Czytaj też:
Twórca ChatGPT zwolniony. Wraz z nim odchodzi trzech Polaków

Źródło: New York Times, WPROST.pl