O oszustwie z wykorzystaniem wizerunku doktora Michała Sutkowskiego poinformowała kancelaria Sowisło Topolewski Kancelaria Adwokatów i Radców Prawnych S.K.A. W komunikacie opisano, jak dokładnie wyglądało działanie oszustów.
Oszuści reklamują preparaty wizerunkiem doktora Sutkowskiego
„Dr Sutkowski padł ofiarą kradzieży wizerunku i jego twarz pojawiła się w reklamach pseudoleków kardiologicznych o nazwie Acardin i rzekomych preparatów na pasożyty. Przy wykorzystaniu twarzy Pana doktora, powstały fikcyjne wywiady w oparciu o tzw. deep fake” – czytamy.
„Oszuści o nieustalonej dotychczas tożsamości stworzyli strony internetowe łudząco podobne do tych prowadzonych przez redakcje TVP Info oraz TVN. Co więcej, na stronach tych zostały zamieszczone fikcyjne wywiady rzekomo przeprowadzone z doktorem Sutkowskim” — informują dalej prawnicy lekarza.
Dr Sutkowski przypomina: Nie bierzcie leków bez nadzoru lekarza
Mimo złożenia zawiadomienia o podejrzeniu popełnienia przestępstwa, fałszywe reklamy nadal są rozpowszechniane w mediach społecznościowych. Kancelaria reprezentująca dr Sutkowskiego ostrzega, że mogą one stanowić zagrożenie dla zdrowia oraz życia osób, które dadzą się w ten sposób oszukać.
„Szczególnie istotny jest wzrost świadomości społecznej w zakresie tego rodzaju oszukańczych praktyk. Zażywanie reklamowanych w internecie preparatów nieznanego pochodzenia, bez nadzoru lekarza, naraża zdrowie i życie pacjentów” – podkreślono w komunikacie.
Osobne oświadczenie zamieścił też sam dr Michał Sutkowski. Na swoim kanale w serwisie YouTube przekonywał, że nie zna reklamowanych jego twarzą produktów. Przypomniał, że zgodnie z prawem żaden lekarz nie może podobnych „leków” reklamować. – Proszę Państwa, to jest kradzież wizerunku. Kradzież wizerunku, której jestem ofiarą – podkreślał. Ostrzegał widzów przed niebezpieczeństwem zaufania tego typu reklamom.
Czym jest technologia deep fake?
Deepfake to sposób obróbki obrazu wykorzystujący sztuczną inteligencję i uczenie maszynowe do nakładania obrazów ruchomych i nieruchomych na obrazy lub filmy źródłowe. W efekcie mogą powstać na przykład filmy z udziałem dowolnej osoby, która z jego nagraniem nie miała nic wspólnego, a widzowie nie będą w stanie odróżnić oryginalnego nagrania od fałszywego.
Nie da się powiedzieć jednoznacznie, że to coś wyłącznie złego. Z jednej strony materiały stworzone z użyciem tej technologii mogą mieć walor rozrywkowy czy edukacyjny – na przykład muzeum będzie mogło wyprodukować film „z udziałem” nieżyjącego artysty, który będzie opowiadał zwiedzającym o tajnikach sztuki.
To jednak również, a może przede wszystkim, świetne narzędzie dla wszelkiej maści cyberprzestępców, którzy chcą tworzyć fakenewsy oraz szkalujące innych ludzi filmy i zdjęcia. Nagrania takie mogą służyć do szantażowania kogoś lub zniszczenia jego reputacji.
Czytaj też:
Nowe zasady na YouTube. Materiały AI na cenzurowanymCzytaj też:
AI „ukradło mu głos”. Lektor Harry'ego Pottera zszokowany