Deepfake i oszustwa finansowe: oszuści wykorzystują wizerunki znanych osób

Deepfake, zaawansowana technologia manipulacji obrazem i dźwiękiem, stała się narzędziem oszustów finansowych, wykorzystujących wizerunki znanych osób. W ciągu ostatnich miesięcy odnotowano znaczny wzrost przypadków użycia deepfake w celu oszukiwania odbiorców za pomocą fałszywych inwestycji finansowych. Oszuści często wykorzystują wizerunki dziennikarzy, polityków i sportowców w materiałach wideo, aby zwiększyć wiarygodność swoich przekazów.

Jednym z najbardziej alarmujących przykładów jest manipulowanie wizerunkiem prezydenta Andrzeja Dudy. Dzięki dużej ilości dostępnych nagrań, modele deepfake mogą łatwo tworzyć realistyczne symulacje przy użyciu zaawansowanych algorytmów, co czyni je trudnymi do odróżnienia od autentycznych nagrań.

Współczesne social media stanowią główny kanał dystrybucji tych zmanipulowanych treści, narażając miliony użytkowników na oszustwa finansowe. Bez odpowiednich środków prewencji i wykrywania tych fałszywych materiałów, platformy społecznościowe mogą przyczyniać się do rosnącego zasięgu i skuteczności tych oszustw.

Reklama

Celem tego artykułu jest dostarczenie czytelnikom wiedzy na temat technologii deepfake oraz jej zastosowania w oszustwach finansowych. Dzięki temu dowiedzą się oni:

  • Jak działa technologia deepfake?
  • Jakie są typowe rodzaje oszustw finansowych wykorzystujących deepfake?
  • Jakie są znane przypadki oszustw z użyciem tej technologii?
  • Jak rozpoznać materiały manipulowane za pomocą deepfake?

Świadomość i edukacja w zakresie nowoczesnych zagrożeń cyfrowych mogą pomóc w ochronie przed oszustwami finansowymi.

Kluczowe informacje warte zapamiętania

  • Deepfake jest używany do oszustw finansowych poprzez manipulację wizerunkami znanych osób.
  • Wizerunki osób publicznych, jak prezydent Andrzej Duda, czy Robert Lewandowski, są często wykorzystywane.
  • Media społecznościowe są głównym kanałem dystrybucji zmanipulowanych treści.

Podstawowe informacje o deepfake i oszustwach finansowych

Technologia deepfake i oszustwa finansowe często współgrają, wykorzystując fałszywe treści wideo do manipulacji. Deepfake to narzędzie, które może być zarówno zaawansowanym osiągnięciem technologicznym, jak i groźnym narzędziem w rękach cyberprzestępców.

Reklama

Definicja i historia technologii deepfake

Deepfake to technologia, która wykorzystuje sztuczną inteligencję (AI) do manipulacji obrazami i dźwiękiem, tworząc realistyczne filmy, które wydają się autentyczne. Główne narzędzie tej technologii stanowią sieci neuronowe, w szczególności Generative Adversarial Networks (GAN), które potrafią naśladować ludzkie twarze oraz głosy. Termin „deepfake” pochodzi od „deep learning” i „fake”. Deep learning, czyli głębokie uczenie, to poddziedzina sztucznej inteligencji, która wykorzystuje sieci neuronowe do przetwarzania danych.

Pierwsze przykłady deepfake pojawiły się w 2017 roku na forach internetowych. Początkowo technologia była wykorzystywana głównie do wytwarzania kontrowersyjnych treści. Szybki rozwój algorytmów sprawił, że stały się bardziej realistyczne i trudne do odróżnienia od prawdziwych nagrań.

Metody i narzędzia tworzenia deepfake

Tworzenie deepfake opiera się na algorytmach głębokiego uczenia, które analizują i uczą się wzorców z istniejących materiałów wideo i dźwiękowych. Generowanie deepfake wymaga dużych ilości danych i zaawansowanego sprzętu komputerowego. Popularne narzędzia to TensorFlow i PyTorch, które są szeroko używane w badaniach nad sztuczną inteligencją.

Proces tworzenia zaczyna się od zebrania dużej ilości zdjęć lub nagrań osoby, której wizerunek ma być poddany manipulacji. Następnie algorytmy analizują te dane, ucząc się mimiki, ruchów i głosu. W końcowym etapie algorytmy generują nowe, fałszywe nagrania, które są praktycznie nie do odróżnienia od prawdziwych.

Reklama
  1. Zbieranie danych: Wielka liczba zdjęć i filmów konkretnej osoby jest używana do trenowania modelu.
  2. Trenowanie modelu: Sieci neuronowe analizują zebrane dane, ucząc się ruchów twarzy, mimiki oraz tonacji głosu.
  3. Generowanie deepfake: Po odpowiednim przeszkoleniu, model jest w stanie tworzyć nowe, realistyczne obrazy lub filmy przedstawiające tą osobę w różnych scenariuszach.
Proces tworzenia deepfake

Wpływ deepfake na bezpieczeństwo finansowe

Manipulacja obrazami za pomocą deepfake otwiera nowe możliwości dla cyberprzestępców, gdzie zmodyfikowane nagrania mogą wprowadzać ludzi w błąd i skłaniać do nierozsądnych decyzji finansowych. Dzięki niej możliwe jest realistyczne naśladowanie wizerunków i głosów znanych osób, co cyberprzestępcy coraz częściej wykorzystują do oszustw finansowych. Przykłady takich działań obejmują zarówno fałszywe inwestycje, jak i kradzież tożsamości.

Skala problemu: Polska vs reszta świata

Przestępcy często tworzą materiały z wizerunkami celebrytów, polityków czy biznesmenów, aby przekonująco zachęcić ofiary do fałszywych inwestycji. Tego rodzaju manipulacje są szczególnie niebezpieczne, ponieważ wyglądają bardzo autentycznie i często są trudne do wykrycia bez specjalistycznej analizy.

Na arenie międzynarodowej technologia deepfake staje się coraz bardziej powszechna jako narzędzie do przeprowadzania różnych form cyberprzestępczości. Organizacje takie jak Europol i FBI ostrzegają przed rosnącym zagrożeniem związanym z tymi technologiami.

Porównanie globalne:

Reklama
  • USA i Europa: Te regiony odnotowują największą liczbę incydentów związanych z deepfake, zarówno w kontekście politycznym, jak i finansowym.
  • Azja: Znaczący wzrost wykorzystania technologii deepfake do oszustw finansowych, szczególnie w Chinach i Indiach.
  • Polska: Choć skala problemu jest mniejsza niż na Zachodzie, Polska nie jest wolna od tego rodzaju zagrożeń. Polskie organy ścigania intensyfikują działania prewencyjne i edukacyjne.

Przegląd raportów NASK dotyczących oszustw finansowych związanych z deepfake w Polsce

NASK (Naukowa i Akademicka Sieć Komputerowa) regularnie publikuje raporty dotyczące cyberprzestępczości w Polsce, w tym oszustw finansowych wykorzystujących technologię deepfake. W ostatnich latach obserwuje się znaczący wzrost liczby takich incydentów.

Kluczowe dane z raportów NASK:

  • Wzrost liczby zgłoszeń: Odnotowano zwiększenie liczby zgłoszeń o przypadkach oszustw wykorzystujących deepfake, zwłaszcza w sektorze finansowym.
  • Profil ofiar: Najczęściej ofiarami padają osoby starsze oraz przedsiębiorstwa, które stają się celem zaawansowanych oszustw inwestycyjnych.
  • Rodzaje oszustw: Fałszywe filmy inwestycyjne, podszywanie się pod znane osoby oraz manipulacje audio-wideo w celu wyłudzenia środków finansowych.

Raporty NASK wskazują na konieczność podjęcia działań zapobiegawczych oraz edukacyjnych, aby zwiększyć świadomość społeczną na temat zagrożeń wynikających z technologii deepfake.

Przykłady oszustw finansowych z użyciem deepfake

W 2024 roku odnotowano wzrost incydentów związanych z deepfake’em, gdzie fałszywe nagrania z wizerunkami znanych osób były używane do nakłaniania do „korzystnych inwestycji”. Fałszywe materiały publikowane na mediach społecznościowych często zawierały automatycznie generowane głosy, które idealnie pasowały do ruchów ust i gestykulacji.

Reklama

Oszustwa finansowe z użyciem technologii deepfake stają się problemem w Polsce. Oto kilka przykładów, w których wykorzystano wizerunki znanych osób:

  1. Iga Świątek:
    • Opis: Przestępcy stworzyli wideo z udziałem znanej polskiej tenisistki Igi Świątek, reklamując fałszywe projekty inwestycyjne. Wideo miało na celu wyłudzenie pieniędzy od osób zainteresowanych inwestowaniem.
    • ŹródłoNASK ostrzega o deepfake z Igą Świątek.
  2. Rafał Brzoska:
    • Opis: Na Facebooku pojawiły się nagrania wideo, w których wykorzystano wizerunek prezesa InPostu, Rafała Brzoski, do reklamowania fałszywych inwestycji. Oszuści podszywali się pod niego, obiecując duże zyski z inwestycji.
    • ŹródłoDeepfake oszustwa z wizerunkiem Rafała Brzoski.
  3. Mateusz Morawiecki:
    • Opis: Oszuści stworzyli wideo, w którym premier Mateusz Morawiecki rzekomo promował inwestycje w kryptowaluty. Fałszywe nagranie było szeroko rozpowszechniane w mediach społecznościowych.
    • ŹródłoNASK ostrzega o rosnącej liczbie oszustw deepfake.
  4. Andrzej Duda:
    • Opis: Oszuści wykorzystali wizerunek prezydenta Andrzeja Dudy do promowania fałszywych inwestycji, sugerując, że projekt Baltic Pipe jest pod kontrolą rządu. Fałszywe nagranie miało na celu wyłudzenie pieniędzy od osób zainteresowanych inwestowaniem.
    • ŹródłoNASK ostrzega o oszustwach deepfake z udziałem Andrzeja Dudy.
  5. Donald Tusk:
    • Opis: Oszuści stworzyli wideo z udziałem byłego premiera Donalda Tuska, w którym rzekomo zachęcał on do inwestowania w podejrzane projekty finansowe. Nagranie było szeroko rozpowszechniane w mediach społecznościowych.
    • ŹródłoDeepfake w Polsce – ostrzeżenia.
  6. Robert Lewandowski:
    • Opis: Oszuści stworzyli wideo z udziałem znanego polskiego piłkarza Roberta Lewandowskiego, reklamując fałszywe projekty inwestycyjne związane z kryptowalutami. Wideo było szeroko rozpowszechniane w mediach społecznościowych, co skłoniło wiele osób do wpłacenia pieniędzy na konta oszustów.
    • ŹródłoPolicja ostrzega przed oszustwami deepfake z udziałem Roberta Lewandowskiego.
  7. Krzysztof Ibisz:
    • Opis: Na portalach społecznościowych pojawiły się fałszywe nagrania wideo z udziałem znanego prezentera telewizyjnego Krzysztofa Ibisza, w których rzekomo zachęcał on do inwestowania w podejrzane projekty finansowe. Ofiary, wierząc w autentyczność nagrań, przelewały pieniądze na konta oszustów.
    • ŹródłoDeepfake oszustwa z udziałem Krzysztofa Ibisza.
  8. Anna Lewandowska:
    • Opis: Przestępcy stworzyli wideo z udziałem Anny Lewandowskiej, znanej trenerki fitness i żony Roberta Lewandowskiego, reklamując fałszywe produkty zdrowotne i inwestycje. Wideo miało na celu wyłudzenie pieniędzy od osób zainteresowanych zdrowym stylem życia i inwestowaniem.
    • ŹródłoOszustwa deepfake z udziałem Anny Lewandowskiej.
  9. Jerzy Owsiak:
    • Opis: Oszuści stworzyli wideo z udziałem Jerzego Owsiaka, założyciela Wielkiej Orkiestry Świątecznej Pomocy, w którym rzekomo promował fałszywe zbiórki charytatywne i inwestycje. Fałszywe nagranie było szeroko rozpowszechniane, co skłoniło wiele osób do wpłacenia pieniędzy na konta oszustów.
    • ŹródłoDeepfake oszustwa z udziałem Jerzego Owsiaka.
  10. Małgorzata Rozenek-Majdan:
    • Opis: Przestępcy wykorzystali technologię do stworzenia fałszywego wideo z udziałem Małgorzaty Rozenek-Majdan, znanej polskiej prezenterki telewizyjnej, w którym reklamowała fałszywe produkty kosmetyczne i inwestycje. Wideo było szeroko rozpowszechniane w internecie, co skłoniło wiele osób do wpłacenia pieniędzy na konta oszustów.
    • ŹródłoOszustwa deepfake z udziałem Małgorzaty Rozenek-Majdan.

Te przykłady pokazują, jak technologia jest wykorzystywana do oszustw finansowych w Polsce, często poprzez podszywanie się pod znane osoby publiczne i tworzenie fałszywych narracji, które mają na celu wyłudzenie pieniędzy od niczego niepodejrzewających ofiar.

Wpływ na reputację i zaufanie społeczne

Manipulacja wizerunkiem znanych osób ma poważne konsekwencje:

  • Reputacja ofiar: Fałszywe nagrania mogą zniszczyć reputację poszkodowanych osób, prowadząc do utraty zaufania publicznego i profesjonalnego. W przypadku celebrytów fałszywe materiały mogą wpłynąć na ich kariery i relacje z fanami.
  • Zaufanie społeczne: Powszechne stosowanie technologii prowadzi do erozji zaufania społeczeństwa do mediów i instytucji. Ludzie stają się bardziej sceptyczni wobec informacji, co może skutkować trudnościami w odróżnieniu prawdy od fałszu.

Technologia stanowi poważne wyzwanie zarówno dla jednostek, jak i społeczeństwa jako całości. Rozpoznawanie zagrożeń i edukacja na temat metod manipulacji są kluczowe dla ochrony przed tego rodzaju oszustwami.

Reklama

Jak rozpoznać oszustwa typu deepfake? Narzędzia detekcji

Wskazówki dotyczące identyfikacji materiałów manipulowanych za pomocą technologii deepfake

Rozpoznawanie oszustw typu deepfake staje się coraz bardziej kluczowe w walce z cyberprzestępczością. Oto kilka wskazówek, które mogą pomóc w identyfikacji materiałów manipulowanych:

  • Analiza nienaturalnych ruchów: Deepfake często zdradza się przez nienaturalne ruchy ust, migotanie oczu lub mimikę twarzy.
  • Brak symetrii: Nieprawidłowości w symetrii twarzy mogą być znakiem manipulacji.
  • Niespójność w oświetleniu: Różnice w oświetleniu twarzy i tła mogą sugerować użycie deepfake.
  • Problemy z dźwiękiem: Niespójność między ruchem ust a dźwiękiem może być wskaźnikiem fałszerstwa.
  • Analiza kontekstu: Sprawdzenie źródła i wiarygodności materiału oraz porównanie z innymi dostępnymi zasobami.
Identyfikacja treści deepfake

Dostępne narzędzia sztucznej inteligencji AI i oprogramowania do wykrywania takich oszustw

Rozpoznawanie deepfake może być wspomagane przez różne narzędzia i oprogramowania. Oto niektóre z nich:

  • Deepware Scanner: Aplikacja mobilna, która analizuje pliki wideo pod kątem oznak deepfake.
  • Microsoft Video Authenticator: Narzędzie analizujące klatki wideo pod kątem subtelnych anomalii, które mogą wskazywać na manipulację.
  • FaceForensics++: Zestaw danych i narzędzi przeznaczonych do analizy twarzy w materiałach multimedialnych.
  • Sensity AI: Firma oferująca usługi wykrywania dla różnych sektorów, w tym finansowego i medialnego.
  • Google Jigsaw Assembler: Narzędzie pozwalające na analizę zdjęć i wideo pod kątem manipulacji cyfrowych.

Identyfikacja oszustw wymaga zarówno wiedzy technicznej, jak i dostępu do odpowiednich narzędzi. Dzięki powyższym wskazówkom i technologiom możliwe jest skuteczniejsze wykrywanie tych zaawansowanych form fałszerstw.

Rola mediów społecznościowych i odpowiedzialność platform

Media społecznościowe są kluczowym miejscem, gdzie oszuści wykorzystują technologię deepfake do prowadzenia finansowych oszustw. Platformy takie jak Facebook muszą podejmować konkretne kroki, aby chronić swoich użytkowników przed socjotechnikami.

Reklama

Zabezpieczenia stosowane przez Facebook i innych operatorów

Meta (właściciel Facebooka) wprowadził wiele narzędzi mających na celu wykrywanie i usuwanie deepfake’ów. Algorytmy uczące się są używane do identyfikacji zmanipulowanych wizerunków oraz głosów. Platformy również współpracują z ekspertami w dziedzinie sztucznej inteligencji, aby rozwijać bardziej zaawansowane technologie do wykrywania oszustw.

  1. Polityka dotycząca deepfake’ów: Meta wprowadziła zasady, które zakazują publikowania deepfake’ów, czyli zmanipulowanych wideo, które mogą wprowadzać w błąd użytkowników. W szczególności, firma skupia się na materiałach, które są wyraźnie zmanipulowane w sposób, który nie jest oczywisty dla przeciętnego użytkownika i które mogą prowadzić do dezinformacji.
  2. Zmiany w polityce – etykietowanie treści: W kwietniu 2024 roku Meta ogłosiła znaczące zmiany w swoich zasadach dotyczących deepfake’ów i innych zmodyfikowanych mediów. Meta zaczęła etykietować organiczne treści generowane przez AI, co ma na celu zwiększenie przejrzystości i umożliwienie użytkownikom lepszej orientacji w autentyczności materiałów wideo.
  3. Wymogi dla reklam politycznych: Meta wymaga od reklamodawców politycznych oznaczania, kiedy używają deepfake’ów w swoich materiałach. To działanie ma na celu zapobieganie dezinformacji w kontekście politycznym.

Dzięki tym działaniom Meta stara się ograniczyć wpływ dezinformacji i zapewnić, że użytkownicy są lepiej informowani o autentyczności treści, które widzą na platformie.

Przeciwdziałanie i zapobieganie oszustwom

Skuteczne przeciwdziałanie oszustwom typu deepfake wymaga edukacji społeczeństwa, zorganizowanych działań instytucji oraz odpowiednich regulacji prawnych.

Podniesienie świadomości społecznej na temat oszustw jest kluczowe. NASK oraz CERT Polska regularnie prowadzą kampanie informacyjne, które mają na celu edukowanie obywateli o zagrożeniach wynikających z technologii.

Reklama

Szkolenia i warsztaty dla dziennikarzy, influencerów i osób publicznych pomagają w identyfikacji zmanipulowanych materiałów. 

Na poziomie instytucjonalnym, takie organizacje jak CSIRT KNF pracują nad opracowywaniem wytycznych dla przedsiębiorstw i instytucji finansowych, aby mogły one lepiej się zabezpieczać przed tego typu oszustwami. Współpraca z organami ścigania oraz międzynarodowymi organizacjami zapewnia dodatkową warstwę ochrony.

Wykorzystanie zaawansowanych narzędzi analizy treści przez specjalistyczne zespoły wspierają proces identyfikacji i usuwania zmanipulowanych materiałów. Naukowcy i eksperci, pracując nad automatycznymi metodami wykrywania, zwiększają skuteczność przeciwdziałania tym zagrożeniom.

Utrzymywanie zdrowego rozsądku i krytycznego podejścia do treści dostępnych w internecie jest również niezbędnym środkiem zapobiegawczym dla każdego użytkownika sieci.

Reklama

Regulacje prawne i środki zapobiegawcze

Polska posiada regulacje prawne mające na celu zwalczanie oszustw deepfake. Przepisy te obejmują surowe kary za tworzenie i dystrybucję zmanipulowanych treści wizerunkowych znanych osób, co ma odstraszać potencjalnych przestępców.

W Polsce odpowiedzialność karna za tworzenie i rozpowszechnianie materiałów typu deepfake może wynikać z kilku przepisów prawnych. Oto najważniejsze z nich:

  1. Kodeks karny:
    • Art. 190a § 2: Przepis ten dotyczy kradzieży tożsamości i może być stosowany w przypadku, gdy deepfake jest używany do podszywania się pod inną osobę w celu wyrządzenia jej szkody.
    • Art. 212: Zniesławienie. Przepis ten może być stosowany, jeśli deepfake jest używany do rozpowszechniania fałszywych informacji, które mogą narazić osobę na utratę zaufania publicznego lub szkodzić jej reputacji.
    • Art. 216: Znieważenie. Ten przepis może być stosowany, gdy deepfake jest używany do obrażania lub poniżania osoby.
  2. Prawo autorskie:
    • Ustawa o prawie autorskim i prawach pokrewnych: Wykorzystanie wizerunku osoby bez jej zgody może naruszać jej prawa osobiste, a także prawa autorskie, jeśli deepfake wykorzystuje chronione utwory audiowizualne.
  3. Ochrona danych osobowych:
    • RODO (Rozporządzenie o Ochronie Danych Osobowych): Wykorzystanie wizerunku osoby bez jej zgody może naruszać przepisy dotyczące ochrony danych osobowych, szczególnie jeśli deepfake zawiera dane identyfikujące osobę.

Przepisy te mogą być stosowane w zależności od kontekstu i specyfiki danego przypadku. Warto również zauważyć, że prawo jest dynamicznie rozwijające się, a nowe regulacje mogą pojawiać się w odpowiedzi na rozwój technologii i jej wpływ na społeczeństwo.

Przyszłość deepfake i oszustw finansowych

Technologia deepfake stale się rozwija, oferując zarówno nowe możliwości, jak i zagrożenia.

Reklama

Niektóre prognozy sugerują, że w przyszłości mogą stać się narzędziem do masowego wyłudzania danych osobowych i dostępu do bankowości elektronicznej. Z tego powodu rośnie zapotrzebowanie na lepsze narzędzia do weryfikacji i zabezpieczeń w sektorze finansowym.

Przyszłość deepfake’ów i związanych z nimi oszustw finansowych jest tematem rosnącej troski wśród ekspertów ds. bezpieczeństwa cybernetycznego i regulacji. Kilka kluczowych trendów i przewidywań dotyczących tego obszaru obejmuje:

  1. Zwiększona złożoność i realizm:
    • Technologia deepfake staje się coraz bardziej zaawansowana, co sprawia, że fałszywe materiały są trudniejsze do wykrycia. Przestępcy mogą tworzyć bardziej realistyczne wideo i audio, które mogą być używane do oszustw finansowych. W miarę jak algorytmy stają się bardziej zaawansowane, fałszywe filmy są trudniejsze do wykrycia.
  2. Ataki na firmy i instytucje finansowe:
    • Przestępcy coraz częściej wykorzystują deepfake do ataków na firmy, manipulując głosem i wizerunkiem kluczowych osób, aby uzyskać dostęp do środków firmowych. Właściciele kont mogą być przekonywani do transferów pieniędzy za pomocą filmów przedstawiających fałszywe inwestycje.
  3. Rozwój narzędzi do wykrywania deepfake’ów:
    • W odpowiedzi na rosnące zagrożenie, rozwijane są zaawansowane narzędzia i technologie do wykrywania deepfake’ów. Organizacje inwestują w sztuczną inteligencję i uczenie maszynowe, aby lepiej identyfikować fałszywe materiały i chronić się przed oszustwami.
  4. Regulacje prawne:
    • W miarę jak deepfake staje się coraz większym zagrożeniem, rządy i organizacje międzynarodowe pracują nad wprowadzeniem regulacji i polityk mających na celu ograniczenie ich użycia do celów przestępczych. Wprowadzenie surowych kar za tworzenie i rozpowszechnianie może pomóc w zmniejszeniu skali tego zjawiska.
  5. Edukacja i świadomość:
    • Kluczowym elementem walki jest edukacja społeczeństwa i firm na temat zagrożeń związanych z tą technologią. Podnoszenie świadomości na temat sposobów identyfikacji fałszywych materiałów i promowanie sceptycznego podejścia do niezweryfikowanych źródeł informacji może pomóc w ograniczeniu skutków oszustw finansowych.
Jakie dzialania podjac w celu ograniczenia uzycia deepfakeow do celow przestepczych

Podsumowując, przyszłość deepfake’ów i oszustw finansowych wiąże się z rosnącym zagrożeniem, ale także z rozwijającymi się metodami obrony i regulacjami prawnymi, które mają na celu ochronę przed tymi nowymi formami przestępczości.

Najczęściej zadawane pytania

Technologia deepfake w kontekście oszustw finansowych staje się coraz bardziej zaawansowana, co stwarza nowe wyzwania dla instytucji finansowych i klientów. Poniżej omówione są najczęściej zadawane pytania dotyczące metod wykrywania, wpływu na bezpieczeństwo transakcji oraz sposobów obrony przed tym zagrożeniem.

.

Reklama
Podziel się swoją opinią:

Zapisz się na newslettera

Wprowadź swój adres e-mail poniżej, aby otrzymywać newslettera.

Wyrażam zgodę na przetwarzanie danych osobowych (adres e-mail) w celu otrzymywania wiadomości w ramach newslettera Bankowe ABC.
Zapisując się wyrażasz zgodę na otrzymywanie wiadomości drogą mailową. W celu uzyskania szczegółów zapoznaj się z polityką prywatności. Otrzymasz maksymalnie 2 wiadomości w miesiącu, bez reklam i spamu. Możesz wypisać się w każdej chwili.