Z kolei 62% badanych Polaków obawia się o bezpieczeństwo swoich danych osobowych bardziej niż pięć lat temu. Rozwój sztucznej inteligencji na nowo definiuje obszar prywatności danych osobowych i nasila pesymistyczne nastroje społeczne dotyczące ich bezpieczeństwa. Z raportu KPMG pt. „European Privacy Market Research 2023” wynika, że niepokój wywołują algorytmy uczące się preferencji osób przeglądających treści w serwisach społecznościowych czy treści typu deepfake.
Wzrasta świadomość ochrony danych osobowych
W Polsce wzrasta świadomość odpowiedzialności za ochronę danych osobowych. Blisko 6 na 10 Polaków biorących udział w badaniu KPMG uważa, że po wprowadzeniu RODO mają większą kontrolę nad swoimi danymi osobowymi. Równocześnie jednak Polacy wyrażają niepokój związany z innowacyjnymi rozwiązaniami technologicznymi, w tym genAI, które w ich opinii mogą zagrażać bezpieczeństwu danych osobowych w sieci – wskazuje na to 59% respondentów.
Dodatkowo ponad połowa badanych Polaków pesymistycznie ocenia przyszłość prywatności danych osobowych. 62% polskich respondentów badania przyznaje, że obecnie obawia się o bezpieczeństwo swoich danych osobowych bardziej niż pięć lat temu. Obawy te są nieco większe niż w pozostałych europejskich krajach (59%). Znacząco większą różnicę widać w przypadku opinii na temat poziomu dbałości o prywatność i kontroli nad danymi osobowymi. 60% respondentów z Polski uważa, że ochrona prywatności ich danych w kraju nie jest nadmierna, podczas gdy przeciętnie w Europie takie zdanie wyraża 48% społeczeństwa.
Niepokój wywołują między innymi algorytmy uczące się preferencji osób przeglądających treści w serwisach społecznościowych. Takie mechanizmy budzą obawy u 59% ankietowanych z Polski i 66% wszystkich badanych z Europy. Dodatkowo, treści typu deepfake zostały uznane za niepokojące przez 76% badanych Polaków oraz przez 80% pozostałych Europejczyków. Ponadto, 71% respondentów badania KPMG czuje dyskomfort związany z podsłuchiwaniem przez asystentów głosowych.
Zaufanie do administratorów danych osobowych
Transformacja cyfrowa dynamicznie przekształca sposoby interakcji między ludźmi i organizacjami. Powoduje to konieczność ciągłego zaangażowania w budowanie zaufania społecznego do instytucji, które zarządzają danymi osobowymi. W opinii respondentów z UE właściwe przetwarzanie danych osobowych powinno być głównie zadaniem banków (23%), instytucji państwowych (19%) oraz policji i sądów (19%).
Tymczasem instytucje państwowe nie zajmują czołowych miejsc wśród sektorów cieszących się obecnie najwyższym poziomem zaufania społecznego pod względem bezpieczeństwa danych osobowych. Jedynie 13% respondentów wykazuje, że obdarza je największym zaufaniem w tym zakresie. Europejczycy wykazują największe zaufanie do banków oraz policji i sądownictwa (po 24% wskazań). Dostawcy usług opieki zdrowotnej zostali wymienieni przez 15% respondentów jako godni zaufania, podczas gdy sprzedawcy detaliczni (2%) i media społecznościowe (3%) zajmują najniższe pozycje w rankingu.
– Wzrost ilości danych, ich różnorodność oraz szybki rozwój technologiczny sprawiają, że ochrona danych staje się coraz istotniejsza, a ryzyko naruszenia prywatności i bezpieczeństwa rośnie. Jednocześnie zauważalny jest wzrost świadomości obywateli Europy, w tym Polski, co do znaczenia ochrony prywatności. Ten trend potwierdza konieczność egzekwowania regulacji prawnych, które nie tylko istnieją na papierze, ale również zapewnią odpowiednie standardy wykorzystania danych. Rosnące znaczenie danych osobowych w nowoczesnym społeczeństwie wymaga podejmowania odpowiednich działań na poziomie regulacyjnym, społecznym oraz biznesowym. Przedstawione w raporcie trendy będą dotyczyć nie tylko konsumentów, lecz także przedsiębiorców, którzy, dbając o wysoki poziom bezpieczeństwa danych, budują zaufanie swoich klientów – mówi Magdalena Bęza, Associate Director, radca prawny w KPMG Law.
Rozwój AI zagrożeniem dla bezpieczeństwa danych osobowych
Rozwój sztucznej inteligencji na nowo definiuje obszar prywatności danych osobowych i nasila pesymistyczne nastroje społeczne dotyczące ich bezpieczeństwa. Niewiele ponad połowa uczestników badania KPMG twierdzi, że zachowuje ostrożność przy wprowadzaniu danych do chatbotów, takich jak ChatGPT, z obawy, że ich dane mogą być przechowywane i wykorzystywane do nieznanych celów. Na redefinicję prywatności przez sztuczną inteligencję wskazuje również fakt, że aż 80% respondentów obawia się dyskryminacji i nadużywania danych osobowych przez AI. Te wyniki wskazują na nowe wyzwanie związane z ochroną prywatności w erze genAI oraz potrzebę dalszej refleksji nad metodami minimalizowania ryzyka nadużyć.
– Unia Europejska już od kilku lat pełni rolę globalnego lidera w ochronie prywatności obywateli. Regulacje unijne stanowią wzorzec i punkt odniesienia dla rozwiązań przyjmowanych w innych częściach świata. Obejmują one nie tylko bezpieczeństwo samych danych osobowych, ale wraz z cyfrową transformacją ewoluują w kierunku zagadnień przetwarzania danych w komunikacji elektronicznej oraz udostępniania i ponownego wykorzystywania niektórych danych. Błyskawiczny rozwój sztucznej inteligencji stanowi ogromne wyzwanie dla prywatności i przetwarzania danych – mówi Piotr Burzyk, Starszy Menedżer w Zespole ds. Cyberbezpieczenstwa w Dziale Consultingu w KPMG w Polsce.
– Wśród tych dynamicznych zmian może jednak zniknąć z oczu sama istota zagadnienia, czyli człowiek, który ma prawo do ochrony swojej prywatności. Raport pozwala zmienić perspektywę stawiając w centrum uwagi opinię ludzi. Obywatele kilkunastu europejskich krajów wypowiedzieli się jak w ostatnich latach zmieniła się ich świadomość ochrony danych oraz jakie widzą wyzwania i zagrożenia związane z rozwojem technologii. Warto mieć te opinie na uwadze, na przykład projektując nowe usługi – dodaje.